DE102007021762A1 - Straßenumgebungs-Erkennungsvorrichtung und Verfahren zum Erkennen einer Straßenumgebung - Google Patents

Straßenumgebungs-Erkennungsvorrichtung und Verfahren zum Erkennen einer Straßenumgebung Download PDF

Info

Publication number
DE102007021762A1
DE102007021762A1 DE102007021762A DE102007021762A DE102007021762A1 DE 102007021762 A1 DE102007021762 A1 DE 102007021762A1 DE 102007021762 A DE102007021762 A DE 102007021762A DE 102007021762 A DE102007021762 A DE 102007021762A DE 102007021762 A1 DE102007021762 A1 DE 102007021762A1
Authority
DE
Germany
Prior art keywords
vehicle
road
road environment
coordinate
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102007021762A
Other languages
English (en)
Other versions
DE102007021762B4 (de
Inventor
Kiyokazu Kariya Takagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102007021762A1 publication Critical patent/DE102007021762A1/de
Application granted granted Critical
Publication of DE102007021762B4 publication Critical patent/DE102007021762B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

Eine Radareinheit gibt Strahlen ab und empfängt einen Reflexionsstrahl, der von einem Objekt reflektiert wird. Eine Position des Objekts relativ zu einem Fahrzeug und ein Attribut des Objekts werden auf der Grundlage der abgegebenen Strahlen und des Reflexionsstrahls erkannt. Eine Koordinatenposition des Fahrzeugs in einer Absolutkoordinate wird auf der Grundlage eines Reiseumfangs des Fahrzeugs berechnet und eine Koordinatenposition des Objekts wird auf der Grundlage der berechneten Position des Fahrzeugs und der Position des Objekts relativ zu dem Fahrzeug berechnet. Eine Straßenumgebung des Fahrzeugs wird auf der Grundlage der Koordinatenpositionen und des Attributs des Objekts erkannt.

Description

  • Die vorliegende Erfindung betrifft eine Straßenumgebungs-Erkennungsvorrichtung und ein Verfahren zum Erkennen einer Straßenumgebung.
  • Die JP-A-2005-10891 offenbart eine Straßenform-Erkennungsvorrichtung, die in ein Fahrzeug eingebaut ist. Das Fahrzeug fährt auf einer Straße und die Erkennungsvorrichtung erkennt eine Straßenform als eine Straßenumgebung. Die Erkennungsvorrichtung beinhaltet einen Erfassungssensor (zum Beispiel ein Laserradar), der ein vorderes Objekt vor dem Fahrzeug erfasst. Das vordere Objekt ist ein Kandidat für eine straßenseitige Struktur, die die Straßenform ausbildet. Weiterhin kann eine Positionsinformation des vorderen Objekts vorgesehen sein, nachdem der Erfassungssensor das Erfassen des vorderen Objekts beendet hat. Das heisst, die Positionsinformation des vorderen Objekts kann sowohl in der Erfassungszeit als auch nach der Erfassungszeit vorgesehen sein. Die Straßenform kann auf der Grundlage der Positionsinformation sowohl in der Erfassungszeit als auch nach der Erfassungszeit erkannt werden. Die Straßenform kann auch dann genau erkannt werden, wenn die Anzahl der Kandidaten in der Erfassungszeit klein ist, da die Positionsinformation nach der Erfassungszeit verwendet werden kann.
  • Die Positionsinformation nach der Erfassungszeit kann durch Berechnungen vorgesehen werden. Wenn der Erfassungssensor das Erfassen des vorderen Objekts beendet, ist die Position des vorderen Objekts als eine Anfangsposition definiert. Die Position des vorderen Objekts nach einer Abtastdauer wird unter Verwendung einer Bewegungsinformation des Fahrzeugs während der Abtastdauer berechnet.
  • Jedoch erfasst die Erkennungsvorrichtung lediglich das vordere Objekt als den Kandidaten für die straßenseitige Struktur. Deshalb kann die Straßenumgebung nicht umfassend erkannt werden.
  • Im Hinblick auf die vorhergehenden und andere Probleme ist es eine Aufgabe des vorliegenden Erfindung, eine Straßenumgebungs-Erkennungsvorrichtung und ein Verfahren zum Erkennen einer Straßenumgebung zu schaffen.
  • Diese Aufgabe wird mit den in Anspruch 1 und 10 angegebenen Maßnahmen gelöst.
  • Weitere vorteilhafte Ausgestaltungen der vorliegenden Erfindung sind Gegenstand der abhängigen Ansprüche.
  • Gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung weist eine Straßenumgebungs-Erkennungsvorrichtung eine Radareinheit, ein Objekterkennungselement, ein Reiseumfangs-Messelement, ein Koordinatenpositions-Berechnungselement und ein Straßenumgebungs-Erkennungselement auf. Die Radareinheit ist in ein Fahrzeug eingebaut. Die Radareinheit gibt eine Mehrzahl von Strahlen in einen vorbestimmten Winkelbereich in eine Breitenrichtung und eine Höhenrichtung des Fahrzeugs ab und empfängt einen Reflexionsstrahl, der von einem Objekt reflektiert wird. Das Objekterkennungselement erkennt eine Position des Objekts relativ zu dem Fahrzeug und ein Attribut des Objekts auf der Grundlage von Ergebnissen der abgegebenen Mehrzahl von Strahlen und des Reflexionsstrahls. Das Reiseumfangs-Messelement misst einen Reiseumfang des Fahrzeugs. Das Koordinatenpositions-Berechnungselement berechnet wiederholt eine Koordinatenposition des Fahrzeugs in einer Absolutkoordinate, die einen vorbestimmten Punkt als einen Ursprung aufweist, auf der Grundlage des Reiseumfangs, der von dem Reiseumfangs-Messelement gemessen wird, und berechnet wiederholt eine Koordinatenposition des Objekts auf der Grundlage der berechneten Position des Fahrzeugs und der Position des Objekts relativ zu dem Fahrzeug. Das Straßenumgebungs-Erkennungselement speichert die Koordinatenpositionen des Fahrzeugs und des Objekts und erkennt eine Straßenumgebung des Fahrzeugs auf der Grundlage der gespeicherten Koordinatenpositionen und des Attributs des Objekts.
  • Gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung weist ein Verfahren zum Erkennen einer Straßenumgebung einen Abgabeschritt, einen Erkennungsschritt, einen Messschritt, einen Berechnungsschritt und einen Speicherschritt auf. In dem Abgabeschritt wird eine Mehrzahl von Strahlen aus einer Radareinheit, die in ein Fahrzeug eingebaut ist, in einen vorbestimmten Winkelbereich in einer Breitenrichtung und einer Höhenrichtung des Fahrzeugs abgegeben und wird der Strahl von einem Objekt als ein Reflexionsstrahl reflektiert. In dem Erkennungsschritt werden eine Position des Fahrzeugs relativ zu dem Fahrzeug und ein Attribut des Objekts auf der Grundlage von Ergebnissen der abgegebenen Mehrzahl von Strahlen und des Reflexionsstrahls erkannt. In dem Messschritt wird ein Reiseumfang des Fahrzeugs gemessen. In dem Berechnungsschritt wird eine Koordinatenposition des Fahrzeugs in einer Absolutkoordinate, die einen vorbestimmten Punkt als einen Ursprung aufweist, auf der Grundlage des Reiseumfangs berechnet, der von dem Reiseumfangs-Messelement gemessen wird, und wird eine Koordinatenposition des Objekts auf der Grundlage der berechneten Position des Fahrzeugs und der Position des Objekts relativ zu dem Fahrzeug berechnet. In dem Speicherschritt werden die Koordinatenpositionen des Fahrzeugs und des Objekts gespeichert und wird eine Straßenumgebung des Fahrzeugs auf der Grundlage der gespeicherten Koordinatenpositionen und des Attributs des Objekts erkannt.
  • Demgemäß kann die Straßenumgebung umfassend erkannt werden.
  • Die vorliegende Erfindung wird nachstehend anhand eines Ausführungsbeispiels unter Bezugnahme auf die beiliegende Zeichnung näher erläutert.
  • Es zeigt:
  • 1 eine schematische Darstellung einer Straßenumgebungs-Erkennungsvorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 2 eine Darstellung eines Abstrahlungsbereichs eines Laserradars der Straßenumgebungs-Erkennungsvorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung;
  • 3 ein Flussdiagramm eines Straßenumgebungs-Erkennungsverfahrens;
  • 4 eine Tabelle von Charakteristiken von Modellobjekten;
  • 5 eine Darstellung einer Straßenumgebung bezüglich einer Autobahn; und
  • 6A bis 6E Darstellungen eines Verfahrens zum Erkennen eines Spurwechsels unter Verwendung einer Positionsbeziehung zwischen einer Spurmarkierung und einem Fahrzeug.
  • Wie es in 1 gezeigt ist, weist eine Straßenumgebungs-Erkennungsvorrichtung ein Laserradar und eine elektronische Steuereinheit bzw. ECU 60 auf. Das Laserradar beinhaltet einen Lichtabgabeabschnitt 10 und einen Lichtempfangsabschnitt 20, welche in einem vorderen Teil eines Fahrzeugs eingebaut sind, und erfasst ein vorderes Objekt vor dem Fahrzeug.
  • Der Lichtabgabeabschnitt 10 beinhaltet eine Halbleiterlaserdiode 12. Die Laserdiode 12 gibt Pulslaserlicht über eine Abtasteinrichtung bzw. einen Scanner 13 und eine Lichtabgabelinse 17 ab. Die Laserdiode 12 ist über eine Laserdioden-Ansteuerschaltung bzw. LDD 11 mit der ECU 60 verbunden und streut Laserlicht als Reaktion auf ein Ansteuersignal S1 ab, das aus der ECU 60 ausgegeben wird. Die Abtasteinrichtung 13 weist einen Polygonspiegel 14 als einen Reflektor auf und der Polygonspiegel 14 wird über einen Motor (nicht gezeigt) angesteuert. Wenn ein Ansteuersignal S2 in eine Motoransteuerschaltung bzw. MD 15 von der ECU 60 eingegeben wird, steuert die Motoransteuerschaltung 15 den Motor an, um den Polygonspiegel 14 zu drehen. Ein Positionssensor bzw. PS 16 erfasst eine Drehposition des Motors und gibt ein Signal S3 der Drehposition des Motors zu der ECU 60 aus.
  • Der Polygonspiegel 14 weist sechs Reflexionsflächen auf und ein Flächenwinkel unterscheidet sich zwischen den sechs Reflexionsflächen. Deshalb kann der Lichtabgabeabschnitt 10, wenn der Polygonspiegel 14 mit einem vorbestimmten Geschwindigkeit gedreht wird und wenn die Laserdiode 12 intermittierend Laserlicht abgibt, unstetig Laserlicht mit einem vorbestimmten Winkelbereich in einer Breitenund Höhenrichtung des Fahrzeugs abtasten.
  • Der Lichtempfangsabschnitt 20 weist eine Lichtempfangslinse 21 zum Empfangen eines Laserlichts auf, das von einem Objekt (nicht gezeigt) reflektiert wird. Die Lichtempfangslinse 21 sendet das Reflexionslicht zu einem Lichtempfangselement 22 bzw. einer Fotodiode. Das Lichtempfangselement 22 gibt eine Spannung aus, die einer Intensität des Reflexionslichts entspricht. Die Spannung, die aus dem Lichtempfangselement 22 ausgegeben wird, wird von einem Verstärker 30 verstärkt, und zu einem Komparator 40 ausgegeben. Der Komparator 40 vergleicht die Ausgangsspannung mit einer Referenzspannung V0. Wenn die Ausgangsspannung größer als die Referenzspannung V0 ist, wird ein vorbestimmtes Lichtempfangssignal S4 zu einer Zeitmessschaltung bzw. TM 50 ausgegeben.
  • Das Ansteuersignal S1, das aus der ECU 60 zu der Laserdioden-Ansteuerschaltung 11 ausgegeben wird, wird ebenso in die Zeitmessschaltung 50 eingegeben. Die Zeitmessschaltung 50 kodiert eine erste Zeitdauer von dem Ansteuersignal S1 zu dem Lichtempfangssignal S4 zu einem binären digitalen Signal. Die erste Zeitdauer entspricht einer Zeitdifferenz zwischen dem Abgeben des Laserlichts und dem Empfangen des Laserlichts. Weiterhin wird ebenso eine zweite Zeitdauer, für welche die Ausgangsspannung größer als die Referenzspannung V0 ist, von der Zeitmessschaltung 50 gemessen. Die Zeitmessschaltung 50 kodiert die zweite Zeitdauer zu dem binären digitalen Signal. Dann werden die binären digitalen Signale als Messzeitdaten S5 in die ECU 60 eingegeben. Die zweite Zeitdauer wird als eine Information verwendet, die die Intensität des Reflexionslichts anzeigt, da die zweite Zeitdauer eine Korrelation mit der Intensität des Reflexionslichts aufweist. Es wird eine Abstrahlungsfläche eines Laserlichts beschrieben. Der Lichtabgabeabschnitt 10 ist imstande, vierhunderteinundfünfzig (451) Laserlichtpunkte mit einem Strahlstufenwinkel von 0,08° in der Breitenrichtung des Fahrzeugs abzustrahlen. Demgemäß ist die Abstrahlungsfläche eines Laserlichts in der Breitenrichtung des Fahrzeugs ±18° (= 0,08° × 451 Punkte).
  • Der Lichtabgabeabschnitt 10 ist aufgrund des Polygonspiegels 14, der sechs Reflexionsflächen aufweist, imstande, Laserlicht abzustrahlen, das sechs Schichten in der Höhenrichtung des Fahrzeugs aufweist. Die sechs Schichten sind mit oberen drei Schichten U und unteren drei Schichten L aufgebaut, wie es in 2 gezeigt ist. Die oberen drei Schichten U werden zum Erfassen eines vorderen Fahrzeugs und einer straßenseitigen Objekts, zum Beispiel eines Leitpfostens oder eines Verkehrszeichens, verwendet. Im Gegensatz dazu werden die unteren drei Schichten L hauptsächlich zum Erfassen einer Fahrspurlinie (einer Fahrspurmarkierung), zum Beispiel einer gemalten weißen Linie, auf einer Straßenfläche verwendet. Deshalb wird eine Richtung der unteren drei Linien L derart festgelegt, dass Laserlicht zu der Straßenfläche abgestrahlt wird.
  • Jede Laserschicht weist einen Strahlwinkel von ungefähr 1,6° in der Höhenrichtung des Fahrzeugs auf. Ein Abstrahlungswinkel von Laserlicht wird derart eingestellt, dass ein Teil der Laserschicht mit einer angrenzenden Laserschicht in jeder der drei unteren Schichten L und der oberen drei Schichten U überlappt. Dadurch kann eine Auflösung in der Höhenrichtung des Fahrzeugs verbessert werden. Die Überlappung des Abstrahlungswinkels ist ungefähr 0,2°. Deshalb ist die Abstrahlungsfläche durch jede der drei oberen Schichten U und der unteren drei Schichten L 4,4° (= 1,6° × 3 Schichten – 0,2° × 2 Überlappungen), wie es in 2 gezeigt ist.
  • Der Lichtabgabeabschnitt 10 strahlt Laserlicht ab, um ein vorderes Objekt vor dem Fahrzeug zu erfassen. Zu diesem Zeitpunkt gibt die ECU 60 das Ansteuersignal S1 derart zu dem Lichtabgabeabschnitt 10 aus, dass das Laserlicht die Abstrahlungsfläche zweidimensional abtastet. Aufgrund des zweidimensionalen Abtastens kann, wenn der Lichtabgabeabschnitt 20 das Reflexionslicht empfängt, der Abstrahlungswinkel des Laserlichts, der von dem vorderen Objekt reflektiert wird, eindeutig auf der Grundlage des Reflexionslichts bestimmt werden.
  • Weiterhin berechnet die ECU 60, wenn die erste Zeitdauer von dem Ansteuersignal S1 zu dem Lichtempfangssignal S4 in die ECU 60 eingegeben wird, einen Abstand zu dem vorderen Objekt vor dem Fahrzeug auf der Grundlage der ersten Zeitdauer. Die ECU 60 bildet Positionsdaten auf der Grundlage des Abstands und des Abstrahlungswinkels des Laserlichts aus. Das heisst, die ECU 60 definiert einen Mittelpunkt des Lichtabgabeabschnitts 10 und des Lichtempfangsabschnitts 20 als einen Ursprung (0, 0, 0) und definiert X-, Y- und Z-Koordinaten in einer Sensorkoordinate, in welcher die Breitenrichtung des Fahrzeugs einer X-Achse entspricht, die Höhenrichtung des Fahrzeugs einer Y-Achse entspricht und eine Längs-(Rückwärts-und-Vorwärts)-Richtung des Fahrzeugs einer Z-Achse entspricht. Weiterhin speichert die ECU 60 Reflexionslicht-Intensitätsdaten, die der zweiten Zeitdauer entsprechen, für welche die Ausgangsspannung größer als die Referenzspannung V0 ist. Die Reflexionslicht-Intensitätsdaten werden in X-, Y- und Z-Koordinaten getrennt.
  • Wie es in 1 gezeigt ist, wird ein Geschwindigkeitssignal S6 von einem Geschwindigkeitssensor zum Erfassen einer Geschwindigkeit des Fahrzeugs in die ECU 60 eingegeben. Ein Gierratensignal (S7) wird von einem Gierratensensor zum Erfassen einer Gierrate, die auf das Fahrzeug ausgeübt wird, in die ECU 60 eingegeben. Ein Lenkwinkelsignal S8 wird von einem Lenkwinkelsensor zum Erfassen eines Lenkwinkels eines Lenkrads des Fahrzeugs in die ECU 60 eingegeben. Die ECU 60 berechnet ein Moment (einen Reiseumfang) des Fahrzeugs unter Verwendung der Signale S6 bis S8.
  • Als Nächstes wird eine Erkennungsbehandlung zum umfassenden Erkennen einer Straßenumgebung beschrieben. Die Erkennungsbehandlung, die den Laserradar verwendet, weist ein Objekterkennungsverfahren, ein Fahrspurlinien-Erkennungsverfahren und ein Integrationsverfahren auf. In dem Objekterkennungsverfahren wird ein vorderes Objekt vor dem Fahrzeug unter Verwendung eines Laserstrahls aus den oberen drei Schichten U erkannt. In dem Fahrspurlinien-Erkennungsverfahren wird eine Fahrspurlinie (Markierung) unter Verwendung eines Laserlichts aus den unteren Schichten L erkannt. In dem Integrationsverfahren werden Ergebnisse der Objekts- und der Fahrspurlinien-Erkennungsverfahren integriert, um umfassend die Straßenumgebung zu erkennen.
  • Wie es in 3 gezeigt ist, wird Laserlicht zu der Abstrahlungsfläche abgetastet und abgestrahlt und werden die Messzeitdaten (S5 in 1), das heisst die ersten und zweiten Zeitdauern, nachdem der Lichtempfangsabschnitt 20 das Reflexionslicht empfangen hat (S10) in die ECU 60 eingegeben. Das Laserradar weist eine Erfassungsdauer von zum Beispiel 100 ms auf.
  • Das Objekterkennungsverfahren wird unter Verwendung des Reflexionslichts durchgeführt, das dem Laserlicht aus den oberen drei Schichten U entspricht (S20). Genauer gesagt wird ein Anhäufen von Daten für die vorderen Objekte, die von dem Laserradar erfasst werden, durchgeführt und wird ein Verfolgen unter Verwendung eines Kalman-Filters durchgeführt. Das Kalman-Filter ist ein zweistufiges Kalman-Filter unter Berücksichtigung einer beschleunigten Bewegung und Stabilität für das Fahrzeug.
  • Bei dem Anhäufen der Daten werden Objektdaten auf der Grundlage von zum Beispiel einem Abstand zwischen den Objektdaten in Gruppen getrennt. Weiterhin wird ein Attribut des Objekts auf der Grundlage von Charakteristiken von vorbestimmten Modellobjekten bestimmt.
  • Wie es in 4 gezeigt ist, weist das Modellobjekt, wie zum Beispiel ein Fahrzeug, ein Verkehrszeichen oder ein Begrenzungspfosten Charakteristiken, wie zum Beispiel eine Form, eine Größe, ein Reflexionsvermögen, eine Position oder ein Moment, auf. Zum Beispiel weist das Fahrzeug eine rechteckige Form auf. Ein Auto (ein Kleinwagen) weist eine Breite von 1,7 m auf und ein Lastkraftwagen (großer Wagen) weist eine Breite von 2,5 m auf. Ein Reflektor (ein Reflektorpaar oder eine große Reflektorplatte) des Fahrzeugs weist ein hohes Reflexionsvermögen auf und eine Karosserie des Fahrzeugs weist ein niedriges Reflexionsvermögen auf. Das Fahrzeug ist auf einer Fahrspur angeordnet. Ein Moment des Fahrzeugs ist in der Längsrichtung groß und in der Seitenrichtung klein. Das Zeichen weist eine rechteckige oder kreisförmige Form, eine große Größe, ein hohes Reflexionsvermögen und kein Moment auf. Das Zeichen ist an der Straßenseite oberirdisch angeordnet. Der Begrenzungspfosten weist eine kreisförmige Form, eine kleine Größe, ein hohes Reflexionsvermögen und kein Moment auf. Der Begrenzungspfosten ist an der Straßenseite angeordnet und er zeigt eine Straßengrenze an. Daher kann das Attribut des vorderen Objekts durch Vergleichen der Objektdaten mit dem Modellobjekt bestimmt werden. Wenn die Objektdaten Charakteristiken aufweisen, die zum dem Modellobjekt ähnlich sind, wird das vordere Objekt als das Modellobjekt bestimmt. Nachdem das Attribut des vorderen Objekts bestimmt worden ist, wird das Bestimmungsergebnis in der ECU 60 gespeichert.
  • Daher kann auch dann, wenn ein Anhäufen von Daten des vorderen Objekts aufgrund zum Beispiel eines abschirmenden Objekts vermisst wird, das Verfolgen des vorderen Objekts zweckmäßig durchgeführt werden.
  • Dann wird das Fahrspurmarkierungs-Erkennungsverfahren unter Verwendung des Laserlichts aus den unteren drei Schichten L durchgeführt (S30 in 3). Dadurch kann die Fahrspurmarkierung von dem vorderen Objekt unterschieden werden. Da die Fahrspurmarkierung Glasperlen aufweist, kann Laserlicht, das von dem Lichtabgabeabschnitt 10 abgegeben wird, von der Fahrspurmarkierung reflektiert werden und kann das Reflexionslicht zu dem Lichtempfangsabschnitt 20 gesendet werden.
  • Genauer gesagt wird eine Hough-Transformation des Reflexionslichts (Signals) von der Fahrspurmarkierung durchgeführt und werden eine Krümmung der Fahrspurmarkierung und eine Seitenposition des Fahrzeugs relativ zu der Fahrspurmarkierung berechnet. Weiterhin wird eine Fahrspurbreite aus einem Abstand zwischen den Fahrspurmarkierungen an beiden Seiten des Fahrzeugs berechnet. Eine Fläche eines Extrahierens der Fahrspurmarkierung kann unter Verwendung dieser Berechnungsergebnisse definiert werden. Daher kann eine Verfolgungsgenauigkeit der Fahrspurmarkierung verbessert werden.
  • Aufgrund der Schritte S10 bis S30 können das vordere Objekt und die Fahrspurmarkierung erkannt werden. Als Nächstes wird das Integrationsverfahren beschrieben, in welchem Ergebnisse der Verfahren zum Erkennen des vorderen Objekts und der Fahrspurmarkierung integriert werden, um umfassend die Straßenumgebung zu erkennen.
  • Ein Moment des Fahrzeugs wird auf der Grundlage der Signale S6 bis S8, die aus dem Geschwindigkeitssensor, dem Gierratensensor und dem Lenkwinkelsensor ausgegeben werden, gemessen (S40 in 3). Zum Beispiel kann, wenn die Gierrate des Fahrzeugs integriert wird, eine Fahrtrichtung (ein Gierwinkel) des Fahrzeugs berechnet werden. Wenn die Geschwindigkeit des Fahrzeugs integriert wird, kann der Verschiebungsumfang des Fahrzeugs in der Fahrtrichtung berechnet werden.
  • Dann wird eine Position des Fahrzeugs in eine Absolutkoordinate auf der Grundlage des Moments des Fahrzeugs berechnet (S50). Zum Beispiel wird die Fahrtrichtung des Fahrzeugs zu einer Richtung in der Absolutkoordinate gewandelt und wird der Verschiebungsumfang des Fahrzeugs in einen Verschiebungsumfang ΔX in der X-Koordinate und einen Verschiebungsumfang ΔY in der Y-Koordinate in der Absolutkoordinate getrennt. Dann werden die Verschiebungsumfänge ΔX und ΔY zu einer letzten Position (X, Y) des Fahrzeugs in der Absolutkoordinate addiert. Daher kann die derzeitige Position des Fahrzeugs (X + ΔX, Y + ΔY) in der Absolutkoordinate berechnet werden.
  • Ein Ursprung der Absolutkoordinate kann irgendein Punkt in einer Fahrstrecke sein. Zum Beispiel kann ein Punkt, an welchen das Fahrzeug beginnt, gefahren zu werden, und ein Punkt, an welchen die Messung gestartet wird, der Ursprung der Absolutkoordinate sein. Dadurch kann die Position des Fahrzeugs in der Absolutkoordinate auf der Grundlage von lediglich dem Moment des Fahrzeugs berechnet werden.
  • Danach werden Positionen des vorderen Objekts und der Fahrspurmarkierung auf der Grundlage einer Positionsbeziehung zu dem Fahrzeug berechnet. Die Positionen des vorderen Objekts und der Fahrspurmarkierung werden bereits in Schritten S20 und S30 in der Sensorkoordinate berechnet, die den Ursprung an dem Laserradar aufweist. Hierbei wird die Position des Fahrzeugs (Laserradars) ein Referenzpunkt in der Sensorkoordinate. Deshalb müssen alle Positionsdaten der vorderen Objekte, die in der letzten Erfassungsdauer erfasst werden, in Übereinstimmung mit einer Änderung der Position des Fahrzeugs aktualisiert werden, um die derzeitigen Positionsdaten und vergangenen Positionsdaten zu vereinheitlichen.
  • Jedoch kann in diesem Ausführungsbeispiel der vorliegenden Erfindung eine Fortsetzung mit den vergangenen Positionsdaten lediglich durch Wandeln von letzten Daten in die Absolutkoordinate sichergestellt werden, da die Positionen des Fahrzeugs, des vorderen Objekts und der Fahrspurmarkierung gespeichert werden, nachdem sie zu den Absolutkoordinaten gewandelt worden sind. Die Positionen des vorderen Objekts und der Fahrspurmarkierung sind bereits relativ zu dem Laserradar in den Sensorkoordinaten berechnet worden. Die Sensorkoordinate wird derart gedreht, dass die Z-Achse der Sensorkoordinate der Fahrrichtung (dem Gierwinkel) des Fahrzeugs in der Absolutkoordinate entspricht. Weiterhin wird eine zweidimensionale Koordinate, die die X-Achse und die Z-Achse in der Sensorkoordinate aufweist, an der Absolutkoordinate angewendet. Dadurch können die Positionen des vorderen Objekts und der Fahrspurmarkierung in der Absolutkoordinate berechnet werden.
  • Als Nächstes wird eine Straßenbegrenzung aufgrund eines straßenseitigen Objekts an einem straßenseitigen Ende erkannt (S60 in 3). Die Meisten der Straßenbegrenzungen sind durch das straßenseitige Objekt, wie zum Beispiel eine Leitplanke oder ein Begrenzungspfosten, definiert. Genauer gesagt ist die Straßenbegrenzung auf einer Autobahn durch eine Linie der Begrenzungspfosten definiert. Wenn das straßenseitige Objekt (der Begrenzungspfosten) extrahiert wird und die Linie der Begrenzungspfosten mathematisch ausgedrückt wird, kann die Straßenbegrenzung erkannt werden. Daher wird eine Bewegungsbereichsfläche für das Fahrzeug auf der Grundlage einer Abmessung zwischen den Straßenbegrenzungen und beiden Seiten des Fahrzeugs erkannt.
  • 5 zeigt ein Beispiel der Straßenumgebung auf der Autobahn. Der Begrenzungspfosten D (das straßenseitige Objekt) ist an einem Punkt in der Absolutkoordinate befestigt, da der Begrenzungspfosten D ein feststehendes Objekt ist. Die Punkte der Begrenzungspfosten D sind in einer Reihenfolge noch näher zu einem Bezugsfahrzeug SV hin verbunden, um unter Verwendung eines Verfahrens von kleinsten Quadraten Segmente auszubilden. Daher kann eine Straßenbegrenzung RB erkannt werden.
  • Hierbei ist die Linie der Begrenzungspfosten an beiden Seiten (links und rechts) des Bezugsfahrzeugs SV vorhanden. Jedoch kann in diesem Ausführungsbeispiel der vorliegenden Erfindung die Krümmung der Straße auf der Grundlage der Gierrate und der Fahrzeuggeschwindigkeit berechnet werden und kann die Straßenkrümmung weiterhin auf der Grundlage der Ergebnisse des Verfahrens zum Erkennen der Fahrspurmarkierung LM berechnet werden. Deshalb kann die Linie der Begrenzungspfosten D an beiden Seiten unter Verwendung der Straßenkrümmung als links oder rechts unterschieden werden. Das heisst, der Begrenzungspfosten D kann genau an der linken Seite oder rechten Seite des Bezugsfahrzeugs SV vorhanden bestimmt werden. Weiterhin kann der Begrenzungspfosten D, wenn ein vorderes Fahrzeug FV vor dem Bezugsfahrzeugs SV vorhanden ist, an der linken Seite oder rechten Seite des Bezugsfahrzeugs SV vorhanden auf der Grundlage einer Trajektorie T des vorderen Fahrzeugs FV bestimmt werden.
  • Als Nächstes wird die Anzahl der Fahrspuren erkannt (S70 in 3). Die Anzahl der Fahrspuren kann auf der Grundlage der Fahrspurbreite berechnet werden, die in den Verfahren zum Erkennen eines vorderen Objekts und der Fahrspurmarkierung berechnet wird. Genauer gesagt wird eine Bereichsfläche, die eine Breite von gleich oder mehr als der Fahrspurbreite aufweist, als links zwischen der Fahrspurmarkierung und der Straßenbegrenzung oder nicht bestimmt. Die Position an den linken und rechten Fahrspurmarkierungen sind auf der Grundlage des Fahrspurmarkierungs-Erkennungsverfahrens in der Absolutkoordinate definiert. Wenn die Bereichsfläche, die die Fahrspurbreite oder mehr aufweist, als links bestimmt wird, ist eine weitere Fahrspur in der Bereichsfläche vorhanden. Wenn die Bereichsfläche, die die Fahrspurbreite oder mehr aufweist, nicht als links bestimmt wird, ist keine weitere Fahrspur in der Bereichsfläche vorhanden. In diesem Fall kann ein Seitenstreifen zwischen der Fahrspurmarkierung und der Straßenbegrenzung vorhanden sein. Diese Bestimmung wird wiederholt, bis die Bereichsfläche, die die Fahrspurbreite oder mehr aufweist, nicht als links bestimmt wird. Daher kann die Anzahl der Fahrspuren erkannt werden. Weiterhin kann, wenn mehrere Fahrspuren erkannt werden, die Fahrspur, auf welcher das Fahrzeug fährt, auf der Grundlage einer Positionsbeziehung zwischen den Fahrzeugen und der Fahrspurmarkierung in der Absolutkoordinate bestimmt werden.
  • Hierbei werden, wenn das vordere Fahrzeug vorhanden ist, die Positionen des vorderen Fahrzeugs in der Absolutkoordinate in die Segmente verbunden, um eine Trajektorieninformation vorzusehen. Dadurch kann die Anzahl der Fahrspuren auch dann erkannt werden, wenn ein Leistungsvermögen zum Erkennen der Fahrspurmarkierung niedrig ist, da die Fahrspurmarkierung nicht deutlich ist. Die Trajektorieninformation des vorderen Fahrzeugs kann berechnet werden, wie es in 5 gezeigt ist. Deshalb kann die Anzahl der Fahrspuren durch Zählen der Anzahl der Trajektorien des vorderen Fahrzeugs, die die Trajektorie des Bezugsfahrzeugs nicht überlappen, geschätzt werden. Weiterhin kann, da die Fahrspurbreite auf der Autobahn konstant ist, die Anzahl der Fahrspuren lediglich geschätzt werden, wenn die Straßenbegrenzung erfasst wird.
  • Als Nächstes wird bestimmt, ob eine Fahrspuränderung durchzuführen ist oder nicht (S80 in 3). Die Erkennungen der Straßenbegrenzung und der Fahrspurmarkierung können zum Erkennen der Straßenumgebung nicht ausreichend sein. Zum Beispiel kann, wenn ein Abstand zwischen dem Fahrzeug und der Straßenbegrenzung geändert wird, die Position des Fahrzeugs relativ zu der Straßenbegrenzung geändert werden oder kann die Position der Straßenbegrenzung aufgrund einer Windung der Straße geändert werden. Ein Grund für die Änderung des Abstands zwischen dem Fahrzeug und der Straßenbegrenzung kann nicht bestimmt werden. Wenn die Bewegung des Fahrzeugs in dem Straßenraum zusätzlich zu den Erkennungen der Straßenbegrenzung und der Fahrspurmarkierung genau erkannt wird, kann die Straßenumgebung des Fahrzeugs genau erkannt werden. Das heisst, wenn die Fahrspuränderung erkannt wird, kann die Straßenumgebung des Fahrzeugs genau erkannt werden.
  • Die Fahrspuränderung wird auf der Grundlage einer Positionsbeziehung zwischen der Fahrspurmarkierung und dem Fahrzeug erkannt. Normalerweise wird, wie es in 6A gezeigt ist, das Fahrzeug an ungefähr einer Mitte einer Fahrspur CL gefahren. Das Laserradar LR ist in ungefähr einer Mittenposition des Fahrzeugs eingebaut. Wenn die Fahrspuränderung gestartet wird, weicht, wie es in 6B gezeigt ist, eine Mittenposition CP des Fahrzeugs von dem Mittelpunkt einer Fahrspur CL ab. Wenn ein Abstand zwischen der Mittenposition CP des Fahrzeugs und der Mitte der Fahrspur CL erhöht wird und größer als ein vorbestimmter Schwellwert wird, wird bestimmt, dass die Fahrspuränderung gestartet wird. Zu diesem Zeitpunkt wird, wie es in 6C gezeigt ist, eine angrenzende Fahrspurmarkierung ALM in einer angrenzenden Fahrspur gesucht, zu welcher sich das Fahrzeug bewegt. Wenn das Fahrzeug eine Fahrspurmarkierung LM kreuzt, wird bestimmt, dass die Fahrspuränderung beendet ist. Wie es in 6D gezeigt ist, wird eine neue Mitte einer Fahrspur NCL definiert. Weiterhin wird ein Abstand zwischen der neuen Mitte der Fahrspur NCL und der Mittenposition CP des Fahrzeugs berechnet. Im Gegensatz dazu wird, wenn die Fahrspuränderung nicht beendet ist und das Fahrzeug zu der vorhergehenden Fahrspur zurückkehrt, wie es in 6E gezeigt ist, die vorhergehende Mitte der Fahrspur CL zum Berechnen des Abstands zur der Mittenposition CP des Fahrzeugs verwendet.
  • Da die Fahrspuränderung genau erkannt wird, kann die Bewegung des Fahrzeugs genau erkannt werden. Daher kann die Straßenumgebung (zum Beispiel eine Straßenform, ein Abstand zu dem vorderen Fahrzeug, eine Anzahl der Fahrspuren und eine Fahrspur, auf welcher das Fahrzeug fährt) umfassend erkannt werden.
  • Deshalb kann die Straßenumgebungs-Erkennungsvorrichtung in diesem Ausführungsbeispiel der vorliegenden Erfindung verwendet werden, wenn das Fahrzeug automatisch betrieben wird, um die Straßenumgebung zu erkennen. Weiterhin kann die Vorrichtung in einem adaptiven Reisesteuersystem und einem Fahrspurhalte-Unterstützungssystem verwendet werden. Das adaptive Reisesteuersystem lässt zu, dass das Fahrzeug automatisch dem vorderen Fahrzeug folgt. Das Fahrspurhalte-Unterstützungssystem gibt Alarm, wenn das Fahrzeug weg von der Fahrspur geht, und arbeitet, um zu verhindern, dass das Fahrzeug weg von der Fahrspur geht.
  • Weiterhin kann die Erkennungsvorrichtung wirksam in Zusammenarbeit mit einer Navigationsvorrichtung verwendet werden, da die Erkennungsvorrichtung genau die Straßenform und die Fahrspur erkennt, auf welcher das Fahrzeug fährt. Zum Beispiel erkennt die Erkennungsvorrichtung die Straßenform und ein Abgleichen zwischen der Straßenform und Kartendaten der Navigationsvorrichtung wird durchgeführt. Daher kann eine Genauigkeit zum Erfassen der Position des Fahrzeugs verbessert werden und kann die Fahrspur erkannt werden, auf welcher das Fahrzeug fährt. Deshalb kann die Navigationsvorrichtung eine zweckmäßige Unterstützung der Fahrspuränderung durchführen.
  • In einem Fall, in dem die Erkennungsvorrichtung die Zusammenarbeit mit der Navigationsvorrichtung aufweist, wird, wenn die Navigationsvorrichtung ein differenzielles Globalpositionierungssystem bzw. DGPS aufweist, das imstande ist, eine genaue Position des Fahrzeugs zu messen, das Moment bzw. die Bewegung des Fahrzeugs unter Verwendung eines Ausgangssignals aus dem DGPS gemessen oder korrigiert. Dadurch kann die Genauigkeit zum Erfassen der Positionen des Fahrzeugs und des Reflexionsobjekts in der Absolutkoordinate verbessert werden. Weiterhin kann die Straßenkrümmung vor dem Fahrzeug aus den Kartendaten der Navigationsvorrichtung vorgesehen werden.
  • In diesem Ausführungsbeispiel der vorliegenden Erfindung werden das vordere Objekt und die Fahrspurmarkierung lediglich durch das Laserradar erkannt. Jedoch kann ein Bildsensor sekundär verwendet werden. Die Positionsinformation von mindestens einem Teil des Erkennungsobjekts kann aufgrund des Bildsensors erzielt werden und kann zusammen mit dem Erkennungsergebnis durch das Laserradar verwendet werden. Der Bildsensor kann nicht das Erfassungsobjekt an einer Position eines hohen Kontrasts, wie zum Beispiel eines Eingangs oder eines Ausgangs eines Tunnels, erfassen. Jedoch kann das Laserradar genau das vordere Fahrzeug und das straßenseitige Objekt an der Position eines hohen Kontrasts erfassen.
  • Derartige Änderungen und Ausgestaltungen verstehen sich als innerhalb des Umfangs der vorliegenden Erfindung, wie er durch die beiliegenden Ansprüche definiert ist.
  • Eine zuvor beschriebene erfindungsgemäße Radareinheit gibt Strahlen ab und empfängt einen Reflexionsstrahl, der von einem Objekt reflektiert wird. Eine Position des Objekts relativ zu einem Fahrzeug und ein Attribut des Objekts werden auf der Grundlage der abgegebenen Strahlen und des Reflexionsstrahls erkannt. Eine Koordinatenposition des Fahrzeugs in einer Absolutkoordinate wird auf der Grundlage eines Reiseumfangs des Fahrzeugs berechnet und eine Koordinatenposition des Objekts wird auf der Grundlage der berechneten Position des Fahrzeugs und der Position des Objekts relativ zu dem Fahrzeug berechnet. Eine Straßenumgebung des Fahrzeugs wird auf der Grundlage der Koordinatenpositionen und des Attributs des Objekts erkannt.

Claims (10)

  1. Straßenumgebungs-Erkennungsvorrichtung, die aufweist: eine Radareinheit (10, 20) auf einem Bezugsfahrzeug, wobei die Radareinheit (10, 20) eine Mehrzahl von Strahlen (U, L) in einen vorbestimmten Winkelbereich in einer Breitenrichtung und einer Höhenrichtung des Bezugsfahrzeugs abgibt und einen Reflexionsstrahl emfängt, der auf einem Objekt (FV, LM, D) reflektiert wird; ein Objekterkennungselement (50, 60) zum Erkennen einer Position des Objekts (FV, LM, D) relativ zu dem Bezugsfahrzeug und eines Attributs des Objekts (FV, LM, D) auf der Grundlage von Ergebnissen der abgegebenen Mehrzahl von Strahlen (U, L) und des Reflexionsstrahls; ein Reiseumfangs-Messelement (60) zum Messen eines Reiseumfangs des Bezugsfahrzeugs; ein Koordinatenpositions-Berechnungselement (60) zum wiederholten Berechnen einer Koordinatenposition des Bezugsfahrzeugs in einer Absolutkoordinate, die einen vorbestimmten Punkt als einen Ursprung aufweist, auf der Grundlage des Reiseumfangs, der von dem Reiseumfangs-Messelement gemessen wird (S40), und zum wiederholten Berechnen einer Koordinatenposition des Objekts (FV, LM, D) auf der Grundlage der berechneten Position des Bezugsfahrzeugs und der Position des Objekts (FV, LM, D) relativ zu dem Bezugsfahrzeug; und ein Straßenumgebungs-Erkennungselement (60) zum Speichern der Koordinatenpositionen des Bezugsfahrzeugs und des Objekts (FV, LM, D) und zum Erkennen einer Straßenumgebung des Bezugsfahrzeugs auf der Grundlage der gespeicherten Koordinatenpositionen und des Attributs des Objekts (FV, LM, D).
  2. Straßenumgebungs-Erkennungsvorrichtung nach Anspruch 1, wobei das Objekterkennungselement (50, 60) das Attribut des Objekts (FV, D) auf der Grundlage von mindestens einer Forminformation, die von einer Mehrzahl der Reflexionsstrahlen vorgesehen wird und einer Intensität der Mehrzahl der Reflexionsstrahlen erkennt.
  3. Straßenumgebungs-Erkennungsvorrichtung nach Anspruch 1 oder 2, wobei das Objekt (FV, LM, D) ein bewegliches Objekt (FV) ist und das Straßenumgebungs- Erkennungselement (60) eine Trajektorieninformation (T) berechnet, die eine Änderung der Koordinatenposition des beweglichen Objekts (FV) in der Absolutkoordinate darstellt.
  4. Straßenumgebungs-Erkennungsvorrichtung nach einem der Ansprüche 1 bis 3, wobei das Objekt (FV, LM, D) eine Fahrspurmarkierung (LM) ist, die eine Begrenzung einer Fahrspur darstellt, auf welcher das Bezugsfahrzeug fährt, die Radareinheit (10, 20) die Mehrzahl von Strahlen (L) zu einem vorderen Bereich des Bezugsfahrzeugs abgibt und ein Teil der Mehrzahl von Strahlen (L) zu einer Straßenfläche abstrahlt, und die Radareinheit (10, 20) ein Reflexionslicht empfängt, das von der Fahrspurmarkierung (LM) reflektiert wird, wenn der Strahl (L), das zu der Straßenfläche abgestrahlt wird, von der Fahrspurmarkierung (LM) reflektiert wird.
  5. Straßenumgebungs-Erkennungsvorrichtung nach Anspruch 4, wobei das Objekt (FV, LM, D) ein straßenseitiges Objekt (D) ist, das an einer Seite einer Straße angeordnet ist, und das Straßenumgebungs-Erkennungselement (60) eine Anzahl von Fahrspuren auf der Straße auf der Grundlage einer Fahrspurbreite, die von einer Position des straßenseitigen Objekts (D) vorgesehen wird, und einer Position der Fahrspurmarkierung (LM) in der Absolutkoordinate erkennt.
  6. Straßenumgebungs-Erkennungsvorrichtung nach Anspruch 5, wobei das Straßenumgebungs-Erkennungselement (60) die Fahrspur, auf welcher das Bezugsfahrzeug fährt, auf der Grundlage einer Position des Bezugsfahrzeugs in der Absolutkoordinate erkennt.
  7. Straßenumgebungs-Erkennungsvorrichtung nach Anspruch 5, die weiterhin aufweist: ein Straßenkrümmungs-Erfassungselement (60) zum Erfassen einer Krümmung der Straße, auf welcher das Bezugsfahrzeug fährt, wobei das Straßenumgebungs-Erkennungselement (60) das erkannte straßenseitige Objekt (D) in Übereinstimmung mit der Straßenkrümmung in ein linksseitiges straßenseitiges Objekt und ein rechtsseitiges straßenseitiges Objekt unterscheidet.
  8. Straßenumgebungs-Erkennungsvorrichtung nach einem der Ansprüche 4 bis 7, wobei das Straßenumgebungs-Erkennungselement (60) eine Fahrspuränderung des Bezugsfahrzeugs auf der Grundlage einer Änderung der Koordinatenposition (CP) des Bezugsfahrzeugs bezüglich der Koordinatenposition (CL) der Fahrspurmarkierung (LM, ALM) in der Absolutkoordinate erkennt.
  9. Straßenumgebungs-Erkennungsvorrichtung nach einem der Ansprüche 3 bis 8, wobei das Objekt (FV, LM, D) ein vorderes Fahrzeug (FV) ist, das in einem vorderen Bereich des Bezugsfahrzeugs (SV) gefahren wird, und das Straßenumgebungs-Erkennungselement (60) eine Anzahl von Fahrspuren auf der Straße auf der Grundlage einer Beziehung zwischen einer Fahrtrajektorie (T) des vorderen Fahrzeugs (FV) und einer Fahrtrajektorie des Bezugsfahrzeugs (SV) in der Absolutkoordinate erkennt.
  10. Verfahren zum Erkennen einer Straßenumgebung, das aufweist: Abgeben (S10) einer Mehrzahl von Strahlen (U, L) aus einer Radareinheit (10, 20), die in ein Fahrzeug eingebaut ist, in einen vorbestimmten Winkelbereich in einer Breitenrichtung und in einer Höhenrichtung des Fahrzeugs, wobei der Strahl als eine Reflexionsstrahl von einem Objekt (FV, LM, D) reflektiert wird; Erkennen (S20, S30) einer Position des Objekts (FV, LM, D) relativ zu dem Fahrzeug und eines Attributs des Objekts (FV, LM, D) auf der Grundlage der abgegebenen Mehrzahl von Strahlen (U, L) und des Reflexionsstrahls, der von dem Objekt (FV; LM, D) reflektiert wird; Messen (S40) eines Reiseumfangs des Fahrzeugs; Berechnen (S50) einer Koordinatenposition des Fahrzeugs in einer Absolutkoordinate, die einem vorbestimmten Punkt als einen Ursprung aufweist, auf der Grundlage des gemessenen Reiseumfangs, und Berechnen einer Koordinatenposition des Objekts (FV, LM, D) auf der Grundlage der berechneten Position des Fahrzeugs und der Position des Objekts (FV, LM, D) in einer Richtung relativ zu dem Fahrzeug; und Speichern (S60 bis S80) der Koordinatenpositionen des Fahrzeugs und des Objekts (FV, LM, D) und Erkennen einer Straßenumgebung des Fahrzeugs auf der Grundlage der gespeicherten Koordinatenposition des Fahrzeugs und des Objekts (FV, LM, D) und des Attributs des Objekts (FV, LM, D).
DE102007021762.7A 2006-05-17 2007-05-09 Straßenumgebungs-Erkennungsvorrichtung und Verfahren zum Erkennen einer Straßenumgebung Active DE102007021762B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-138186 2006-05-17
JP2006138186A JP4793094B2 (ja) 2006-05-17 2006-05-17 走行環境認識装置

Publications (2)

Publication Number Publication Date
DE102007021762A1 true DE102007021762A1 (de) 2007-11-22
DE102007021762B4 DE102007021762B4 (de) 2019-02-21

Family

ID=38608287

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007021762.7A Active DE102007021762B4 (de) 2006-05-17 2007-05-09 Straßenumgebungs-Erkennungsvorrichtung und Verfahren zum Erkennen einer Straßenumgebung

Country Status (3)

Country Link
US (1) US8694236B2 (de)
JP (1) JP4793094B2 (de)
DE (1) DE102007021762B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015106913A1 (de) * 2014-01-16 2015-07-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren und system zum schätzen eines fahrspurverlaufs

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5034911B2 (ja) * 2007-12-05 2012-09-26 トヨタ自動車株式会社 白線検出装置
JP4952561B2 (ja) * 2007-12-13 2012-06-13 株式会社デンソー 車載用画像処理装置及び車載用画像表示装置
JP5531474B2 (ja) * 2008-12-12 2014-06-25 株式会社豊田中央研究所 地図生成装置、走路推定装置、移動可能領域推定装置、及びプログラム
JP5293253B2 (ja) * 2009-02-19 2013-09-18 日産自動車株式会社 周囲物体検出装置及び周囲物体検出方法
JP5445960B2 (ja) * 2010-03-31 2014-03-19 株式会社デンソー 検知装置
JP5556317B2 (ja) * 2010-04-07 2014-07-23 株式会社デンソー 物体認識装置
JP5488518B2 (ja) * 2010-07-05 2014-05-14 株式会社デンソー 道路端検出装置、運転者支援装置、および道路端検出方法
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US10046241B1 (en) * 2010-11-01 2018-08-14 Ronald Charles Krosky Output production
JP5626578B2 (ja) * 2010-12-02 2014-11-19 アイシン・エィ・ダブリュ株式会社 走行支援システム、走行支援プログラム、及び走行支援方法
JP5505651B2 (ja) * 2011-02-22 2014-05-28 株式会社デンソー 検知装置
JP5541410B2 (ja) * 2011-03-02 2014-07-09 トヨタ自動車株式会社 レーザレーダ装置
US20120314070A1 (en) * 2011-06-09 2012-12-13 GM Global Technology Operations LLC Lane sensing enhancement through object vehicle information for lane centering/keeping
FR2977957B1 (fr) * 2011-07-12 2016-07-01 Inst Francais Des Sciences Et Tech Des Transp De L'amenagement Et Des Reseaux (Ifsttar) Dispositif et procede d'imagerie pour produire une image de marquages routiers
DE102011081397A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren zur Schätzung eines Straßenverlaufs und Verfahren zur Steuerung einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
US8543254B1 (en) * 2012-03-28 2013-09-24 Gentex Corporation Vehicular imaging system and method for determining roadway width
JP6254083B2 (ja) * 2012-07-27 2017-12-27 クラリオン株式会社 車載用周囲環境認識装置
KR101405193B1 (ko) * 2012-10-26 2014-06-27 현대자동차 주식회사 차로 인식 방법 및 시스템
KR101436624B1 (ko) * 2013-02-07 2014-11-03 주식회사 만도 차선 유지 제어 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체
JP5739465B2 (ja) * 2013-02-14 2015-06-24 本田技研工業株式会社 車両の操舵制御装置
US8972093B2 (en) * 2013-04-08 2015-03-03 Toyota Motor Engineering & Manufacturing North America, Inc. Lane-based localization
JP5892129B2 (ja) * 2013-08-29 2016-03-23 株式会社デンソー 道路形状認識方法、道路形状認識装置、プログラムおよび記録媒体
KR101545478B1 (ko) * 2014-01-10 2015-08-19 현대모비스(주) 차량용 전방관측시스템 및 방법
US9321461B1 (en) * 2014-08-29 2016-04-26 Google Inc. Change detection using curve alignment
KR101526816B1 (ko) * 2014-09-12 2015-06-05 현대자동차주식회사 차선 추정 시스템 및 그 방법
US9248834B1 (en) 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
JP6325425B2 (ja) * 2014-11-28 2018-05-16 株式会社デンソー 車両制御装置
DE112015006622T5 (de) * 2015-06-15 2018-03-29 Mitsubishi Electric Corporation Fahrspurbestimmungsvorrichtung und Fahrspurbestimmungsverfahren
US9718404B2 (en) * 2015-10-01 2017-08-01 Ford Global Technologies, LLCS Parking obstruction locator and height estimator
JP6659379B2 (ja) 2016-01-28 2020-03-04 日立オートモティブシステムズ株式会社 道路情報認識システム及び道路情報認識方法
KR101833359B1 (ko) * 2016-03-22 2018-02-28 고려대학교 산학협력단 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치
CN106157635B (zh) * 2016-07-22 2018-08-07 金陵科技学院 一种判断车辆在车道中位置的装置与判断方法
JP6515898B2 (ja) 2016-09-29 2019-05-22 トヨタ自動車株式会社 物標レーン関係認識装置
US20180087907A1 (en) * 2016-09-29 2018-03-29 The Charles Stark Draper Laboratory, Inc. Autonomous vehicle: vehicle localization
US10713940B2 (en) 2017-10-31 2020-07-14 Waymo Llc Detecting and responding to traffic redirection for autonomous vehicles
US10401862B2 (en) * 2017-10-31 2019-09-03 Waymo Llc Semantic object clustering for autonomous vehicle decision making
JP6932205B2 (ja) * 2017-11-30 2021-09-08 三菱電機株式会社 三次元地図生成システム、三次元地図生成方法および三次元地図生成プログラム
US11112498B2 (en) * 2018-02-12 2021-09-07 Magna Electronics Inc. Advanced driver-assistance and autonomous vehicle radar and marking system
JP7087896B2 (ja) * 2018-10-01 2022-06-21 株式会社Soken 走行車線推定装置、走行車線推定方法、及び制御プログラム
US20220146644A1 (en) 2019-04-12 2022-05-12 Lumibird Limited Monostatic scanning lidar using a multi-faceted polygon mirror as one of dual redirecting elements
CN112818727A (zh) * 2019-11-18 2021-05-18 华为技术有限公司 一种道路约束确定方法及装置
CN111540010B (zh) * 2020-05-15 2023-09-19 阿波罗智联(北京)科技有限公司 一种道路监测的方法、装置、电子设备及存储介质
US11720107B2 (en) * 2020-09-24 2023-08-08 Micron Technology, Inc. Memory sub-system autonomous vehicle localization
JPWO2023013110A1 (de) 2021-08-06 2023-02-09
CN114821542B (zh) * 2022-06-23 2022-09-09 小米汽车科技有限公司 目标检测方法、装置、车辆及存储介质

Family Cites Families (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4809178A (en) * 1986-05-22 1989-02-28 Kabushiki Kaisha Toyota Chuo Kenkyusho Obstacle data processing system for unmanned vehicle
US5229941A (en) * 1988-04-14 1993-07-20 Nissan Motor Company, Limtied Autonomous vehicle automatically running on route and its method
DE69121369T2 (de) * 1990-11-30 1997-01-09 Honda Motor Co Ltd Steuervorrichtung für einen sich selbständig bewegenden Körper und Verfahren zur Auswertung der Daten davon
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JP3183966B2 (ja) * 1992-04-20 2001-07-09 マツダ株式会社 車両の走行制御装置
JP3169483B2 (ja) * 1993-06-25 2001-05-28 富士通株式会社 道路環境認識装置
JP3201128B2 (ja) * 1993-09-14 2001-08-20 オムロン株式会社 車間距離計測装置およびこれを搭載した車両
US5754099A (en) * 1994-03-25 1998-05-19 Nippondenso Co., Ltd. Obstacle warning system for a vehicle
JPH07306996A (ja) * 1994-05-13 1995-11-21 Mazda Motor Corp 自動車の走行路推定装置
JP3357749B2 (ja) * 1994-07-12 2002-12-16 本田技研工業株式会社 車両の走行路画像処理装置
JP3557656B2 (ja) * 1994-08-03 2004-08-25 日産自動車株式会社 接近予測装置
JP3324325B2 (ja) * 1995-03-14 2002-09-17 三菱電機株式会社 車両前方監視装置
JP3470453B2 (ja) * 1995-04-06 2003-11-25 株式会社デンソー 車間距離制御装置
DE69635569T2 (de) * 1995-04-25 2006-08-10 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zum Bestimmen der lokalen Position eines Autos auf einer Strasse
US6370475B1 (en) * 1997-10-22 2002-04-09 Intelligent Technologies International Inc. Accident avoidance system
JP3365168B2 (ja) * 1995-09-25 2003-01-08 三菱自動車工業株式会社 後方白線認識装置
JP3257410B2 (ja) * 1995-11-24 2002-02-18 トヨタ自動車株式会社 車載走査型レーダ装置
JP3556766B2 (ja) * 1996-05-28 2004-08-25 松下電器産業株式会社 道路白線検出装置
US5991427A (en) * 1996-07-31 1999-11-23 Aisin Seiki Kabushiki Kaisha Method and apparatus for detecting a lane on a road
JP3500024B2 (ja) * 1997-01-07 2004-02-23 三菱重工業株式会社 自動運転システムにおける車両制御方法
US6087975A (en) * 1997-06-25 2000-07-11 Honda Giken Kogyo Kabushiki Kaisha Object detecting system for vehicle
JP3183501B2 (ja) * 1997-07-07 2001-07-09 本田技研工業株式会社 車両用走行制御装置
EP0913751B1 (de) * 1997-11-03 2003-09-03 Volkswagen Aktiengesellschaft Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
US6577334B1 (en) * 1998-02-18 2003-06-10 Kabushikikaisha Equos Research Vehicle control
US6591000B1 (en) * 1998-04-21 2003-07-08 Denso Corporation Apparatus and method for preprocessing a picked-up image, lane mark recognizing system, related vehicle traveling control system, and recording media
JP2000147124A (ja) * 1998-11-12 2000-05-26 Denso Corp 車載レーダ装置
DE19855400A1 (de) * 1998-12-01 2000-06-15 Bosch Gmbh Robert Verfahren und Vorrichtung zur Bestimmung eines zukünftigen Kursbereichs eines Fahrzeugs
JP3972230B2 (ja) * 1999-02-15 2007-09-05 株式会社セガ ゲーム装置、ゲーム装置の制御方法及び記録媒体
JP3998855B2 (ja) * 1999-05-18 2007-10-31 三菱電機株式会社 危険接近防止装置
JP3694423B2 (ja) * 1999-06-25 2005-09-14 本田技研工業株式会社 車両および車両用操舵制御装置
JP2001010518A (ja) * 1999-06-25 2001-01-16 Honda Motor Co Ltd 車両用操舵制御装置
US6385539B1 (en) * 1999-08-13 2002-05-07 Daimlerchrysler Ag Method and system for autonomously developing or augmenting geographical databases by mining uncoordinated probe data
JP3352655B2 (ja) * 1999-09-22 2002-12-03 富士重工業株式会社 車線認識装置
US6366851B1 (en) * 1999-10-25 2002-04-02 Navigation Technologies Corp. Method and system for automatic centerline adjustment of shape point data for a geographic database
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
JP3822770B2 (ja) * 1999-12-10 2006-09-20 三菱電機株式会社 車両用前方監視装置
JP3417375B2 (ja) * 2000-03-06 2003-06-16 株式会社デンソー 車両用道路形状認識方法及び装置、記録媒体
JP2001264087A (ja) * 2000-03-17 2001-09-26 Datatron:Kk 車載の位置管理情報表示装置
JP3427815B2 (ja) * 2000-03-30 2003-07-22 株式会社デンソー 先行車選択方法及び装置、記録媒体
KR100373002B1 (ko) * 2000-04-03 2003-02-25 현대자동차주식회사 차량의 차선 이탈 판단 방법
JP3417381B2 (ja) * 2000-05-25 2003-06-16 株式会社デンソー 道路形状認識装置、先行車両特定装置、及び記録媒体
US6470272B2 (en) * 2000-06-09 2002-10-22 Automotive Systems Laboratory, Inc. Situation awareness processor
JP3681620B2 (ja) * 2000-07-26 2005-08-10 株式会社デンソー 車両用障害物認識装置
US6581005B2 (en) * 2000-11-30 2003-06-17 Nissan Motor Co., Ltd. Vehicle position calculation apparatus and method
US6480789B2 (en) * 2000-12-04 2002-11-12 American Gnc Corporation Positioning and proximity warning method and system thereof for vehicle
JP3744352B2 (ja) * 2000-12-11 2006-02-08 日産自動車株式会社 障害物位置計測方法および障害物位置計測装置
JP3603018B2 (ja) * 2000-12-12 2004-12-15 独立行政法人科学技術振興機構 電気自動車の制御装置
JP2002225657A (ja) * 2001-02-06 2002-08-14 Oki Electric Ind Co Ltd 車両の走行レーン検出システム
JP4569051B2 (ja) * 2001-06-07 2010-10-27 株式会社エクォス・リサーチ 領域別情報送信装置
US6810330B2 (en) * 2001-07-31 2004-10-26 Omron Corporation Apparatus for and method of detecting object on road
JP2003075178A (ja) * 2001-09-03 2003-03-12 Pioneer Electronic Corp 通信ナビゲーションシステム及び方法、地図情報提供通信センタ装置、通信ナビゲーション端末並びにコンピュータプログラム
JP3865121B2 (ja) * 2001-10-31 2007-01-10 株式会社小松製作所 車両の障害物検出装置
EP1347306A3 (de) * 2001-11-08 2004-06-30 Fujitsu Ten Limited Abtastradar
EP1332910B1 (de) * 2002-02-01 2009-11-04 Nissan Motor Co., Ltd. Verfahren und System zur Verbesserung der Fahrerunterstützung
DE10207437A1 (de) * 2002-02-22 2003-09-11 Bosch Gmbh Robert Radarsensor für Kraftfahrzeuge
DE10210723A1 (de) * 2002-03-12 2003-09-25 Bosch Gmbh Robert Spurwechselassistent für Kraftfahrzeuge
JP3797277B2 (ja) * 2002-06-04 2006-07-12 株式会社村田製作所 レーダ
US7522091B2 (en) * 2002-07-15 2009-04-21 Automotive Systems Laboratory, Inc. Road curvature estimation system
CN100365430C (zh) * 2002-07-15 2008-01-30 汽车系统实验室公司 道路曲率估计和车辆目标状态估计系统
JP4374211B2 (ja) * 2002-08-27 2009-12-02 クラリオン株式会社 レーンマーカー位置検出方法及びレーンマーカー位置検出装置並びに車線逸脱警報装置
JP4037722B2 (ja) * 2002-09-18 2008-01-23 富士重工業株式会社 車外監視装置、及び、この車外監視装置を備えた走行制御装置
US7272482B2 (en) * 2002-09-30 2007-09-18 Nissan Motor Co., Ltd. Preceding-vehicle following control system
DE10251357A1 (de) * 2002-11-05 2004-05-13 Daimlerchrysler Ag Setzen oder Abschalten eines Fahrtrichtungsanzeigers
JP4093026B2 (ja) * 2002-11-18 2008-05-28 日本電気株式会社 道路環境情報通知装置、車載報知装置、情報センタ内装置、及び道路環境情報通知プログラム
JP4003623B2 (ja) * 2002-11-19 2007-11-07 住友電気工業株式会社 旋回可能な監視カメラを用いた画像処理システム
DE10254402B4 (de) * 2002-11-21 2011-02-17 Lucas Automotive Gmbh System zur Beeinflussung der Geschwindigkeit eines Kraftfahrzeuges
DE10254403A1 (de) * 2002-11-21 2004-06-03 Lucas Automotive Gmbh System zur Beeinflussung der Geschwindigkeit eines Kraftfahrzeuges
JP3885716B2 (ja) * 2002-11-21 2007-02-28 日産自動車株式会社 車両用推奨操作量生成装置
US6927699B2 (en) * 2002-12-05 2005-08-09 Denso Corporation Object recognition apparatus for vehicle, and inter-vehicle distance control unit
JP3841047B2 (ja) * 2002-12-05 2006-11-01 株式会社デンソー 車間制御装置
US7136753B2 (en) * 2002-12-05 2006-11-14 Denso Corporation Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus
JP3736520B2 (ja) * 2002-12-19 2006-01-18 株式会社デンソー 車両用障害物認識装置
JP2004264326A (ja) * 2003-01-22 2004-09-24 Matsushita Electric Ind Co Ltd 形状情報符号化方法及び装置、形状情報復号化方法及び装置、並びにプログラム
SE0300920L (sv) * 2003-03-31 2004-06-15 Volvo Lastvagnar Ab Anordning samt metod för att varna en förare då ett fordon avviker från ett fördefinierat körområde i ett körfält
GB0308912D0 (en) * 2003-04-17 2003-05-21 Trw Ltd Signal apparatus for a vehicle
KR100946935B1 (ko) * 2003-06-02 2010-03-09 삼성전자주식회사 이동체의 위치검출장치
JP2005010891A (ja) 2003-06-17 2005-01-13 Nissan Motor Co Ltd 車両用道路形状認識装置
JP4239771B2 (ja) * 2003-09-18 2009-03-18 日産自動車株式会社 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両
JP4114587B2 (ja) * 2003-09-29 2008-07-09 株式会社デンソー 自車走行位置検出装置及びプログラム
JP4389567B2 (ja) * 2003-12-03 2009-12-24 日産自動車株式会社 車線逸脱防止装置
JP4647201B2 (ja) * 2003-12-05 2011-03-09 富士重工業株式会社 車両の走行制御装置
JP4258385B2 (ja) * 2004-01-14 2009-04-30 株式会社デンソー 路面反射検出装置
DE102004003850A1 (de) 2004-01-26 2005-08-18 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung von Markierungen auf einer Fahrbahn
US7778759B2 (en) * 2004-02-06 2010-08-17 Nissan Motor Co., Ltd. Lane deviation avoidance system
JP3915785B2 (ja) * 2004-02-09 2007-05-16 日産自動車株式会社 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両
JP2005227947A (ja) * 2004-02-12 2005-08-25 Alpine Electronics Inc ナビゲーション装置及び障害物表示方法
US7482916B2 (en) * 2004-03-15 2009-01-27 Anita Au Automatic signaling systems for vehicles
US7206696B2 (en) * 2004-05-19 2007-04-17 Honda Motor Co., Ltd. Method for modifying navigation information
JP3941791B2 (ja) * 2004-04-09 2007-07-04 株式会社デンソー 車両用物体認識装置及びプログラム
JP4291741B2 (ja) * 2004-06-02 2009-07-08 トヨタ自動車株式会社 車線逸脱警報装置
DE102004028404A1 (de) * 2004-06-14 2006-01-19 Daimlerchrysler Ag Verfahren zur Schätzung des Verlaufs einer Fahrspur eines Kraftfahrzeuges
JP3931891B2 (ja) * 2004-07-05 2007-06-20 日産自動車株式会社 車載用画像処理装置
KR20060049706A (ko) * 2004-07-20 2006-05-19 아이신세이끼가부시끼가이샤 차량의 레인주행지원장치
US7248968B2 (en) * 2004-10-29 2007-07-24 Deere & Company Obstacle detection using stereo vision
JP2006189325A (ja) * 2005-01-06 2006-07-20 Aisin Aw Co Ltd 車両の現在地情報管理装置
US20070032245A1 (en) * 2005-08-05 2007-02-08 Alapuranen Pertti O Intelligent transportation system and method
US7729857B2 (en) * 2005-08-18 2010-06-01 Gm Global Technology Operations, Inc. System for and method of detecting a collision and predicting a vehicle path
JP4923520B2 (ja) * 2005-11-07 2012-04-25 日産自動車株式会社 車両位置推定装置、車両用走行支援装置及び車両位置推定方法
US8676492B2 (en) * 2006-01-19 2014-03-18 GM Global Technology Operations LLC Map-aided vision-based lane sensing
GB2437137A (en) * 2006-04-03 2007-10-17 Autoliv Development Ab Drivers aid that sensors the surrounding of the vehicle, and with a positioning system compares the detected objects to predict the driving conditions
JP5233606B2 (ja) * 2008-11-19 2013-07-10 富士通株式会社 絶対移動経路算出装置及び方法、並びにプログラム
JP2011098586A (ja) * 2009-11-04 2011-05-19 Mitsubishi Electric Corp 先行車選択装置及び先行車選択方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015106913A1 (de) * 2014-01-16 2015-07-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren und system zum schätzen eines fahrspurverlaufs

Also Published As

Publication number Publication date
JP4793094B2 (ja) 2011-10-12
JP2007310595A (ja) 2007-11-29
US8694236B2 (en) 2014-04-08
US20080040039A1 (en) 2008-02-14
DE102007021762B4 (de) 2019-02-21

Similar Documents

Publication Publication Date Title
DE102007021762B4 (de) Straßenumgebungs-Erkennungsvorrichtung und Verfahren zum Erkennen einer Straßenumgebung
DE102005004112B4 (de) Fahrzeugnavigationssystem
EP1557691B1 (de) Verfahren zur Erkennung von Markierungen auf einer Fahrbahn
DE102005054674B4 (de) Objekterkennungsvorrichtung für ein Kraftfahrzeug
DE69132251T2 (de) Laserradar für Fahrzeugseitenführungssystem
DE10356797B4 (de) Objekt-Erkennungsvorrichtung für ein Fahrzeug, Fahrzeug-zu-Fahrzeug-Steuervorrichtung und Abstandsmessvorrichtung
DE19503960B4 (de) Optische Radarvorrichtung für Fahrzeuge
DE112019004323T5 (de) Fahrzeugseitige vorrichtung, verfahren und speichermedium
DE112019004316T5 (de) Kartenerzeugungssystem, server, fahrzeugseitige vorrichtung, verfahren und speichermedium
DE112019004352T5 (de) Kartensystem, fahrzeugseitige vorrichtung, verfahren und speichermedium
DE112019004287T5 (de) Fahrzeugseitige vorrichtung, server, verfahren und speichermedium
EP1557692A1 (de) Verfahren zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen
EP3292423B1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
DE112015006810T5 (de) Spurerkennungseinrichtung und Spurerkennungsverfahren
DE10356677A1 (de) Objekterkennungsvorrichtung für ein Fahrzeug und Zwischenfahrzeugabstandssteuereinheit
DE102007019309A1 (de) Strasseninformationserfassungssystem, -verfahren und -programm
EP2746725A2 (de) Verfahren und Steuervorrichtung zum Bereitstellen eines vorausliegenden Straßenverlaufs
DE10149206A1 (de) Verfahren und Vorrichtung zum Kartographieren einer Straße sowie Unfallverhütungssystem
EP2116958B1 (de) Verfahren und Vorrichtung zum Ermitteln des Fahrbahnverlaufs im Bereich vor einem Fahrzeug
EP2804014B1 (de) Vorrichtung und Verfahren zum Bestimmen eines Fahrzeugmerkmals
DE102021206187A1 (de) System, Steuereinheit und Verfahren zur Bestimmung eines Geofencing-Ereignisses eines Fahrzeugs
WO2016015827A1 (de) Fahrerassistenzsystem, kraftfahrzeug und betriebsverfahren
DE102015111925B4 (de) Spurhalteassistenzsystem für ein Fahrzeug
DE102005003191A1 (de) Vorrichtung und Verfahren zur Umfelderfassung eines bewegbaren Objektes
WO2019201650A1 (de) Verfahren und vorrichtung zum bestimmen einer hochgenauen position eines fahrzeugs

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R084 Declaration of willingness to licence
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final