DE102010035235A1 - Fahrzeuggeländedetektionssystem und-verfahren - Google Patents

Fahrzeuggeländedetektionssystem und-verfahren Download PDF

Info

Publication number
DE102010035235A1
DE102010035235A1 DE102010035235A DE102010035235A DE102010035235A1 DE 102010035235 A1 DE102010035235 A1 DE 102010035235A1 DE 102010035235 A DE102010035235 A DE 102010035235A DE 102010035235 A DE102010035235 A DE 102010035235A DE 102010035235 A1 DE102010035235 A1 DE 102010035235A1
Authority
DE
Germany
Prior art keywords
terrain
road
processor
lidar
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010035235A
Other languages
English (en)
Other versions
DE102010035235B4 (de
Inventor
James N. Clarkston Nickolaou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102010035235A1 publication Critical patent/DE102010035235A1/de
Application granted granted Critical
Publication of DE102010035235B4 publication Critical patent/DE102010035235B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Es werden Verfahren und ein System zum Detektieren von Attributen eines Geländes bereitgestellt, das ein Fahrzeug umgibt. Das System umfasst mindestens einen Geländesensor, der ausgestaltet ist, um Daten zu erzeugen, die das Gelände beschreiben, und einen Prozessor, der mit dem mindestens einen Geländesensor gekoppelt ist. Der Prozessor ist ausgestaltet, um mindestens ein Attribut des Geländes auf der Grundlage von Daten zu detektieren, die durch den mindestens einen Geländesensor erzeugt werden, und ein Fahrverhalten des Fahrzeugs auf der Grundlage des mindestens einen Geländeattributs anzupassen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich allgemein auf Fahrzeugerfassungssysteme und bezieht sich insbesondere auf ein Fahrzeuggeländedetektionssystem und -verfahren.
  • HINTERGRUND DER ERFINDUNG
  • Fahrzeuge sind immer häufiger mit Sensoren ausgestattet, die Daten erzeugen, die die umliegende Umgebung und das umliegende Gelände beschreiben. Beispielsweise umfassen einige Fahrzeug Kamerasysteme, die Bilder des Geländes und/oder anderer Objekte in der Nähe des Fahrzeugs bereitstellen. Ferner wurden Kraftfahrzeugsensoren einer aktiven Sicherheit, wie beispielsweise Radare, verwendet, um das Vorhandensein, die Reflexionsintensität und die Positionen von Objekten auf dem Fahrzeugpfad zu detektieren. Die durch diese Sensoren erzeugten Daten können durch verschiedene Fahrzeugsysteme verwendet werden, um eine Fahrzeugsteuerung, eine Kollisionsvermeidung, eine adaptive Geschwindigkeitsregelung, eine Kollisionsverminderung und andere Merkmale einer aktiven Sicherheit bereitzustellen.
  • Das Leistungsvermögen vieler Sensoren wird jedoch durch bestimmte Straßen-, Wetter- und andere Umgebungsbedingungen nachteilig beeinflusst. Beispielsweise kann das Leistungsvermögen eines Fahrzeugkamerasystems durch Bedingungen erheblich verschlechtert werden, die die Sichtweite nach außen beeinträchtigen, beispielsweise plötzliche Beleuchtungsänderungen (z. B. Tunnelübergänge) oder raues Wetter (z. B. Nebel, Regen, Schnee etc.). Ferner kann das Leistungsvermögen von Kraftfahrzeugradaren durch Schmutz auf der Straße, raues Wetter und eine andere Signalbeeinträchtigung, die zu einer Fehlklassifizierung eines Radarziels oder ungenauen Positionsbestimmungen führen, verschlechtert werden.
  • Dementsprechend ist es erwünscht, ein System bereitzustellen, das das umliegende Gelände bei variierenden Straßen-, Wetter- und anderen Umgebungsbedingungen detektieren kann. Ferner werden andere erwünschte Merkmale und Eigenschaften der vorliegenden Erfindung aus der nachfolgenden detaillierten Beschreibung und den beigefügten Ansprüchen zusammen mit den begleitenden Zeichnungen und dem vorstehenden technischen Gebiet und Hintergrund ersichtlich.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Bei einer Ausführungsform wird ein System zum Detektieren von Attributen eines Geländes, das ein Fahrzeug umgibt, bereitgestellt. Das System umfasst mindestens ein Gelände, das ausgestaltet ist, um Daten zu erzeugen, die das Gelände beschreiben, und einen Prozessor, der mit dem mindestens einen Geländesensor gekoppelt ist. Der Prozessor ist ausgestaltet, um mindestens ein Attribut des Geländes auf der Grundlage von Daten zu detektieren, die durch den mindestens einen Sensor erzeugt werden, und um ein Fahrverhalten des Fahrzeugs auf der Grundlage des mindestens einen Geländeattributs anzupassen.
  • Es wird ein Verfahren zum Detektieren von Attributen eines Geländes bereitgestellt, das ein Fahrzeug umgibt, wobei das Fahrzeug mehrere Geländesensoren aufweist. Das Verfahren umfasst, dass Daten, die die Topographie eines Geländes beschreiben, von den mehreren Geländesensoren empfangen werden, die Attribute des Geländes auf der Grundlage der empfangenen Daten detektiert werden und ein Fahrverhalten [engl.: ”handing behavior”] des Fahrzeugs auf der Grundlage der Attribute des Geländes angepasst wird.
  • BESCHREIBUNG DER ZEICHNUNGEN
  • Die vorliegende Erfindung wird hierin nachfolgend in Verbindung mit den folgenden Zeichnungsfiguren beschrieben, in denen gleiche Bezugszeichen gleiche Elemente beschreiben und
  • 1 ein Blockdiagramm eines beispielhaften Fahrzeugs gemäß einer Ausführungsform ist;
  • 2 LIDAR-Daten zeigt, die durch ein oder mehrere abtastende LIDAR(e) erzeugt werden;
  • 3 LIDAR-Daten erzeugt, die durch ein oder mehrere Flash-LIDAR(e) erzeugt werden;
  • 4 ein Blockdiagramm eines beispielhaften Geländedetektionssystems zur Verwendung in einem Fahrzeug ist;
  • 5 ein Flussdiagramm eines beispielhaften Verfahrens zum Ermitteln eines Straßenoberflächenkoeffizienten ist.
  • BESCHREIBUNG EINER BEISPIELHAFTEN AUSFÜHRUNGSFORM
  • Die folgende detaillierte Beschreibung ist lediglich beispielhafter Natur und beabsichtigt nicht, die Erfindung oder die Anwendung und Verwendungen der Erfindung zu beschränken. Ferner besteht keine Absicht einer Einschränkung durch irgendeine ausgedrückte oder implizierte Theorie, die in dem vorstehenden technischen Gebiet, dem vorstehenden Hintergrund, der vorstehenden Kurzzusammenfassung oder der nachfolgenden detaillierten Beschreibung dargestellt ist. Es sei auch angemerkt, dass 14 lediglich darstellend sind und möglicherweise nicht maßstabsgetreu sind.
  • 1 ist ein Blockdiagramm eines beispielhaften Fahrzeugs 10 gemäß einer Ausführungsform. Das Fahrzeug 10 umfasst ein Chassis 12, eine Karosserie 14 und vier Räder 16. Die Karosserie 14 ist an dem Chassis 12 angeordnet und umgibt im Wesentlichen die anderen Komponenten des Fahrzeugs 10. Die Karosserie 14 und das Chassis 12 können gemeinsam einen Rahmen bilden. Die Räder 16 sind jeweils in der Nähe einer jeweiligen Ecke der Karosserie 14 rotatorisch mit dem Chassis 12 gekoppelt.
  • Das Fahrzeug 10 kann ein beliebiges einer Anzahl von verschiedenen Typen von Fahrzeugen sein, wie beispielsweise eine Limousine, ein Kombi, ein Lastkraftwagen oder ein Geländewagen (SUV von sport utility vehicle) und kann einen Zweiradantrieb (2WD) (d. h. Hinterradantrieb oder Vorderradantrieb), einen Vierradantrieb (4WD), einen Dreiradantrieb (3WD) oder einen Allradantrieb (AWD) aufweisen. Das Fahrzeug 10 kann auch einen beliebigen von, oder eine Kombination von, einer Anzahl von verschiedenen Typen von Maschinen (oder Aktoren) umfassen, wie beispielsweise eine Brennkraftmaschine für eine Kraftstoffbeaufschlagung mit Benzin oder Diesel, eine ”Flex-Fuel-Vehicle”-Maschine (FFV-Maschine) (d. h. unter Verwendung eines Gemischs aus Benzin und Alkohol), eine Maschine für eine Kraftstoffbeaufschlagung mit einer gasförmigen Zusammensetzung (z. B. Wasserstoff und/oder Erdgas), oder eine Brennstoffzelle, eine Verbrennungs-/Elektromotor-Hybridmaschine und ein Elektromotor.
  • Das Fahrzeug 10 umfasst ferner einen Prozessor 20, einen Speicher 22, eine Anzeigeeinrichtung 24, ein Navigationssystem 26, elektronische Steuereinheiten (ECUS von electronic control units) 28, Sensoren 30 und Geländesensoren 32. wie es gezeigt ist, sind die Anzeigeeinrichtung 24, das Navigationssystem 26, die ECUs 28, die Sensoren 30 und die Geländesensoren 32 jeweils über eine Datenkommunikationsverbindung 34 mit dem Prozessor 20 gekoppelt. Bei einer Ausführungsform umfasst die Datenkommunikationsverbindung 34 einen oder mehrere fahrzeugeigene Datenkommunikationsbusse, die Daten, einen Status und eine andere Information oder Signale zwischen verschiedenen Komponenten des Fahrzeugs 10 übertragen. Die fahrzeugeigenen Datenkommunikationsbusse 34 können ein beliebiges geeignetes physikalisches oder logisches Mittel zum Verbinden von Computersystemen und Komponenten umfassen.
  • Der Prozessor 20 kann einen beliebigen Typ von Prozessor oder mehrere Prozessoren, einzelne integrierte Schaltkreise, wie beispielsweise einen Mikroprozessor, oder eine beliebige geeignete Anzahl von Einrichtungen eines integrierten Schaltkreises und/oder Platinen umfassen, die in Kooperation arbeiten, um die Funktionen einer Verarbeitungseinheit auszuführen. Während des Betriebs führt der Prozessor 20 eine oder mehrere Anweisungen aus, die vorzugsweise in dem Speicher 22 gespeichert sind.
  • Der Speicher 22 kann jeder Typ von geeignetem Speicher sein, der verschiedene Typen von dynamischem Direktzugriffsspeicher (DRAM von dynamic random access memory), wie beispielsweise SDRAM, verschiedene Typen von statischem RAM (SRAM von static RAM) und verschiedene Typen von nichtflüchtigem Speicher (PROM, EPROM und Flash) umfasst. Es ist zu verstehen, dass der Speicher 22 ein einzelner Typ von Speicherkomponente sein kann oder aus vielen verschiedenen Typen von Speicherkomponenten bestehen kann. Wie oben erwähnt speichert der Speicher 22 Anweisungen zum Ausführen eines oder mehrerer Verfahren, die Ausführungsformen der Verfahren zum Ermitteln, wann ein Task an einem Fahrzeug ausgeführt werden kann, wie nachstehend beschrieben, umfassen. Ferner kann der Speicher 22 ausgestaltet sein, um verschiedene andere Daten wie nachstehend weiter beschrieben zu speichern.
  • Die Anzeigeeinrichtung 24 gibt in einem Anzeigebereich verschiedene Bilder (in Textform, graphisch oder symbolisch) aus. Bei einer Ausführungsform umfasst die Anzeigeeinrichtung 24 eine Touch-Screen-Anzeige zum Ausgeben einer Benutzerschnittstelle und von anderem Inhalt in Ansprechen auf Befehle, die von dem Prozessor 20 empfangen werden. Die Anzeigeeinrichtung 24 kann jedoch unter Verwendung von anderen Anzeigetypen realisiert sein, wie beispielsweise einer Flüssigkristallanzeige (LCD von liquid crystal display), einer Dünnfilmtransistoranzeige (TFT-Anzeige von thin film transistor display), einer Plasmaanzeige oder einer Leuchtdiodenanzeige (LED-Anzeige von light emitting diode display).
  • Das Navigationssystem 26 erzeugt Daten, die die aktuelle Position des Fahrzeugs 10 beschreiben. Bei einer Ausführungsform umfasst das Navigationssystem 26 ein globales Positionsbestimmungssystem (GPS von global positioning system) und/oder eine oder mehrere Inertialmesseinheiten (IMUs von inertial measurement units) zum Ermitteln der aktuellen Koordinaten des Fahrzeugs 10 auf der Grundlage von empfangenen GPS-Signalen und/oder Koppelnavigationstechniken. Die aktuellen Koordinaten des Fahrzeugs 10 können verwendet werden, um den aktuellen Ort des Fahrzeugs 10 an einer Karte zu identifizieren, die in einer Kartendatenbank gespeichert ist.
  • Die ECU(s) 28 umfassen eine oder mehrere Kraftfahrzeugsteuereinheiten zum Steuern der verschiedenen Systeme des Fahrzeugs 10, wie beispielsweise eine Stabilitätssteuereinheit, eine Maschinensteuereinheit, eine Lenksteuereinheit und eine Bremssteuereinheit, um einige zu nennen. Jede ECU 28 umfasst einen oder mehrere Controller, Aktoren, Sensoren und/oder andere Komponenten, die den Betrieb, das Fahrverhalten und andere Eigenschaften des Fahrzeugs 10 steuern. Der Sensor/die Sensoren 30 detektiert/detektieren verschiedene Attribute der Umgebung, die um das Fahrzeug 10 liegt. Bei einer Ausführungsform umfassen die Sensoren 30 einen Temperatursensor, der ausgestaltet ist, um die Außentemperatur zu ermitteln, und einen Regendetektor, der ausgestaltet ist, um den angesammelten Regen an dem Fahrzeug 10 zu detektieren. Es sei angemerkt, dass alternative Ausführungsformen auch andere Typen von Sensoren umfassen können.
  • Die Geländesensoren 32 erzeugen Daten, die das Gelände und andere Objekte innerhalb mindestens eines Abschnitts des Bereichs beschreiben, der das Fahrzeug 10 umgibt (hierin nachfolgend der ”Zielbereich”). Bei den hierin beschriebenen Ausführungsformen umfasst der Zielbereich einen Abschnitt des Bereichs vor dem Fahrzeug 10. Es sei jedoch angemerkt, dass der Zielbereich alle oder andere Abschnitte des Bereichs, der das Fahrzeug 10 umgibt, umfassen kann. Bei einer Ausführungsform umfassen die Geländesensoren 32 mehrere verschiedene Geländeerfassungseinrichtungen, wie beispielsweise ein(e) oder mehrere Light Detection and Ranging-Einrichtungen 40 (hierin nachfolgend ”LIDAR(e)”), Kamera(s) 42 und Radar(e) 44. Es sei angemerkt, dass auch andere Geländedetektionseinrichtungen (z. B. Ultraschalle) verwendet werden können.
  • Die Kamera(s) 42 erzeugt/erzeugen Bilder des Zielbereichs, die Bilder einer Straße, von aufgemalten Straßenmarkierungen (z. B. Spurmarkierungen), anderen Fahrzeugen und anderen Objekten innerhalb des Zielbereichs umfassen. Bei einer Ausführungsform umfasst/umfassen die Kamera(s) 42 Stereokameras, die Bilder erzeugen, die die Höhe/Elevation und Krümmung der Oberfläche des Zielbereichs zeigen. Das Radar/die Radare 44 verwendet/verwenden Funkwellen, um das Vorhandensein und die Position von Objekten innerhalb des Zielbereichs zu erfassen.
  • Das/die LIDAR(e) 40 überträgt/übertragen Licht (z. B. ultraviolett, sichtbar und infrarot) an dem Zielbereich, und ein Teil dieses Lichts wird durch die Oberfläche oder andere Objekte in dem Zielbereich reflektiert/rückgestreut. Dieses reflektierte Licht wird empfangen und analysiert, um verschiedene Attribute der Oberfläche des Zielbereichs zu ermitteln. Beispielsweise kann das/können die LIDAR(e) 40 die Entfernung/Position der Oberfläche oder anderer Objekte innerhalb des Zielbereichs auf der Grundlage der Zeit ermitteln, die erforderlich ist, um das übertragene Licht zurück zu reflektieren. Ferner kann das/können die LIDAR(e) 40 den Oberflächentyp und/oder andere Eigenschaften der Oberfläche auf der Grundlage der Intensität des reflektierten Lichts detektieren.
  • Nun auf 2 Bezug nehmend umfasst/umfassen bei einer Ausführungsform das/die LIDAR(e) 40 (1) ein oder mehrere Abtast-LIDAR(e), das/die Daten (hierin nachfolgend ”LIDAR-Daten”) 50 erzeugt/erzeugen, die die Topographie und die Reflexionseigenschaften (oder Reflexionsintensität) der Oberfläche des Zielbereichs beschreiben. Wie es gezeigt ist, umfassen die LIDAR-Daten 50 mehrere konzentrische Abtastlinien 60, 61, 62, 63, 64, 65, 66, die sich über der Oberfläche des Zielbereichs erstrecken. Jede Abtastlinie entspricht einem anderen Abtastwinkel des Abtast-LIDARs/der Abtast-LIDARe 40 und beschreibt die Topographie und Reflexionsintensität der entsprechenden Positionen an der Oberfläche des Zielbereichs. Mulden, Stufen und andere Krümmungen an den Abtastlinien 6066 identifizieren Änderungen der Elevationen der entsprechenden Positionen an der Oberfläche des Zielbereichs. Ferner kann die Reflexionsintensität der Oberfläche des Zielbereichs durch die Farbe oder Dicke der Abtastlinien 6066 oder durch ein beliebiges anderes geeignetes Verfahren dargestellt werden. Dementsprechend stellen die LIDAR-Daten 50 eine Momentaufnahme der Oberfläche des Zielbereichs dar.
  • In Bezug auf 1 und 2 ermittelt der Prozessor 20 die Form/Geometrie der Oberfläche des Zielbereichs auf der Grundlage von zumindest teilweise den LIDAR-Daten 50. Bei einer Ausführungsform identifiziert der Prozessor 20 im Wesentlichen glatte/flache Segmente an den Abtastlinien 6066, die der Position einer Straße 70 oder einer anderen flachen Oberfläche in dem Zielbereich entsprechen. Der Prozessor 20 analysiert dann diese im Wesentlichen glatten/flachen Segmente der Abtastlinien 6066, um die Form und Krümmung der detektierten Straße 70 zu detektieren. Der Prozessor 20 kann eine Kurvenanpassungstechnik und/oder andere geeignete Techniken zum Detektieren der Straße 70 und Ermitteln ihrer Form/Geometrie und Krümmung verwenden. Ferner kann der Prozessor 20 Schätzwerte der probabilistischen Dauer und Größe einsetzen, um die Straße 70 von anderen im Wesentlichen glatten/flachen Bereichen an der Oberfläche des Zielbereichs zu unterscheiden.
  • Ferner identifiziert der Prozessor 20 Stufen und/oder Kurven an den Abtastlinien 6066, die Positionen eines Straßenrands 72 entsprechen. Beispielsweise kann eine konsistente Stufe an den Abtastlinien 6066 (oder ein wesentlicher Abschnitt der Abtastlinien 6066), die an dem Rand einer detektierten Straße positioniert ist, das Vorhandensein eines kantigen Bordsteins 72 angeben. Alternativ kann eine glattere Kurve an den Abtastlinien 6066 (oder ein wesentlicher Abschnitt der Abtastlinien 6066), die am Rand der detektierten Straße positioniert ist, die Position eines glatteren Straßenrands oder Bordsteins angeben.
  • Der Prozessor 20 kann auch Hindernisse, wie beispielsweise Schlaglöcher oder andere Fahrzeuge, auf der detektierten Straße 70 auf der Grundlage von Mulden oder einer anderen Krümmung an den Abtastlinien 6066 detektieren. Beispielsweise kann der Prozessor 20 Mulden, Hügel und andere Abweichungen der Abtastlinien 6066 identifizieren, die den Positionen von Schlaglöchern 74, Rüttelschwellen und anderen Abweichungen der Elevation der detektierten Straße 70 entsprechen. Ferner kann der Prozessor 20 andere Hindernisse, wie beispielsweise andere Fahrzeuge, auf der Straße 70 auf der Grundlage von zumindest teilweise der Krümmung der Abtastlinien 6066 detektieren.
  • Ferner identifiziert der Prozessor 20 den Straßentyp, Straßenmarkierungen, Straßenzustände und andere Straßenoberflächenmerkmale auf der Grundlage von zumindest teilweise der Reflexionsintensitätsinformation in den LIDAR-Daten 50. Bei einer Ausführungsform identifiziert der Prozessor 20 einen Straßenoberflächentyp (z. B. Beton, Asphalt, Pflaster, Schotter, Gras, etc.) für die detektierte Straße 70 auf der Grundlage der Reflexionsintensität in den glatten/flachen Segmenten der Abtastlinien 6066. Ferner kann der Prozessor 20 Öl, stehendes Wasser, Eis, Schnee und andere Materialien auf der detektierten Straße 70 auf der Grundlage von Abweichungen innerhalb der Reflexionsintensität detektieren. Diese Information kann verwendet werden, um den Zustand (z. B. trocken, nass, eisig, ölig, etc.) der detektierten Straße 70 zu ermitteln.
  • Ferner identifiziert der Prozessor 20 Spurmarkierungen, Zebrastreifen und andere aufgemalte Straßenmarkierungen auf der Grundlage von Abweichungen der Reflexionsintensität der detektierten Straße 70. Der Prozessor 20 kann die Positionen einer oder mehrerer Spuren auf der Straße 70 auf der Grundlage der Positionen dieser detektierten Spurmarkierungen ermitteln. Bei einer Ausführungsform verwendet der Prozessor 20 die Reflexionsintensitätsinformation von den LIDAR-Daten 50, um Reifenspuren, die von anderen Fahrzeugen im Wasser, Schnee, Matsch oder Eis hinterlassen werden, auf der detektierten Straße 70 zu identifizieren. Solche Reifenspuren werden als fehlende, gedämpfte oder variierende Reflexionsintensität innerhalb einer detektierten Spurposition dargestellt. Der Prozessor 20 kann Schätzwerte einer probabilistischen Dauer und Größe einsetzen, um zwischen tatsächlichen Reifenspuren und Abweichungen der Intensitätsinformation zu unterscheiden, die auf andere Ursachen zurückzuführen sind (z. B. einzelne Sensorabtastwertfehler). Das Vorhandensein solcher Reifenspuren kann verwendet werden, um den Zustand (z. B. nass, eisig oder normal) oder die detektierte Straße 70 zu ermitteln und/oder den Fahrzeugtyp (z. B. Auto, Lastwagen, Motorrad, etc.) für das Fahrzeug, das sich vor dem Fahrzeug 10 befindet, zu identifizieren.
  • Obwohl die oben beschriebenen Ausführungsformen ein oder mehrere Abtast-LIDAR(e) zum Erzeugen der LIDAR-Daten 50 und Detektieren einer Topographie und verschiedener Attribute der Oberfläche des Zielbereichs verwenden, wird ein Fachmann erkennen, dass alternative Ausführungsformen LIDAR-Typen, wie beispielsweise ein oder mehrere Flash-LIDAR(e) verwenden können. Ein Flash-LIDAR verwendet einen einzelnen Streulichtimpuls zum Beleuchten des Zielbereichs und erzeugt eine unmittelbare Momentaufnahme der Oberfläche auf der Grundlage des reflektierten Lichts. Die Daten, die durch das/die Flash-LIDAR(e) erzeugt werden, können dann analysiert werden, um die Topographie und die Reflexionsintensität der Oberfläche des Zielbereichs zu detektieren.
  • Nun auf 3 Bezug nehmend, werden die Daten 100, die durch das/die Flash-LIDAR(e) erzeugt werden, bei einer Ausführungsform in mehrere konzentrische Bereichselemente 102, 103, 104, 105, 106 segmentiert. Jedes Bereichselement 102106 beschreibt die Topographie und die Reflexionsintensität der entsprechenden Positionen an der Oberfläche des Zielbereichs. Wie bei den Abtastlinien 6066 (2) identifizieren Mulden, Stufen und andere Krümmungen innerhalb der Bereichselemente 102106 ähnliche Änderungen der Elevation der entsprechenden Position an der Oberfläche des Zielbereichs. Die Reflexionsintensität der Oberfläche des Zielbereichs kann durch die Farbe oder Dicke der Bereichselemente 102106 oder durch eine andere geeignete Technik dargestellt werden. In Bezug auf 1 und 3 sei angemerkt, dass der Prozessor 20 die Form/Geometrie, die Krümmung, die Bordstein- und Hindernispositionen, den Oberflächentyp, den Straßenzustand, aufgemalte Straßenmarkierungen, Reifenspurpositionen und andere Attribute einer detektierten Straße unter Verwendung von Verfahren ermitteln kann, die im Wesentlichen ähnlich zu den Verfahren sind, die oben in Bezug auf die Abtastlinien 6066 (2) beschrieben wurden.
  • 4 ist ein Blockdiagramm eines beispielhaften Geländedetektionssystems 109 zur Verwendung in einem Fahrzeug. Das System 109 umfasst einen Prozessor 110, Geländesensoren 112, einen Temperatursensor 114, eine Anzeigeeinrichtung 116, eine oder mehrere ECU(s) 118 und ein Navigationssystem 120. Die Geländesensoren 112 umfassen eine oder mehrere verschiedene Einrichtungen, die Daten erzeugen, die die Topographie des Geländes innerhalb eines Zielbereichs beschreiben, wie beispielsweise ein LIDAR/LIDARe 121, eine Kamera/Kameras 122 und ein Radar/Radare 124. Der Prozessor 110 detektiert verschiedene vorbestimmte Attribute (hierin nachfolgend ”Geländeattribute”) des Geländes, die eine Straßenform/-geometrie und -krümmung 130, Schlagloch-/Hindernispositionen 131, einen Straßentyp 132, Spurpositionen 133 und einen Straßenoberflächenzustand 134 umfassen.
  • Wie es oben beschrieben ist, kann der Prozessor 110 die Straßengeometrie/-krümmung 130 auf der Grundlage von Daten detektieren, die durch das LIDAR 121 erzeugt werden. Ferner kann der Prozessor 110 Daten von dem Navigationssystem 120, der Kamera/den Kameras 122 und dem Radar/den Radaren 124 verwenden, um die Straßengeometrie/-krümmung 130 mit erhöhter Präzision und/oder Geschwindigkeit zu detektieren. Beispielsweise kann der Prozessor 110 die Bilder analysieren, die durch die Kamera(s) 122 und das/die LIDAR(e) 121 erzeugt werden, um aufgemalte Straßenmarkierungen (z. B. Spurmarkierungen, durchgehende Linien, gestrichelte Linien, Doppellinien etc.), Straßenschilder, Objekte (z. B. andere Fahrzeuge) und andere visuelle Hinweise des Vorhandenseins, der Form/Geometrie und der Krümmung einer Straße zu identifizieren.
  • Ähnlich kann der Prozessor 110 die Daten von dem/den LIDAR(en) 121, der/den Kamera(s) 122 und dem/den Radar(en) 124 verwenden, um die Schlagloch-/Hindernispositionen 131, einen Straßenoberflächentyp 132, Spurpositionen 133 und einen Straßenoberflächenzustand 134 mit erhöhter Präzision und/oder Genauigkeit zu detektieren. Oben werden Verfahren zum Detektieren von Geländeattributen 131134 auf der Grundlage der LIDAR-Daten 50 (2) bereitgestellt. Der Prozessor 110 kann auch die Bilder der Straße, die durch die Kamera(s) 122 erzeugt werden, und die Positionsdaten, die durch das/die Radar(e) 124 erzeugt werden, verwenden, um den Straßentyp, Schlaglöcher und andere Hindernisse auf der Straße, Schnee oder Eis auf der Straße, sowie andere Attribute mit erhöhter [engl.: ”increase”] Präzision und/oder Geschwindigkeit zu detektieren.
  • Die Verwendung von verschiedenen Geländesensoren 112 (z. B. dem/den LIDAR(en) 121, der/den Kamera(s) 122 und dem/den Radar(en) 124) ermöglicht dem System 109, unter variierenden Umgebungsbedingungen genau die Geländeattribute 130134 zu detektieren. Beispielsweise kann der Prozessor 110 während rauen Wetters oder zu anderen Zeiten, wenn die Sichtweite gering ist, so dass das Leistungsvermögen der Kamera(s) 122 nachteilig beeinflusst wird, die Daten verwenden, die durch das/die LIDAR(e) 121 und/oder das/die Radar(e) 124 erzeugt werden, um Geländeattribute 130134 zu detektieren. Ferner kann der Prozessor 110 die Daten verwenden, die durch das/die LIDAR(e) 121 und/oder die Kamera(s) 122 erzeugt werden, wenn eine Verschmutzung oder eine andere Signalbeeinträchtigung vorhanden ist, die das Leistungsvermögen des Radars/der Radare 124 verschlechtert.
  • Der Prozessor 110 erzeugt Daten und Befehlssignale für die Anzeigeeinrichtung 116, die ECU(s) 118 und das Navigationssystem 120 auf der Grundlage von zumindest teilweise den Geländeattributen 130134. Bei einer Ausführungsform verwendet der Prozessor 110 die Attribute 130134, um eine gewünschte Verfolgung/Trajektorie für das Fahrzeug zu ermitteln und/oder die Verfolgung/Trajektorie eines detektierten Fahrzeugs oder eines anderen Hindernisses vorherzusagen. Diese Verfolgungs-/Trajektoriedaten 140 oder darauf basierende Befehlssignale werden dann an die ECU(s) 118 übertragen, um die Aufhängung, Bremsung, Lenkung und/oder ein anderes Fahrverhalten des Fahrzeugs anzupassen. Ferner können die Verfolgungs-/Trajektoriedaten 140 oder darauf basierende Befehlssignale durch das Navigationssystem 120 verwendet werden, um die Position des Fahrzeugs oder irgendeines detektierten Fahrzeugs oder Hindernisses zu ermitteln.
  • Der Prozessor 110 kann auf der Grundlage der Attribute 130134 auch Befehlssignale an die Anzeigeeinrichtung 116 und/oder die ECU(s) 118 liefern. Beispielsweise liefert der Prozessor 110 bei einer Ausführungsform Befehlssignale, die bewirken, dass die Anzeigeeinrichtung 116 eine Warnung anzeigt, wenn ein Schlagloch, eine Rüttelschwelle, ein anderes Fahrzeug oder ein anderes Hindernis in dem Zielbereich detektiert wird. Bei einer anderen Ausführungsform liefert der Prozessor 110 Befehlssignale, die bewirken, dass das Lenksystem des Fahrzeugs auf der Grundlage des Vorhandenseins von Schlaglöchern, Matsch, Eis, Wasser, anderen Fahrzeugen oder anderen Hindernissen auf einer detektierten Straße angepasst wird. Beispielsweise kann der Prozessor 110 Befehlssignale übertragen, um die Fahrzeugposition innerhalb einer detektierten Straße anzupassen, um detektierten Hindernissen auszuweichen. Der Prozessor 110 kann auch Befehlssignale übertragen, um die Bremsung, Aufhängung und/oder ein anderes Fahrverhalten des Fahrzeugs auf der Grundlage eines detektierten Hindernisses anzupassen.
  • Bei einer Ausführungsform ermittelt der Prozessor 110 einen Straßenoberflächenkoeffizienten 142, der den Straßenoberflächenzustand auf der Grundlage des Vorhandenseins von Reifenspuren auf der detektierten Straße beschreibt. 5 zeigt ein Flussdiagramm eines beispielhaften Verfahrens 150 zum Ermitteln eines Straßenoberflächenkoeffizienten 142. In Bezug auf 4 und 5 werden während Schritt 152 Spurpositionen auf einer detektierten Straße ermittelt. Wie oben beschrieben kann der Prozessor 110 die Spurposition (z. B. die Spurpositionen 133) auf der Grundlage der Daten detektieren, die von den Geländesensoren 112 empfangen werden (z. B. durch Detektieren der Positionen von Spurmarkierungen und anderen Straßenmarkierungen). Alternativ kann der Prozessor 110 das Vorhandensein und die Position eines anderen Fahrzeugs auf der detektierten Straße detektieren (z. B. auf der Grundlage der Daten, die durch das/die LIDAR(e) 121, die Kamera(s) 122 oder das/die Radar(e) 124 erzeugt werden) und dann die Spurposition auf der Grundlage der Position des detektierten Fahrzeugs schätzen.
  • Als Nächstes ermittelt der Prozessor 110, ob sich Reifenspuren an der detektierten Spurposition befinden (Schritt 154). Wie oben beschrieben kann der Prozessor 110 das Vorhandensein und die Position der Reifenspuren auf der Grundlage von Abweichungen der Reflexionsintensitätsinformation, die durch das LIDAR/die LIDARe 121 erzeugt wird, detektieren. Der Prozessor 110 kann auch Daten verwenden, die durch die anderen Geländesensoren 112 erzeugt werden, um Reifenspuren mit erhöhter Präzision und/oder Geschwindigkeit zu detektieren. Beispielsweise kann der Prozessor 110 Bilder analysieren, die durch die Kamera(s) 122 erzeugt werden, um die Reifenspuren an der detektierten Spurposition zu identifizieren. Wenn der Prozessor 110 keine Reifenspuren detektieren kann, wird ein Wert, der normalen Straßenzuständen entspricht, dem Straßenoberflächenkoeffizienten 142 zugeordnet (Schritt 156).
  • Alternativ ermittelt der Prozessor 110, wenn er während Schritt 154 auf der detektierten Spur Reifenspuren identifiziert, ob die Außentemperatur Schnee-, Matsch- oder eisige Straßenzustände unterstützt (Schritt 158). Bei einer Ausführungsform ermittelt der Prozessor 110 auf der Grundlage von Daten, die von dem Temperatursensor 114 empfangen werden, ob die Außentemperatur geringer als ein vorbestimmter Temperaturschwellenwert ist. In diesem Fall wird der vorbestimmte Temperaturschwellenwert kalibriert, um Frost- oder Fast-Frost-Zustände außerhalb des Fahrzeugs zu identifizieren. Wenn die Außentemperatur geringer als der vorbestimmte Temperaturschwellenwert ist, wird dem Straßenoberflächenkoeffizienten 142 ein Wert zugeordnet, der Schnee- oder eisigen Straßenzuständen entspricht (Schritt 160). Alternativ wird dem Straßenoberflächenkoeffizienten 142 ein Wert zugeordnet, der nassen Straßenzuständen entspricht (Schritt 162). Andere Sensordaten, wie beispielsweise Regensensordaten oder Scheibenwischerzustandsdaten, könnten das Vorhandensein von nassen Straßenzuständen weiter bestätigen.
  • Während mindestens eine beispielhafte Ausführungsform in der vorstehenden detaillierten Beschreibung dargestellt wurde, sei angemerkt, dass eine große Anzahl von Abwandlungen existiert. Es sei auch angemerkt, dass die beispielhafte Ausführungsform oder die beispielhaften Ausführungsformen lediglich Beispiele sind und nicht den Schutzumfang, die Anwendbarkeit oder Ausgestaltung der Erfindung auf irgendeine Weise einschränken sollen. Vielmehr bietet die vorstehende detaillierte Beschreibung Fachleuten einen geeigneten Plan zum Realisieren der beispielhaften Ausführungsform oder der beispielhaften Ausführungsformen. Es sei angemerkt, dass verschiedene Änderungen an der Funktion und der Anordnung von Elementen vorgenommen werden können, ohne von dem Schutzumfang der Erfindung abzuweichen, wie er in den beigefügten Ansprüchen und den rechtlichen Äquivalenten hiervon ausgeführt ist.

Claims (10)

  1. Geländedetektionssystem zur Verwendung in einem Fahrzeug, umfassend: mindestens einen Geländesensor, der ausgestaltet ist, um Daten zu erzeugen, die ein Gelände beschreiben, das das Fahrzeug umgibt; einen Prozessor, der mit dem mindestens einen Geländesensor gekoppelt ist und ausgestaltet ist, um: mindestens ein Attribut des Geländes auf der Grundlage der Daten zu detektieren, die durch den mindestens einen Geländesensor erzeugt werden; und ein Verhalten des Fahrzeugs auf der Grundlage des mindestens einen Geländeattributs anzupassen.
  2. Geländedetektionssystem nach Anspruch 1, wobei der mindestens eine Geländesensor ein LIDAR umfasst, das ausgestaltet ist, um Daten zu erzeugen, die Abweichungen der Topographie des Geländes beschreiben.
  3. Geländedetektionssystem nach Anspruch 2, wobei der Prozessor ferner ausgestaltet ist, um einen im Wesentlichen glatten Abschnitt des Geländes, der der Position einer Straße entspricht, basierend zumindest teilweise auf den Daten, die durch das LIDAR erzeugt werden, zu identifizieren.
  4. Geländedetektionssystem nach Anspruch 3, wobei der Prozessor ferner ausgestaltet ist, um Abweichungen der Höhe des Geländes, die der Position eines Straßenrands entsprechen, basierend zumindest teilweise auf den Daten, die durch das LIDAR erzeugt werden, zu identifizieren.
  5. Geländedetektionssystem nach Anspruch 3, wobei der Prozessor ferner ausgestaltet ist, um eine Krümmung der Straße basierend zumindest teilweise auf den Daten, die durch das LIDAR erzeugt werden, zu identifizieren, und/oder wobei der Prozessor ferner ausgestaltet ist, um Abweichungen der Höhe des Geländes, die Hindernissen auf der Straße entsprechen, basierend zumindest teilweise auf den Daten, die durch das LIDAR erzeugt werden, zu detektieren, wobei die Hindernisse vorzugsweise ein oder mehrere Schlaglöcher auf der Straße umfassen. und/oder ferner umfassend eine Anzeigeeinrichtung, die mit dem Prozessor gekoppelt ist, und wobei der Prozessor ferner ausgestaltet ist, um eine Warnung an der Anzeigeeinrichtung zu erzeugen, wenn Hindernisse auf der Straße detektiert werden, und/oder wobei das LIDAR ferner ausgestaltet ist, um Daten zu erzeugen, die eine Reflexionsintensität des Geländes beschreiben, und/oder wobei der Prozessor ferner ausgestaltet ist, um einen Straßentyp basierend auf der Reflexionsintensität des Geländes zu ermitteln, und/oder wobei der Prozessor ferner ausgestaltet ist, um: eine Abweichung der Reflexionsintensität des Geländes, die Spurmarkierungen auf der Straße entspricht, basierend zumindest teilweise auf den Daten, die durch das LIDAR erzeugt werden, zu detektieren; und eine Spurposition auf der Grundlage der Spurmarkierungen zu ermitteln, ferner insbesondere umfassend einen Temperatursensor, der mit dem Prozessor gekoppelt ist und ausgestaltet ist, um eine Außentemperatur zu ermitteln, und wobei der Prozessor ferner ausgestaltet ist, um: Abweichungen der Reflexionsintensität der Straße, die Reifenspuren entsprechen, an der Spurposition zu identifizieren; zu ermitteln, ob die Außentemperatur geringer als ein vorbestimmter Temperaturschwellenwert ist, der eisige Straßenzustände unterstützt; zu ermitteln, dass Eis auf der Straße vorhanden ist, wenn Reifenspuren an der Spurposition vorhanden sind und die Außentemperatur geringer als der vorbestimmte Temperaturschwellenwert ist; und zu ermitteln, dass Wasser auf der Straße vorhanden ist, wenn Reifenspuren an der Spurposition vorhanden sind und die Außentemperatur nicht geringer als der vorbestimmte Temperaturschwellenwert ist, und/oder wobei der Prozessor ferner ausgestaltet ist, um Wasser, Eis, Öl und andere Materialien auf der Straße basierend zumindest teilweise auf Abweichungen der Reflexionsintensität des Geländes zu detektieren.
  6. Geländedetektionssystem nach Anspruch 2, wobei der mindestens eine Geländesensor ferner eine Kamera umfasst, die mit dem Prozessor gekoppelt ist und ausgestaltet ist, um Bilddaten zu erzeugen, die das Gelände beschreiben, und wobei der Prozessor ferner ausgestaltet ist, um das mindestens eine Geländeattribut des Geländes auf der Grundlage der Daten zu detektieren, die durch die Kamera und das LIDAR erzeugt werden.
  7. Verfahren zum Detektieren von vorbestimmten Attributen eines Geländes, das ein Fahrzeug umgibt, wobei das Fahrzeug mehrere Geländesensoren aufweist und das Verfahren umfasst, dass: Daten, die die Topographie des Geländes beschreiben, von den mehreren Geländesensoren empfangen werden; die vorbestimmten Attribute auf der Grundlage der empfangenen Daten detektiert werden; und ein Verhalten des Fahrzeugs auf der Grundlage der vorbestimmten Attribute angepasst wird.
  8. Verfahren nach Anspruch 7, wobei die mehreren Geländesensoren ein LIDAR umfassen, das ausgestaltet ist, um Daten zu erzeugen, die Abweichungen der Topographie und der Reflexionsintensität des Geländes beschreiben, und der Schritt des Detektierens ferner umfasst, dass: die Daten analysiert werden, die durch das LIDAR erzeugt werden, um folgendes zu detektieren: im Wesentlichen glatte Abschnitte des Geländes, die [engl.: ”the”] der Geometrie einer Straße entsprechen; und Abweichungen der Höhe des Geländes, die der Position eines Straßenrands entsprechen.
  9. Verfahren nach Anspruch 8, wobei der Schritt des Detektierens ferner umfasst, dass die Daten analysiert werden, die durch das LIDAR erzeugt werden, um Abweichungen der Höhe des Geländes zu detektieren, die Hindernissen auf der Straße entsprechen, und/oder wobei: der Schritt des Empfangens ferner umfasst, dass Daten, die die Topographie und die Reflexionsintensität eines Geländes beschreiben, von dem LIDAR empfangen werden; und der Schritt des Detektierens ferner umfasst, dass: die Daten analysiert werden, die durch das LIDAR erzeugt werden, um eine Schwankung der Reflexionsintensität des Geländes zu detektieren, die Spurmarkierungen auf der basierten Straße entspricht; und eine Spurposition auf der Grundlage der Spurmarkierungen ermittelt wird, wobei das Fahrzeug ferner insbesondere einen Temperatursensor zum Ermitteln einer Außentemperatur umfasst und wobei der Schritt des Detektierens ferner umfasst, dass: Abweichungen der Reflexionsintensität der Straße, die Reifenspuren entsprechen, an der Spurposition identifiziert werden; ermittelt wird, ob die Außentemperatur geringer als ein vorbestimmter Temperaturschwellenwert ist, der eisige Straßenzustände unterstützt; ermittelt wird, dass Eis auf der Straße vorhanden ist, wenn Reifenspuren an der Spurposition vorhanden sind und die Außentemperatur geringer als der vorbestimmte Temperaturschwellenwert ist; und ermittelt wird, dass Wasser auf der Straße vorhanden ist, wenn Reifenspuren an der Spurposition vorhanden sind und die Außentemperatur nicht geringer als der vorbestimmte Temperaturschwellenwert ist.
  10. Geländedetektionssystem zur Verwendung in einem Fahrzeug, umfassend: mehrere verschiedene Geländesensoren, die ausgestaltet sind, um Daten zu erzeugen, die die Topographie und die Reflexionsintensität eines Geländes beschreiben, das das Fahrzeug umgibt; einen Prozessor, der mit den mehreren verschiedenen Geländesensoren gekoppelt ist und ausgestaltet ist, um: mindestens ein Attribut des Geländes auf der Grundlage der Daten zu detektieren, die durch die mehreren verschiedenen Geländesensoren erzeugt werden; und ein Fahrverhalten des Fahrzeugs auf der Grundlage des mindestens einen Attributs des Geländes anzupassen.
DE102010035235.7A 2009-09-09 2010-08-24 Fahrzeuggeländedetektionssystem und-verfahren Active DE102010035235B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/556,396 US8306672B2 (en) 2009-09-09 2009-09-09 Vehicular terrain detection system and method
US12/556,396 2009-09-09

Publications (2)

Publication Number Publication Date
DE102010035235A1 true DE102010035235A1 (de) 2011-04-21
DE102010035235B4 DE102010035235B4 (de) 2017-05-11

Family

ID=43648361

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010035235.7A Active DE102010035235B4 (de) 2009-09-09 2010-08-24 Fahrzeuggeländedetektionssystem und-verfahren

Country Status (2)

Country Link
US (1) US8306672B2 (de)
DE (1) DE102010035235B4 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012201896A1 (de) * 2012-02-09 2013-08-14 Robert Bosch Gmbh Fahrerassistenzverfahren und Fahrerassistenzsystem für verschneite Straßen
DE102013201941A1 (de) * 2013-02-06 2014-08-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Ermitteln eines Fahrbahnverlaufs
WO2015185198A1 (de) * 2014-06-07 2015-12-10 Audi Ag Verfahren zum proaktiven regeln von fahrwerkskomponenten
DE102015120534A1 (de) 2015-11-26 2017-06-01 Valeo Schalter Und Sensoren Gmbh Anordnung wenigstens eines optischen Empfängers einer Sende- und Empfangseinrichtung einer nach einem Lichtimpulslaufzeitverfahren arbeitenden optischen Messvorrichtung
DE102017122432A1 (de) * 2017-09-27 2019-03-28 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erfassen einer Fahrbahnbeschaffenheit einer Fahrbahn für ein Kraftfahrzeug, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018127712A1 (de) * 2018-11-07 2020-05-07 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erkennen zumindest einer Reifenspur für ein Kraftfahrzeug mittels eines optoelektronischen Sensors, optoelektronischer Sensor sowie Kraftfahrzeug
DE102018222763A1 (de) 2018-12-21 2020-06-25 Continental Automotive Gmbh Verfahren zur Bereitstellung eines Oberflächenprofils durch ein Erfassungsfahrzeug sowie Erfassungsfahrzeug, Empfängerfahrzeug und Analyseeinrichtung
DE102015121270B4 (de) 2014-12-22 2022-02-03 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Ermitteln eines Oberflächenzustands einer Fahrstraße
DE102020209569A1 (de) 2020-07-29 2022-02-03 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8494687B2 (en) * 2010-03-12 2013-07-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method for enhancing a three dimensional image from a plurality of frames of flash LIDAR data
US8855911B2 (en) 2010-12-09 2014-10-07 Honeywell International Inc. Systems and methods for navigation using cross correlation on evidence grids
US20120224060A1 (en) * 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display
KR101245101B1 (ko) * 2011-06-08 2013-03-25 주식회사 만도 순항 제어 장치 및 그 제어 방법
US20130006482A1 (en) * 2011-06-30 2013-01-03 Ramadev Burigsay Hukkeri Guidance system for a mobile machine
EP2543964B1 (de) * 2011-07-06 2015-09-02 Harman Becker Automotive Systems GmbH Straßenbelag eines dreidimensionalen Orientierungspunkts
US9264673B2 (en) * 2011-11-20 2016-02-16 Magna Electronics, Inc. Vehicle vision system with enhanced functionality
US8818722B2 (en) 2011-11-22 2014-08-26 Honeywell International Inc. Rapid lidar image correlation for ground navigation
GB2499461B (en) * 2012-02-20 2014-08-13 Jaguar Land Rover Ltd Improvements in vehicle cruise control
US9157743B2 (en) 2012-07-18 2015-10-13 Honeywell International Inc. Systems and methods for correlating reduced evidence grids
JP6402104B2 (ja) * 2012-08-16 2018-10-10 ジャガー・ランド・ローバー・リミテッドJaguar Land Rover Limited 車両速度を制御するためのシステム及び方法
US9499172B2 (en) * 2012-09-20 2016-11-22 Google Inc. Detecting road weather conditions
US9110196B2 (en) 2012-09-20 2015-08-18 Google, Inc. Detecting road weather conditions
US9322909B2 (en) 2012-12-13 2016-04-26 Continental Automotive Systems, Inc. Negative obstacle detection with stereo camera and long range radar
US10524699B2 (en) 2012-12-26 2020-01-07 Rochester Institute Of Technology Method and system for monitoring terrain and gait and predicting upcoming terrain
US8788146B1 (en) 2013-01-08 2014-07-22 Ford Global Technologies, Llc Adaptive active suspension system with road preview
DE102013200385A1 (de) * 2013-01-14 2014-07-17 Robert Bosch Gmbh Verfahren und Vorrichtung zur Unterstützung eines Fahrers eines Fahrzeugs bei einer Fahrt auf unebenem Gelände
US20140257686A1 (en) 2013-03-05 2014-09-11 GM Global Technology Operations LLC Vehicle lane determination
US9110169B2 (en) * 2013-03-08 2015-08-18 Advanced Scientific Concepts, Inc. LADAR enabled impact mitigation system
KR20190125517A (ko) * 2013-04-11 2019-11-06 웨이모 엘엘씨 차량 온보드 센서들을 사용하여 날씨 상태들을 검출하는 방법들 및 시스템들
US8983705B2 (en) 2013-04-30 2015-03-17 Google Inc. Methods and systems for detecting weather conditions including fog using vehicle onboard sensors
US9632210B2 (en) 2013-05-07 2017-04-25 Google Inc. Methods and systems for detecting weather conditions using vehicle onboard sensors
US9025140B2 (en) * 2013-05-07 2015-05-05 Google Inc. Methods and systems for detecting weather conditions including sunlight using vehicle onboard sensors
US9207323B2 (en) * 2013-04-11 2015-12-08 Google Inc. Methods and systems for detecting weather conditions including wet surfaces using vehicle onboard sensors
US10247854B2 (en) 2013-05-07 2019-04-02 Waymo Llc Methods and systems for detecting weather conditions using vehicle onboard sensors
KR101519199B1 (ko) * 2013-05-09 2015-05-11 현대자동차주식회사 도로의 노면 상태 감지시스템 및 방법
DE102014213663B4 (de) 2013-07-15 2024-04-11 Magna Powertrain Of America, Inc. Traktionssteuersystem für Vierrad-/Allradantrieb-Fahrzeuge mit Bordkamera
GB2516497A (en) * 2013-07-25 2015-01-28 Jaguar Land Rover Ltd Vehicle speed control system and method
US9421979B2 (en) 2013-10-17 2016-08-23 Ford Global Technologies, Llc Road characteristic prediction
US9090264B1 (en) * 2014-06-12 2015-07-28 GM Global Technology Operations LLC Vision-based wet road surface detection
KR101618551B1 (ko) * 2014-07-02 2016-05-09 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
EP3045936A1 (de) * 2015-01-13 2016-07-20 XenomatiX BVBA Umgebungsabtastsystem mit telezentrischer Optik
EP3045935A1 (de) * 2015-01-13 2016-07-20 XenomatiX BVBA Umgebendes Erfassungssystem mit Dome-Filteranordnung
US9616773B2 (en) 2015-05-11 2017-04-11 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service
US10946855B2 (en) * 2015-06-26 2021-03-16 C.R.F. Società Consortile Per Azioni Method for reducing noise in a driveline of a motor vehicle
WO2017053407A1 (en) 2015-09-24 2017-03-30 Quovard Management Llc Systems and methods for localization using surface imaging
WO2017053415A1 (en) * 2015-09-24 2017-03-30 Quovard Management Llc Systems and methods for surface monitoring
US20170168495A1 (en) * 2015-12-10 2017-06-15 Uber Technologies, Inc. Active light sensors for determining expected traction value of a road segment
US10712160B2 (en) 2015-12-10 2020-07-14 Uatc, Llc Vehicle traction map for autonomous vehicles
US9840256B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9841763B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9946259B2 (en) * 2015-12-18 2018-04-17 Raytheon Company Negative obstacle detector
KR102373926B1 (ko) 2016-02-05 2022-03-14 삼성전자주식회사 이동체 및 이동체의 위치 인식 방법
US9990548B2 (en) 2016-03-09 2018-06-05 Uber Technologies, Inc. Traffic signal analysis system
US10359779B2 (en) 2016-03-22 2019-07-23 Aurora Flight Sciences Corporation Aircrew automation system and method
GB2549108B (en) * 2016-04-05 2020-01-01 Jaguar Land Rover Ltd Improvements in vehicle speed control
SE539816C2 (en) 2016-04-19 2017-12-05 Scania Cv Ab Method and control unit in a vehicle for estimating a stretch of a road based on a set of tracks of another vehicle
US10459087B2 (en) 2016-04-26 2019-10-29 Uber Technologies, Inc. Road registration differential GPS
US9672446B1 (en) 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
US10852744B2 (en) 2016-07-01 2020-12-01 Uatc, Llc Detecting deviations in driving behavior for autonomous vehicles
GB2552027B (en) 2016-07-08 2019-02-20 Jaguar Land Rover Ltd A vehicle system for determining terrain type
US10442439B1 (en) 2016-08-18 2019-10-15 Apple Inc. System and method for road friction coefficient estimation
US10183677B2 (en) * 2016-09-20 2019-01-22 Ford Global Technologies, Llc Ice and snow detection systems and methods
US10408937B2 (en) * 2016-09-20 2019-09-10 Ford Global Technologies, Llc Metal bridge detection systems and methods
JP6874319B2 (ja) * 2016-10-12 2021-05-19 日産自動車株式会社 走路境界監視方法及び走路境界監視装置
EP3315997A1 (de) * 2016-10-25 2018-05-02 Openworks Engineering Ltd. Erfassung und/oder verfolgung eines entfernten objekts
GB2555779B (en) 2016-10-25 2020-06-03 Openworks Eng Ltd Acquisition and/or tracking of remote object
US10460053B2 (en) * 2017-04-24 2019-10-29 Toyota Research Institute, Inc. Systems and methods for surface property identification using waveform classification
US10816970B2 (en) 2017-06-15 2020-10-27 Aurora Flight Sciences Corporation System and method for performing an emergency descent and landing
US10453351B2 (en) 2017-07-17 2019-10-22 Aurora Flight Sciences Corporation System and method for detecting obstacles in aerial systems
US10509415B2 (en) 2017-07-27 2019-12-17 Aurora Flight Sciences Corporation Aircrew automation system and method with integrated imaging and force sensing modalities
US20190124819A1 (en) 2017-10-31 2019-05-02 Agjunction Llc Vehicle implement control
US10435020B2 (en) 2017-12-01 2019-10-08 Robert Bosch Gmbh Lane keeping support on roads covered by snow
US10875662B2 (en) 2018-04-19 2020-12-29 Aurora Flight Sciences Corporation Method of robot manipulation in a vibration environment
US10850397B2 (en) 2018-04-19 2020-12-01 Aurora Flight Sciences Corporation System and method for providing in-cockpit actuation of aircraft controls
US11399137B2 (en) 2018-08-10 2022-07-26 Aurora Flight Sciences Corporation Object-tracking system
CN109359565A (zh) * 2018-09-29 2019-02-19 广东工业大学 一种道路减速带检测方法及系统
US11037453B2 (en) 2018-10-12 2021-06-15 Aurora Flight Sciences Corporation Adaptive sense and avoid system
US11151810B2 (en) 2018-10-12 2021-10-19 Aurora Flight Sciences Corporation Adaptable vehicle monitoring system
DE102018127342B4 (de) * 2018-11-01 2022-09-29 Mercedes-Benz Group AG Verfahren und Vorrichtung zum Betrieb eines Assistenzsystems eines Fahrzeuges
US10843694B2 (en) * 2018-11-19 2020-11-24 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicle height detection and environmental warning system
US10933807B2 (en) 2018-11-28 2021-03-02 International Business Machines Corporation Visual hazard avoidance through an on-road projection system for vehicles
US11432452B2 (en) * 2019-01-28 2022-09-06 Deere & Company Vehicle sink alert system and method
JP7083768B2 (ja) * 2019-03-13 2022-06-13 本田技研工業株式会社 認識装置、車両制御装置、認識方法、およびプログラム
US11454510B1 (en) 2019-03-18 2022-09-27 United Services Automobile Association (Usaa) Monitoring of data to predict road conditions
US10650589B1 (en) * 2019-04-03 2020-05-12 Here Global B.V. Generating surface approximations using curvature integrals for surface visualization rendering
US11021159B2 (en) * 2019-07-10 2021-06-01 Ford Global Technologies, Llc Road surface condition detection
US11126891B2 (en) 2019-09-11 2021-09-21 Toyota Research Institute, Inc. Systems and methods for simulating sensor data using a generative model
US11727169B2 (en) 2019-09-11 2023-08-15 Toyota Research Institute, Inc. Systems and methods for inferring simulated data
US20210331663A1 (en) * 2020-04-26 2021-10-28 Potential Motors Inc. Electric vehicle control system
WO2021243576A1 (en) * 2020-06-02 2021-12-09 Huawei Technologies Co., Ltd. Apparatus, system and method for detecting speed bumps and potholes on a road
US11816992B2 (en) 2020-07-22 2023-11-14 Waymo Llc Real time fleet management for autonomous vehicles using puddle mapping
WO2022086487A1 (en) * 2020-10-19 2022-04-28 Ford Global Technologies, Llc Suspension system with electronic pitch stability control
US20240161517A1 (en) * 2021-03-31 2024-05-16 Agency For Science, Technology And Research Detection method and system for a mobile object

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3045401B2 (ja) * 1996-05-08 2000-05-29 ダイムラークライスラー・アクチエンゲゼルシヤフト 自動車の前方車道状況を確認する方法
US6807473B1 (en) * 2003-04-09 2004-10-19 Continental Teves, Inc. Road recognition system
JP4389567B2 (ja) * 2003-12-03 2009-12-24 日産自動車株式会社 車線逸脱防止装置
US7272474B1 (en) * 2004-03-31 2007-09-18 Carnegie Mellon University Method and system for estimating navigability of terrain
JP2006151125A (ja) * 2004-11-26 2006-06-15 Omron Corp 車載用画像処理装置
JP4687563B2 (ja) * 2006-05-23 2011-05-25 株式会社デンソー 車両用レーンマーク認識装置
DE102006028014A1 (de) * 2006-06-19 2007-12-20 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren zu dessen Steuerung
DE102007039617B4 (de) * 2007-08-22 2013-05-29 Continental Automotive Gmbh Automatische Spiegeleinstellung in einem Fahrzeug
US8436902B2 (en) * 2007-08-30 2013-05-07 Valeo Schalter And Sensoren Gmbh Method and system for weather condition detection with image-based road characterization

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012201896A1 (de) * 2012-02-09 2013-08-14 Robert Bosch Gmbh Fahrerassistenzverfahren und Fahrerassistenzsystem für verschneite Straßen
DE102013201941A1 (de) * 2013-02-06 2014-08-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Ermitteln eines Fahrbahnverlaufs
WO2015185198A1 (de) * 2014-06-07 2015-12-10 Audi Ag Verfahren zum proaktiven regeln von fahrwerkskomponenten
US9770959B2 (en) 2014-06-07 2017-09-26 Audi Ag Method for proactive controlling of chassis components
DE102015121270B4 (de) 2014-12-22 2022-02-03 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Ermitteln eines Oberflächenzustands einer Fahrstraße
DE102015120534A1 (de) 2015-11-26 2017-06-01 Valeo Schalter Und Sensoren Gmbh Anordnung wenigstens eines optischen Empfängers einer Sende- und Empfangseinrichtung einer nach einem Lichtimpulslaufzeitverfahren arbeitenden optischen Messvorrichtung
DE102017122432A1 (de) * 2017-09-27 2019-03-28 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erfassen einer Fahrbahnbeschaffenheit einer Fahrbahn für ein Kraftfahrzeug, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018127712A1 (de) * 2018-11-07 2020-05-07 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erkennen zumindest einer Reifenspur für ein Kraftfahrzeug mittels eines optoelektronischen Sensors, optoelektronischer Sensor sowie Kraftfahrzeug
DE102018222763A1 (de) 2018-12-21 2020-06-25 Continental Automotive Gmbh Verfahren zur Bereitstellung eines Oberflächenprofils durch ein Erfassungsfahrzeug sowie Erfassungsfahrzeug, Empfängerfahrzeug und Analyseeinrichtung
DE102020209569A1 (de) 2020-07-29 2022-02-03 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs

Also Published As

Publication number Publication date
US20110060478A1 (en) 2011-03-10
DE102010035235B4 (de) 2017-05-11
US8306672B2 (en) 2012-11-06

Similar Documents

Publication Publication Date Title
DE102010035235B4 (de) Fahrzeuggeländedetektionssystem und-verfahren
DE102018120845B4 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
CN110395258B (zh) 路面状态推断装置以及路面状态推断方法
DE102017128619B4 (de) Fahrzeugsteuersystem, damit ausgerüstetes Fahrzeug sowie Verfahren zum Steuern mindestens einer Funktion eines Fahrzeugs
EP2936389B1 (de) Verfahren und vorrichtung zum prädikativen ermitteln eines parameterwertes einer von einem fahrzeug befahrbaren oberfläche
DE102019104845A1 (de) Proaktive fahrzeugwartungsplanung basierend auf digitalzwillingssimulationen
DE102019131384A1 (de) Strassenbelagcharakterisierung unter verwendung von posenbeobachtungen von benachbarten fahrzeugen
DE102018115813A1 (de) Verfahren und systeme zum lokalisieren eines fahrzeugs
EP3867118A1 (de) Lidar-basierte anhängerverfolgung
DE102017105897B4 (de) Fahrzeug und Verfahren zum Steuern davon
DE102019201776A1 (de) Fahrzeugsteuerungssystem und steuerverfahren
DE102018120336A1 (de) Kommunikation von infrastrukturinformationen an ein fahrzeug über bodendurchdringungsradar
DE102012212740A1 (de) System und Verfahren zum Aktualisieren einer digitalen Karte eines Fahrerassistenzsystems
DE102012215173A1 (de) Verfahren zum Betreiben eines Fahrzeugsicherheitssystems
DE102011056671A1 (de) Bestimmung eines Höhenprofils einer Fahrzeugumgebung mittels einer 3D-Kamera
DE102018117916A1 (de) Wegplanung für das autonome Fahren
DE102021101426A1 (de) Erkennung von fahrzeugbetriebsbedingungen
DE112021003371T5 (de) Fahrzeugpositionsschätzvorrichtung und Fahrpositionsschätzverfahren
DE102020105657A1 (de) Verfahren und Systeme für die Kartierung und Lokalisierung eines Fahrzeuges
DE102019115646A1 (de) System und verfahren zum modellieren von lenkeigenschaften
DE102022120968A1 (de) Vernetzte fahrzeuggestützte ermittlung der strassenoberflächenqualität
CN114074682A (zh) 处理自返回的方法和车辆
DE102022109164A1 (de) Verbessserter fahrzeugbetrieb
DE102022100549A1 (de) Mit einem rang versehene fehlerzustände
DE102019112446A1 (de) Entkommen durch ein Fahrzeug

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC , ( N. D. , US

R081 Change of applicant/patentee

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GES, US

Free format text: FORMER OWNER: GM GLOBAL TECHNOLOGY OPERATIONS, INC., DETROIT, MICH., US

Effective date: 20110323

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final