DE102010035235A1 - Fahrzeuggeländedetektionssystem und-verfahren - Google Patents
Fahrzeuggeländedetektionssystem und-verfahren Download PDFInfo
- Publication number
- DE102010035235A1 DE102010035235A1 DE102010035235A DE102010035235A DE102010035235A1 DE 102010035235 A1 DE102010035235 A1 DE 102010035235A1 DE 102010035235 A DE102010035235 A DE 102010035235A DE 102010035235 A DE102010035235 A DE 102010035235A DE 102010035235 A1 DE102010035235 A1 DE 102010035235A1
- Authority
- DE
- Germany
- Prior art keywords
- terrain
- road
- processor
- lidar
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Es werden Verfahren und ein System zum Detektieren von Attributen eines Geländes bereitgestellt, das ein Fahrzeug umgibt. Das System umfasst mindestens einen Geländesensor, der ausgestaltet ist, um Daten zu erzeugen, die das Gelände beschreiben, und einen Prozessor, der mit dem mindestens einen Geländesensor gekoppelt ist. Der Prozessor ist ausgestaltet, um mindestens ein Attribut des Geländes auf der Grundlage von Daten zu detektieren, die durch den mindestens einen Geländesensor erzeugt werden, und ein Fahrverhalten des Fahrzeugs auf der Grundlage des mindestens einen Geländeattributs anzupassen.
Description
- TECHNISCHES GEBIET
- Die vorliegende Erfindung bezieht sich allgemein auf Fahrzeugerfassungssysteme und bezieht sich insbesondere auf ein Fahrzeuggeländedetektionssystem und -verfahren.
- HINTERGRUND DER ERFINDUNG
- Fahrzeuge sind immer häufiger mit Sensoren ausgestattet, die Daten erzeugen, die die umliegende Umgebung und das umliegende Gelände beschreiben. Beispielsweise umfassen einige Fahrzeug Kamerasysteme, die Bilder des Geländes und/oder anderer Objekte in der Nähe des Fahrzeugs bereitstellen. Ferner wurden Kraftfahrzeugsensoren einer aktiven Sicherheit, wie beispielsweise Radare, verwendet, um das Vorhandensein, die Reflexionsintensität und die Positionen von Objekten auf dem Fahrzeugpfad zu detektieren. Die durch diese Sensoren erzeugten Daten können durch verschiedene Fahrzeugsysteme verwendet werden, um eine Fahrzeugsteuerung, eine Kollisionsvermeidung, eine adaptive Geschwindigkeitsregelung, eine Kollisionsverminderung und andere Merkmale einer aktiven Sicherheit bereitzustellen.
- Das Leistungsvermögen vieler Sensoren wird jedoch durch bestimmte Straßen-, Wetter- und andere Umgebungsbedingungen nachteilig beeinflusst. Beispielsweise kann das Leistungsvermögen eines Fahrzeugkamerasystems durch Bedingungen erheblich verschlechtert werden, die die Sichtweite nach außen beeinträchtigen, beispielsweise plötzliche Beleuchtungsänderungen (z. B. Tunnelübergänge) oder raues Wetter (z. B. Nebel, Regen, Schnee etc.). Ferner kann das Leistungsvermögen von Kraftfahrzeugradaren durch Schmutz auf der Straße, raues Wetter und eine andere Signalbeeinträchtigung, die zu einer Fehlklassifizierung eines Radarziels oder ungenauen Positionsbestimmungen führen, verschlechtert werden.
- Dementsprechend ist es erwünscht, ein System bereitzustellen, das das umliegende Gelände bei variierenden Straßen-, Wetter- und anderen Umgebungsbedingungen detektieren kann. Ferner werden andere erwünschte Merkmale und Eigenschaften der vorliegenden Erfindung aus der nachfolgenden detaillierten Beschreibung und den beigefügten Ansprüchen zusammen mit den begleitenden Zeichnungen und dem vorstehenden technischen Gebiet und Hintergrund ersichtlich.
- ZUSAMMENFASSUNG DER ERFINDUNG
- Bei einer Ausführungsform wird ein System zum Detektieren von Attributen eines Geländes, das ein Fahrzeug umgibt, bereitgestellt. Das System umfasst mindestens ein Gelände, das ausgestaltet ist, um Daten zu erzeugen, die das Gelände beschreiben, und einen Prozessor, der mit dem mindestens einen Geländesensor gekoppelt ist. Der Prozessor ist ausgestaltet, um mindestens ein Attribut des Geländes auf der Grundlage von Daten zu detektieren, die durch den mindestens einen Sensor erzeugt werden, und um ein Fahrverhalten des Fahrzeugs auf der Grundlage des mindestens einen Geländeattributs anzupassen.
- Es wird ein Verfahren zum Detektieren von Attributen eines Geländes bereitgestellt, das ein Fahrzeug umgibt, wobei das Fahrzeug mehrere Geländesensoren aufweist. Das Verfahren umfasst, dass Daten, die die Topographie eines Geländes beschreiben, von den mehreren Geländesensoren empfangen werden, die Attribute des Geländes auf der Grundlage der empfangenen Daten detektiert werden und ein Fahrverhalten [engl.: ”handing behavior”] des Fahrzeugs auf der Grundlage der Attribute des Geländes angepasst wird.
- BESCHREIBUNG DER ZEICHNUNGEN
- Die vorliegende Erfindung wird hierin nachfolgend in Verbindung mit den folgenden Zeichnungsfiguren beschrieben, in denen gleiche Bezugszeichen gleiche Elemente beschreiben und
-
1 ein Blockdiagramm eines beispielhaften Fahrzeugs gemäß einer Ausführungsform ist; -
2 LIDAR-Daten zeigt, die durch ein oder mehrere abtastende LIDAR(e) erzeugt werden; -
3 LIDAR-Daten erzeugt, die durch ein oder mehrere Flash-LIDAR(e) erzeugt werden; -
4 ein Blockdiagramm eines beispielhaften Geländedetektionssystems zur Verwendung in einem Fahrzeug ist; -
5 ein Flussdiagramm eines beispielhaften Verfahrens zum Ermitteln eines Straßenoberflächenkoeffizienten ist. - BESCHREIBUNG EINER BEISPIELHAFTEN AUSFÜHRUNGSFORM
- Die folgende detaillierte Beschreibung ist lediglich beispielhafter Natur und beabsichtigt nicht, die Erfindung oder die Anwendung und Verwendungen der Erfindung zu beschränken. Ferner besteht keine Absicht einer Einschränkung durch irgendeine ausgedrückte oder implizierte Theorie, die in dem vorstehenden technischen Gebiet, dem vorstehenden Hintergrund, der vorstehenden Kurzzusammenfassung oder der nachfolgenden detaillierten Beschreibung dargestellt ist. Es sei auch angemerkt, dass
1 –4 lediglich darstellend sind und möglicherweise nicht maßstabsgetreu sind. -
1 ist ein Blockdiagramm eines beispielhaften Fahrzeugs10 gemäß einer Ausführungsform. Das Fahrzeug10 umfasst ein Chassis12 , eine Karosserie14 und vier Räder16 . Die Karosserie14 ist an dem Chassis12 angeordnet und umgibt im Wesentlichen die anderen Komponenten des Fahrzeugs10 . Die Karosserie14 und das Chassis12 können gemeinsam einen Rahmen bilden. Die Räder16 sind jeweils in der Nähe einer jeweiligen Ecke der Karosserie14 rotatorisch mit dem Chassis12 gekoppelt. - Das Fahrzeug
10 kann ein beliebiges einer Anzahl von verschiedenen Typen von Fahrzeugen sein, wie beispielsweise eine Limousine, ein Kombi, ein Lastkraftwagen oder ein Geländewagen (SUV von sport utility vehicle) und kann einen Zweiradantrieb (2WD) (d. h. Hinterradantrieb oder Vorderradantrieb), einen Vierradantrieb (4WD), einen Dreiradantrieb (3WD) oder einen Allradantrieb (AWD) aufweisen. Das Fahrzeug10 kann auch einen beliebigen von, oder eine Kombination von, einer Anzahl von verschiedenen Typen von Maschinen (oder Aktoren) umfassen, wie beispielsweise eine Brennkraftmaschine für eine Kraftstoffbeaufschlagung mit Benzin oder Diesel, eine ”Flex-Fuel-Vehicle”-Maschine (FFV-Maschine) (d. h. unter Verwendung eines Gemischs aus Benzin und Alkohol), eine Maschine für eine Kraftstoffbeaufschlagung mit einer gasförmigen Zusammensetzung (z. B. Wasserstoff und/oder Erdgas), oder eine Brennstoffzelle, eine Verbrennungs-/Elektromotor-Hybridmaschine und ein Elektromotor. - Das Fahrzeug
10 umfasst ferner einen Prozessor20 , einen Speicher22 , eine Anzeigeeinrichtung24 , ein Navigationssystem26 , elektronische Steuereinheiten (ECUS von electronic control units)28 , Sensoren30 und Geländesensoren32 . wie es gezeigt ist, sind die Anzeigeeinrichtung24 , das Navigationssystem26 , die ECUs28 , die Sensoren30 und die Geländesensoren32 jeweils über eine Datenkommunikationsverbindung34 mit dem Prozessor20 gekoppelt. Bei einer Ausführungsform umfasst die Datenkommunikationsverbindung34 einen oder mehrere fahrzeugeigene Datenkommunikationsbusse, die Daten, einen Status und eine andere Information oder Signale zwischen verschiedenen Komponenten des Fahrzeugs10 übertragen. Die fahrzeugeigenen Datenkommunikationsbusse34 können ein beliebiges geeignetes physikalisches oder logisches Mittel zum Verbinden von Computersystemen und Komponenten umfassen. - Der Prozessor
20 kann einen beliebigen Typ von Prozessor oder mehrere Prozessoren, einzelne integrierte Schaltkreise, wie beispielsweise einen Mikroprozessor, oder eine beliebige geeignete Anzahl von Einrichtungen eines integrierten Schaltkreises und/oder Platinen umfassen, die in Kooperation arbeiten, um die Funktionen einer Verarbeitungseinheit auszuführen. Während des Betriebs führt der Prozessor20 eine oder mehrere Anweisungen aus, die vorzugsweise in dem Speicher22 gespeichert sind. - Der Speicher
22 kann jeder Typ von geeignetem Speicher sein, der verschiedene Typen von dynamischem Direktzugriffsspeicher (DRAM von dynamic random access memory), wie beispielsweise SDRAM, verschiedene Typen von statischem RAM (SRAM von static RAM) und verschiedene Typen von nichtflüchtigem Speicher (PROM, EPROM und Flash) umfasst. Es ist zu verstehen, dass der Speicher22 ein einzelner Typ von Speicherkomponente sein kann oder aus vielen verschiedenen Typen von Speicherkomponenten bestehen kann. Wie oben erwähnt speichert der Speicher22 Anweisungen zum Ausführen eines oder mehrerer Verfahren, die Ausführungsformen der Verfahren zum Ermitteln, wann ein Task an einem Fahrzeug ausgeführt werden kann, wie nachstehend beschrieben, umfassen. Ferner kann der Speicher22 ausgestaltet sein, um verschiedene andere Daten wie nachstehend weiter beschrieben zu speichern. - Die Anzeigeeinrichtung
24 gibt in einem Anzeigebereich verschiedene Bilder (in Textform, graphisch oder symbolisch) aus. Bei einer Ausführungsform umfasst die Anzeigeeinrichtung24 eine Touch-Screen-Anzeige zum Ausgeben einer Benutzerschnittstelle und von anderem Inhalt in Ansprechen auf Befehle, die von dem Prozessor20 empfangen werden. Die Anzeigeeinrichtung24 kann jedoch unter Verwendung von anderen Anzeigetypen realisiert sein, wie beispielsweise einer Flüssigkristallanzeige (LCD von liquid crystal display), einer Dünnfilmtransistoranzeige (TFT-Anzeige von thin film transistor display), einer Plasmaanzeige oder einer Leuchtdiodenanzeige (LED-Anzeige von light emitting diode display). - Das Navigationssystem
26 erzeugt Daten, die die aktuelle Position des Fahrzeugs10 beschreiben. Bei einer Ausführungsform umfasst das Navigationssystem26 ein globales Positionsbestimmungssystem (GPS von global positioning system) und/oder eine oder mehrere Inertialmesseinheiten (IMUs von inertial measurement units) zum Ermitteln der aktuellen Koordinaten des Fahrzeugs10 auf der Grundlage von empfangenen GPS-Signalen und/oder Koppelnavigationstechniken. Die aktuellen Koordinaten des Fahrzeugs10 können verwendet werden, um den aktuellen Ort des Fahrzeugs10 an einer Karte zu identifizieren, die in einer Kartendatenbank gespeichert ist. - Die ECU(s)
28 umfassen eine oder mehrere Kraftfahrzeugsteuereinheiten zum Steuern der verschiedenen Systeme des Fahrzeugs10 , wie beispielsweise eine Stabilitätssteuereinheit, eine Maschinensteuereinheit, eine Lenksteuereinheit und eine Bremssteuereinheit, um einige zu nennen. Jede ECU28 umfasst einen oder mehrere Controller, Aktoren, Sensoren und/oder andere Komponenten, die den Betrieb, das Fahrverhalten und andere Eigenschaften des Fahrzeugs10 steuern. Der Sensor/die Sensoren30 detektiert/detektieren verschiedene Attribute der Umgebung, die um das Fahrzeug10 liegt. Bei einer Ausführungsform umfassen die Sensoren30 einen Temperatursensor, der ausgestaltet ist, um die Außentemperatur zu ermitteln, und einen Regendetektor, der ausgestaltet ist, um den angesammelten Regen an dem Fahrzeug10 zu detektieren. Es sei angemerkt, dass alternative Ausführungsformen auch andere Typen von Sensoren umfassen können. - Die Geländesensoren
32 erzeugen Daten, die das Gelände und andere Objekte innerhalb mindestens eines Abschnitts des Bereichs beschreiben, der das Fahrzeug10 umgibt (hierin nachfolgend der ”Zielbereich”). Bei den hierin beschriebenen Ausführungsformen umfasst der Zielbereich einen Abschnitt des Bereichs vor dem Fahrzeug10 . Es sei jedoch angemerkt, dass der Zielbereich alle oder andere Abschnitte des Bereichs, der das Fahrzeug10 umgibt, umfassen kann. Bei einer Ausführungsform umfassen die Geländesensoren32 mehrere verschiedene Geländeerfassungseinrichtungen, wie beispielsweise ein(e) oder mehrere Light Detection and Ranging-Einrichtungen40 (hierin nachfolgend ”LIDAR(e)”), Kamera(s)42 und Radar(e)44 . Es sei angemerkt, dass auch andere Geländedetektionseinrichtungen (z. B. Ultraschalle) verwendet werden können. - Die Kamera(s)
42 erzeugt/erzeugen Bilder des Zielbereichs, die Bilder einer Straße, von aufgemalten Straßenmarkierungen (z. B. Spurmarkierungen), anderen Fahrzeugen und anderen Objekten innerhalb des Zielbereichs umfassen. Bei einer Ausführungsform umfasst/umfassen die Kamera(s)42 Stereokameras, die Bilder erzeugen, die die Höhe/Elevation und Krümmung der Oberfläche des Zielbereichs zeigen. Das Radar/die Radare44 verwendet/verwenden Funkwellen, um das Vorhandensein und die Position von Objekten innerhalb des Zielbereichs zu erfassen. - Das/die LIDAR(e)
40 überträgt/übertragen Licht (z. B. ultraviolett, sichtbar und infrarot) an dem Zielbereich, und ein Teil dieses Lichts wird durch die Oberfläche oder andere Objekte in dem Zielbereich reflektiert/rückgestreut. Dieses reflektierte Licht wird empfangen und analysiert, um verschiedene Attribute der Oberfläche des Zielbereichs zu ermitteln. Beispielsweise kann das/können die LIDAR(e)40 die Entfernung/Position der Oberfläche oder anderer Objekte innerhalb des Zielbereichs auf der Grundlage der Zeit ermitteln, die erforderlich ist, um das übertragene Licht zurück zu reflektieren. Ferner kann das/können die LIDAR(e)40 den Oberflächentyp und/oder andere Eigenschaften der Oberfläche auf der Grundlage der Intensität des reflektierten Lichts detektieren. - Nun auf
2 Bezug nehmend umfasst/umfassen bei einer Ausführungsform das/die LIDAR(e)40 (1 ) ein oder mehrere Abtast-LIDAR(e), das/die Daten (hierin nachfolgend ”LIDAR-Daten”)50 erzeugt/erzeugen, die die Topographie und die Reflexionseigenschaften (oder Reflexionsintensität) der Oberfläche des Zielbereichs beschreiben. Wie es gezeigt ist, umfassen die LIDAR-Daten50 mehrere konzentrische Abtastlinien60 ,61 ,62 ,63 ,64 ,65 ,66 , die sich über der Oberfläche des Zielbereichs erstrecken. Jede Abtastlinie entspricht einem anderen Abtastwinkel des Abtast-LIDARs/der Abtast-LIDARe40 und beschreibt die Topographie und Reflexionsintensität der entsprechenden Positionen an der Oberfläche des Zielbereichs. Mulden, Stufen und andere Krümmungen an den Abtastlinien60 –66 identifizieren Änderungen der Elevationen der entsprechenden Positionen an der Oberfläche des Zielbereichs. Ferner kann die Reflexionsintensität der Oberfläche des Zielbereichs durch die Farbe oder Dicke der Abtastlinien60 –66 oder durch ein beliebiges anderes geeignetes Verfahren dargestellt werden. Dementsprechend stellen die LIDAR-Daten50 eine Momentaufnahme der Oberfläche des Zielbereichs dar. - In Bezug auf
1 und2 ermittelt der Prozessor20 die Form/Geometrie der Oberfläche des Zielbereichs auf der Grundlage von zumindest teilweise den LIDAR-Daten50 . Bei einer Ausführungsform identifiziert der Prozessor20 im Wesentlichen glatte/flache Segmente an den Abtastlinien60 –66 , die der Position einer Straße70 oder einer anderen flachen Oberfläche in dem Zielbereich entsprechen. Der Prozessor20 analysiert dann diese im Wesentlichen glatten/flachen Segmente der Abtastlinien60 –66 , um die Form und Krümmung der detektierten Straße70 zu detektieren. Der Prozessor20 kann eine Kurvenanpassungstechnik und/oder andere geeignete Techniken zum Detektieren der Straße70 und Ermitteln ihrer Form/Geometrie und Krümmung verwenden. Ferner kann der Prozessor20 Schätzwerte der probabilistischen Dauer und Größe einsetzen, um die Straße70 von anderen im Wesentlichen glatten/flachen Bereichen an der Oberfläche des Zielbereichs zu unterscheiden. - Ferner identifiziert der Prozessor
20 Stufen und/oder Kurven an den Abtastlinien60 –66 , die Positionen eines Straßenrands72 entsprechen. Beispielsweise kann eine konsistente Stufe an den Abtastlinien60 –66 (oder ein wesentlicher Abschnitt der Abtastlinien60 –66 ), die an dem Rand einer detektierten Straße positioniert ist, das Vorhandensein eines kantigen Bordsteins72 angeben. Alternativ kann eine glattere Kurve an den Abtastlinien60 –66 (oder ein wesentlicher Abschnitt der Abtastlinien60 –66 ), die am Rand der detektierten Straße positioniert ist, die Position eines glatteren Straßenrands oder Bordsteins angeben. - Der Prozessor
20 kann auch Hindernisse, wie beispielsweise Schlaglöcher oder andere Fahrzeuge, auf der detektierten Straße70 auf der Grundlage von Mulden oder einer anderen Krümmung an den Abtastlinien60 –66 detektieren. Beispielsweise kann der Prozessor20 Mulden, Hügel und andere Abweichungen der Abtastlinien60 –66 identifizieren, die den Positionen von Schlaglöchern74 , Rüttelschwellen und anderen Abweichungen der Elevation der detektierten Straße70 entsprechen. Ferner kann der Prozessor20 andere Hindernisse, wie beispielsweise andere Fahrzeuge, auf der Straße70 auf der Grundlage von zumindest teilweise der Krümmung der Abtastlinien60 –66 detektieren. - Ferner identifiziert der Prozessor
20 den Straßentyp, Straßenmarkierungen, Straßenzustände und andere Straßenoberflächenmerkmale auf der Grundlage von zumindest teilweise der Reflexionsintensitätsinformation in den LIDAR-Daten50 . Bei einer Ausführungsform identifiziert der Prozessor20 einen Straßenoberflächentyp (z. B. Beton, Asphalt, Pflaster, Schotter, Gras, etc.) für die detektierte Straße70 auf der Grundlage der Reflexionsintensität in den glatten/flachen Segmenten der Abtastlinien60 –66 . Ferner kann der Prozessor20 Öl, stehendes Wasser, Eis, Schnee und andere Materialien auf der detektierten Straße70 auf der Grundlage von Abweichungen innerhalb der Reflexionsintensität detektieren. Diese Information kann verwendet werden, um den Zustand (z. B. trocken, nass, eisig, ölig, etc.) der detektierten Straße70 zu ermitteln. - Ferner identifiziert der Prozessor
20 Spurmarkierungen, Zebrastreifen und andere aufgemalte Straßenmarkierungen auf der Grundlage von Abweichungen der Reflexionsintensität der detektierten Straße70 . Der Prozessor20 kann die Positionen einer oder mehrerer Spuren auf der Straße70 auf der Grundlage der Positionen dieser detektierten Spurmarkierungen ermitteln. Bei einer Ausführungsform verwendet der Prozessor20 die Reflexionsintensitätsinformation von den LIDAR-Daten50 , um Reifenspuren, die von anderen Fahrzeugen im Wasser, Schnee, Matsch oder Eis hinterlassen werden, auf der detektierten Straße70 zu identifizieren. Solche Reifenspuren werden als fehlende, gedämpfte oder variierende Reflexionsintensität innerhalb einer detektierten Spurposition dargestellt. Der Prozessor20 kann Schätzwerte einer probabilistischen Dauer und Größe einsetzen, um zwischen tatsächlichen Reifenspuren und Abweichungen der Intensitätsinformation zu unterscheiden, die auf andere Ursachen zurückzuführen sind (z. B. einzelne Sensorabtastwertfehler). Das Vorhandensein solcher Reifenspuren kann verwendet werden, um den Zustand (z. B. nass, eisig oder normal) oder die detektierte Straße70 zu ermitteln und/oder den Fahrzeugtyp (z. B. Auto, Lastwagen, Motorrad, etc.) für das Fahrzeug, das sich vor dem Fahrzeug10 befindet, zu identifizieren. - Obwohl die oben beschriebenen Ausführungsformen ein oder mehrere Abtast-LIDAR(e) zum Erzeugen der LIDAR-Daten
50 und Detektieren einer Topographie und verschiedener Attribute der Oberfläche des Zielbereichs verwenden, wird ein Fachmann erkennen, dass alternative Ausführungsformen LIDAR-Typen, wie beispielsweise ein oder mehrere Flash-LIDAR(e) verwenden können. Ein Flash-LIDAR verwendet einen einzelnen Streulichtimpuls zum Beleuchten des Zielbereichs und erzeugt eine unmittelbare Momentaufnahme der Oberfläche auf der Grundlage des reflektierten Lichts. Die Daten, die durch das/die Flash-LIDAR(e) erzeugt werden, können dann analysiert werden, um die Topographie und die Reflexionsintensität der Oberfläche des Zielbereichs zu detektieren. - Nun auf
3 Bezug nehmend, werden die Daten100 , die durch das/die Flash-LIDAR(e) erzeugt werden, bei einer Ausführungsform in mehrere konzentrische Bereichselemente102 ,103 ,104 ,105 ,106 segmentiert. Jedes Bereichselement102 –106 beschreibt die Topographie und die Reflexionsintensität der entsprechenden Positionen an der Oberfläche des Zielbereichs. Wie bei den Abtastlinien60 –66 (2 ) identifizieren Mulden, Stufen und andere Krümmungen innerhalb der Bereichselemente102 –106 ähnliche Änderungen der Elevation der entsprechenden Position an der Oberfläche des Zielbereichs. Die Reflexionsintensität der Oberfläche des Zielbereichs kann durch die Farbe oder Dicke der Bereichselemente102 –106 oder durch eine andere geeignete Technik dargestellt werden. In Bezug auf1 und3 sei angemerkt, dass der Prozessor20 die Form/Geometrie, die Krümmung, die Bordstein- und Hindernispositionen, den Oberflächentyp, den Straßenzustand, aufgemalte Straßenmarkierungen, Reifenspurpositionen und andere Attribute einer detektierten Straße unter Verwendung von Verfahren ermitteln kann, die im Wesentlichen ähnlich zu den Verfahren sind, die oben in Bezug auf die Abtastlinien60 –66 (2 ) beschrieben wurden. -
4 ist ein Blockdiagramm eines beispielhaften Geländedetektionssystems109 zur Verwendung in einem Fahrzeug. Das System109 umfasst einen Prozessor110 , Geländesensoren112 , einen Temperatursensor114 , eine Anzeigeeinrichtung116 , eine oder mehrere ECU(s)118 und ein Navigationssystem120 . Die Geländesensoren112 umfassen eine oder mehrere verschiedene Einrichtungen, die Daten erzeugen, die die Topographie des Geländes innerhalb eines Zielbereichs beschreiben, wie beispielsweise ein LIDAR/LIDARe121 , eine Kamera/Kameras122 und ein Radar/Radare124 . Der Prozessor110 detektiert verschiedene vorbestimmte Attribute (hierin nachfolgend ”Geländeattribute”) des Geländes, die eine Straßenform/-geometrie und -krümmung130 , Schlagloch-/Hindernispositionen131 , einen Straßentyp132 , Spurpositionen133 und einen Straßenoberflächenzustand134 umfassen. - Wie es oben beschrieben ist, kann der Prozessor
110 die Straßengeometrie/-krümmung130 auf der Grundlage von Daten detektieren, die durch das LIDAR121 erzeugt werden. Ferner kann der Prozessor110 Daten von dem Navigationssystem120 , der Kamera/den Kameras122 und dem Radar/den Radaren124 verwenden, um die Straßengeometrie/-krümmung130 mit erhöhter Präzision und/oder Geschwindigkeit zu detektieren. Beispielsweise kann der Prozessor110 die Bilder analysieren, die durch die Kamera(s)122 und das/die LIDAR(e)121 erzeugt werden, um aufgemalte Straßenmarkierungen (z. B. Spurmarkierungen, durchgehende Linien, gestrichelte Linien, Doppellinien etc.), Straßenschilder, Objekte (z. B. andere Fahrzeuge) und andere visuelle Hinweise des Vorhandenseins, der Form/Geometrie und der Krümmung einer Straße zu identifizieren. - Ähnlich kann der Prozessor
110 die Daten von dem/den LIDAR(en)121 , der/den Kamera(s)122 und dem/den Radar(en)124 verwenden, um die Schlagloch-/Hindernispositionen131 , einen Straßenoberflächentyp132 , Spurpositionen133 und einen Straßenoberflächenzustand134 mit erhöhter Präzision und/oder Genauigkeit zu detektieren. Oben werden Verfahren zum Detektieren von Geländeattributen131 –134 auf der Grundlage der LIDAR-Daten50 (2 ) bereitgestellt. Der Prozessor110 kann auch die Bilder der Straße, die durch die Kamera(s)122 erzeugt werden, und die Positionsdaten, die durch das/die Radar(e)124 erzeugt werden, verwenden, um den Straßentyp, Schlaglöcher und andere Hindernisse auf der Straße, Schnee oder Eis auf der Straße, sowie andere Attribute mit erhöhter [engl.: ”increase”] Präzision und/oder Geschwindigkeit zu detektieren. - Die Verwendung von verschiedenen Geländesensoren
112 (z. B. dem/den LIDAR(en)121 , der/den Kamera(s)122 und dem/den Radar(en)124 ) ermöglicht dem System109 , unter variierenden Umgebungsbedingungen genau die Geländeattribute130 –134 zu detektieren. Beispielsweise kann der Prozessor110 während rauen Wetters oder zu anderen Zeiten, wenn die Sichtweite gering ist, so dass das Leistungsvermögen der Kamera(s)122 nachteilig beeinflusst wird, die Daten verwenden, die durch das/die LIDAR(e)121 und/oder das/die Radar(e)124 erzeugt werden, um Geländeattribute130 –134 zu detektieren. Ferner kann der Prozessor110 die Daten verwenden, die durch das/die LIDAR(e)121 und/oder die Kamera(s)122 erzeugt werden, wenn eine Verschmutzung oder eine andere Signalbeeinträchtigung vorhanden ist, die das Leistungsvermögen des Radars/der Radare124 verschlechtert. - Der Prozessor
110 erzeugt Daten und Befehlssignale für die Anzeigeeinrichtung116 , die ECU(s)118 und das Navigationssystem120 auf der Grundlage von zumindest teilweise den Geländeattributen130 –134 . Bei einer Ausführungsform verwendet der Prozessor110 die Attribute130 –134 , um eine gewünschte Verfolgung/Trajektorie für das Fahrzeug zu ermitteln und/oder die Verfolgung/Trajektorie eines detektierten Fahrzeugs oder eines anderen Hindernisses vorherzusagen. Diese Verfolgungs-/Trajektoriedaten140 oder darauf basierende Befehlssignale werden dann an die ECU(s)118 übertragen, um die Aufhängung, Bremsung, Lenkung und/oder ein anderes Fahrverhalten des Fahrzeugs anzupassen. Ferner können die Verfolgungs-/Trajektoriedaten140 oder darauf basierende Befehlssignale durch das Navigationssystem120 verwendet werden, um die Position des Fahrzeugs oder irgendeines detektierten Fahrzeugs oder Hindernisses zu ermitteln. - Der Prozessor
110 kann auf der Grundlage der Attribute130 –134 auch Befehlssignale an die Anzeigeeinrichtung116 und/oder die ECU(s)118 liefern. Beispielsweise liefert der Prozessor110 bei einer Ausführungsform Befehlssignale, die bewirken, dass die Anzeigeeinrichtung116 eine Warnung anzeigt, wenn ein Schlagloch, eine Rüttelschwelle, ein anderes Fahrzeug oder ein anderes Hindernis in dem Zielbereich detektiert wird. Bei einer anderen Ausführungsform liefert der Prozessor110 Befehlssignale, die bewirken, dass das Lenksystem des Fahrzeugs auf der Grundlage des Vorhandenseins von Schlaglöchern, Matsch, Eis, Wasser, anderen Fahrzeugen oder anderen Hindernissen auf einer detektierten Straße angepasst wird. Beispielsweise kann der Prozessor110 Befehlssignale übertragen, um die Fahrzeugposition innerhalb einer detektierten Straße anzupassen, um detektierten Hindernissen auszuweichen. Der Prozessor110 kann auch Befehlssignale übertragen, um die Bremsung, Aufhängung und/oder ein anderes Fahrverhalten des Fahrzeugs auf der Grundlage eines detektierten Hindernisses anzupassen. - Bei einer Ausführungsform ermittelt der Prozessor
110 einen Straßenoberflächenkoeffizienten142 , der den Straßenoberflächenzustand auf der Grundlage des Vorhandenseins von Reifenspuren auf der detektierten Straße beschreibt.5 zeigt ein Flussdiagramm eines beispielhaften Verfahrens150 zum Ermitteln eines Straßenoberflächenkoeffizienten142 . In Bezug auf4 und5 werden während Schritt152 Spurpositionen auf einer detektierten Straße ermittelt. Wie oben beschrieben kann der Prozessor110 die Spurposition (z. B. die Spurpositionen133 ) auf der Grundlage der Daten detektieren, die von den Geländesensoren112 empfangen werden (z. B. durch Detektieren der Positionen von Spurmarkierungen und anderen Straßenmarkierungen). Alternativ kann der Prozessor110 das Vorhandensein und die Position eines anderen Fahrzeugs auf der detektierten Straße detektieren (z. B. auf der Grundlage der Daten, die durch das/die LIDAR(e)121 , die Kamera(s)122 oder das/die Radar(e)124 erzeugt werden) und dann die Spurposition auf der Grundlage der Position des detektierten Fahrzeugs schätzen. - Als Nächstes ermittelt der Prozessor
110 , ob sich Reifenspuren an der detektierten Spurposition befinden (Schritt154 ). Wie oben beschrieben kann der Prozessor110 das Vorhandensein und die Position der Reifenspuren auf der Grundlage von Abweichungen der Reflexionsintensitätsinformation, die durch das LIDAR/die LIDARe121 erzeugt wird, detektieren. Der Prozessor110 kann auch Daten verwenden, die durch die anderen Geländesensoren112 erzeugt werden, um Reifenspuren mit erhöhter Präzision und/oder Geschwindigkeit zu detektieren. Beispielsweise kann der Prozessor110 Bilder analysieren, die durch die Kamera(s)122 erzeugt werden, um die Reifenspuren an der detektierten Spurposition zu identifizieren. Wenn der Prozessor110 keine Reifenspuren detektieren kann, wird ein Wert, der normalen Straßenzuständen entspricht, dem Straßenoberflächenkoeffizienten142 zugeordnet (Schritt156 ). - Alternativ ermittelt der Prozessor
110 , wenn er während Schritt154 auf der detektierten Spur Reifenspuren identifiziert, ob die Außentemperatur Schnee-, Matsch- oder eisige Straßenzustände unterstützt (Schritt158 ). Bei einer Ausführungsform ermittelt der Prozessor110 auf der Grundlage von Daten, die von dem Temperatursensor114 empfangen werden, ob die Außentemperatur geringer als ein vorbestimmter Temperaturschwellenwert ist. In diesem Fall wird der vorbestimmte Temperaturschwellenwert kalibriert, um Frost- oder Fast-Frost-Zustände außerhalb des Fahrzeugs zu identifizieren. Wenn die Außentemperatur geringer als der vorbestimmte Temperaturschwellenwert ist, wird dem Straßenoberflächenkoeffizienten142 ein Wert zugeordnet, der Schnee- oder eisigen Straßenzuständen entspricht (Schritt160 ). Alternativ wird dem Straßenoberflächenkoeffizienten142 ein Wert zugeordnet, der nassen Straßenzuständen entspricht (Schritt162 ). Andere Sensordaten, wie beispielsweise Regensensordaten oder Scheibenwischerzustandsdaten, könnten das Vorhandensein von nassen Straßenzuständen weiter bestätigen. - Während mindestens eine beispielhafte Ausführungsform in der vorstehenden detaillierten Beschreibung dargestellt wurde, sei angemerkt, dass eine große Anzahl von Abwandlungen existiert. Es sei auch angemerkt, dass die beispielhafte Ausführungsform oder die beispielhaften Ausführungsformen lediglich Beispiele sind und nicht den Schutzumfang, die Anwendbarkeit oder Ausgestaltung der Erfindung auf irgendeine Weise einschränken sollen. Vielmehr bietet die vorstehende detaillierte Beschreibung Fachleuten einen geeigneten Plan zum Realisieren der beispielhaften Ausführungsform oder der beispielhaften Ausführungsformen. Es sei angemerkt, dass verschiedene Änderungen an der Funktion und der Anordnung von Elementen vorgenommen werden können, ohne von dem Schutzumfang der Erfindung abzuweichen, wie er in den beigefügten Ansprüchen und den rechtlichen Äquivalenten hiervon ausgeführt ist.
Claims (10)
- Geländedetektionssystem zur Verwendung in einem Fahrzeug, umfassend: mindestens einen Geländesensor, der ausgestaltet ist, um Daten zu erzeugen, die ein Gelände beschreiben, das das Fahrzeug umgibt; einen Prozessor, der mit dem mindestens einen Geländesensor gekoppelt ist und ausgestaltet ist, um: mindestens ein Attribut des Geländes auf der Grundlage der Daten zu detektieren, die durch den mindestens einen Geländesensor erzeugt werden; und ein Verhalten des Fahrzeugs auf der Grundlage des mindestens einen Geländeattributs anzupassen.
- Geländedetektionssystem nach Anspruch 1, wobei der mindestens eine Geländesensor ein LIDAR umfasst, das ausgestaltet ist, um Daten zu erzeugen, die Abweichungen der Topographie des Geländes beschreiben.
- Geländedetektionssystem nach Anspruch 2, wobei der Prozessor ferner ausgestaltet ist, um einen im Wesentlichen glatten Abschnitt des Geländes, der der Position einer Straße entspricht, basierend zumindest teilweise auf den Daten, die durch das LIDAR erzeugt werden, zu identifizieren.
- Geländedetektionssystem nach Anspruch 3, wobei der Prozessor ferner ausgestaltet ist, um Abweichungen der Höhe des Geländes, die der Position eines Straßenrands entsprechen, basierend zumindest teilweise auf den Daten, die durch das LIDAR erzeugt werden, zu identifizieren.
- Geländedetektionssystem nach Anspruch 3, wobei der Prozessor ferner ausgestaltet ist, um eine Krümmung der Straße basierend zumindest teilweise auf den Daten, die durch das LIDAR erzeugt werden, zu identifizieren, und/oder wobei der Prozessor ferner ausgestaltet ist, um Abweichungen der Höhe des Geländes, die Hindernissen auf der Straße entsprechen, basierend zumindest teilweise auf den Daten, die durch das LIDAR erzeugt werden, zu detektieren, wobei die Hindernisse vorzugsweise ein oder mehrere Schlaglöcher auf der Straße umfassen. und/oder ferner umfassend eine Anzeigeeinrichtung, die mit dem Prozessor gekoppelt ist, und wobei der Prozessor ferner ausgestaltet ist, um eine Warnung an der Anzeigeeinrichtung zu erzeugen, wenn Hindernisse auf der Straße detektiert werden, und/oder wobei das LIDAR ferner ausgestaltet ist, um Daten zu erzeugen, die eine Reflexionsintensität des Geländes beschreiben, und/oder wobei der Prozessor ferner ausgestaltet ist, um einen Straßentyp basierend auf der Reflexionsintensität des Geländes zu ermitteln, und/oder wobei der Prozessor ferner ausgestaltet ist, um: eine Abweichung der Reflexionsintensität des Geländes, die Spurmarkierungen auf der Straße entspricht, basierend zumindest teilweise auf den Daten, die durch das LIDAR erzeugt werden, zu detektieren; und eine Spurposition auf der Grundlage der Spurmarkierungen zu ermitteln, ferner insbesondere umfassend einen Temperatursensor, der mit dem Prozessor gekoppelt ist und ausgestaltet ist, um eine Außentemperatur zu ermitteln, und wobei der Prozessor ferner ausgestaltet ist, um: Abweichungen der Reflexionsintensität der Straße, die Reifenspuren entsprechen, an der Spurposition zu identifizieren; zu ermitteln, ob die Außentemperatur geringer als ein vorbestimmter Temperaturschwellenwert ist, der eisige Straßenzustände unterstützt; zu ermitteln, dass Eis auf der Straße vorhanden ist, wenn Reifenspuren an der Spurposition vorhanden sind und die Außentemperatur geringer als der vorbestimmte Temperaturschwellenwert ist; und zu ermitteln, dass Wasser auf der Straße vorhanden ist, wenn Reifenspuren an der Spurposition vorhanden sind und die Außentemperatur nicht geringer als der vorbestimmte Temperaturschwellenwert ist, und/oder wobei der Prozessor ferner ausgestaltet ist, um Wasser, Eis, Öl und andere Materialien auf der Straße basierend zumindest teilweise auf Abweichungen der Reflexionsintensität des Geländes zu detektieren.
- Geländedetektionssystem nach Anspruch 2, wobei der mindestens eine Geländesensor ferner eine Kamera umfasst, die mit dem Prozessor gekoppelt ist und ausgestaltet ist, um Bilddaten zu erzeugen, die das Gelände beschreiben, und wobei der Prozessor ferner ausgestaltet ist, um das mindestens eine Geländeattribut des Geländes auf der Grundlage der Daten zu detektieren, die durch die Kamera und das LIDAR erzeugt werden.
- Verfahren zum Detektieren von vorbestimmten Attributen eines Geländes, das ein Fahrzeug umgibt, wobei das Fahrzeug mehrere Geländesensoren aufweist und das Verfahren umfasst, dass: Daten, die die Topographie des Geländes beschreiben, von den mehreren Geländesensoren empfangen werden; die vorbestimmten Attribute auf der Grundlage der empfangenen Daten detektiert werden; und ein Verhalten des Fahrzeugs auf der Grundlage der vorbestimmten Attribute angepasst wird.
- Verfahren nach Anspruch 7, wobei die mehreren Geländesensoren ein LIDAR umfassen, das ausgestaltet ist, um Daten zu erzeugen, die Abweichungen der Topographie und der Reflexionsintensität des Geländes beschreiben, und der Schritt des Detektierens ferner umfasst, dass: die Daten analysiert werden, die durch das LIDAR erzeugt werden, um folgendes zu detektieren: im Wesentlichen glatte Abschnitte des Geländes, die [engl.: ”the”] der Geometrie einer Straße entsprechen; und Abweichungen der Höhe des Geländes, die der Position eines Straßenrands entsprechen.
- Verfahren nach Anspruch 8, wobei der Schritt des Detektierens ferner umfasst, dass die Daten analysiert werden, die durch das LIDAR erzeugt werden, um Abweichungen der Höhe des Geländes zu detektieren, die Hindernissen auf der Straße entsprechen, und/oder wobei: der Schritt des Empfangens ferner umfasst, dass Daten, die die Topographie und die Reflexionsintensität eines Geländes beschreiben, von dem LIDAR empfangen werden; und der Schritt des Detektierens ferner umfasst, dass: die Daten analysiert werden, die durch das LIDAR erzeugt werden, um eine Schwankung der Reflexionsintensität des Geländes zu detektieren, die Spurmarkierungen auf der basierten Straße entspricht; und eine Spurposition auf der Grundlage der Spurmarkierungen ermittelt wird, wobei das Fahrzeug ferner insbesondere einen Temperatursensor zum Ermitteln einer Außentemperatur umfasst und wobei der Schritt des Detektierens ferner umfasst, dass: Abweichungen der Reflexionsintensität der Straße, die Reifenspuren entsprechen, an der Spurposition identifiziert werden; ermittelt wird, ob die Außentemperatur geringer als ein vorbestimmter Temperaturschwellenwert ist, der eisige Straßenzustände unterstützt; ermittelt wird, dass Eis auf der Straße vorhanden ist, wenn Reifenspuren an der Spurposition vorhanden sind und die Außentemperatur geringer als der vorbestimmte Temperaturschwellenwert ist; und ermittelt wird, dass Wasser auf der Straße vorhanden ist, wenn Reifenspuren an der Spurposition vorhanden sind und die Außentemperatur nicht geringer als der vorbestimmte Temperaturschwellenwert ist.
- Geländedetektionssystem zur Verwendung in einem Fahrzeug, umfassend: mehrere verschiedene Geländesensoren, die ausgestaltet sind, um Daten zu erzeugen, die die Topographie und die Reflexionsintensität eines Geländes beschreiben, das das Fahrzeug umgibt; einen Prozessor, der mit den mehreren verschiedenen Geländesensoren gekoppelt ist und ausgestaltet ist, um: mindestens ein Attribut des Geländes auf der Grundlage der Daten zu detektieren, die durch die mehreren verschiedenen Geländesensoren erzeugt werden; und ein Fahrverhalten des Fahrzeugs auf der Grundlage des mindestens einen Attributs des Geländes anzupassen.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/556,396 US8306672B2 (en) | 2009-09-09 | 2009-09-09 | Vehicular terrain detection system and method |
US12/556,396 | 2009-09-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102010035235A1 true DE102010035235A1 (de) | 2011-04-21 |
DE102010035235B4 DE102010035235B4 (de) | 2017-05-11 |
Family
ID=43648361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102010035235.7A Active DE102010035235B4 (de) | 2009-09-09 | 2010-08-24 | Fahrzeuggeländedetektionssystem und-verfahren |
Country Status (2)
Country | Link |
---|---|
US (1) | US8306672B2 (de) |
DE (1) | DE102010035235B4 (de) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012201896A1 (de) * | 2012-02-09 | 2013-08-14 | Robert Bosch Gmbh | Fahrerassistenzverfahren und Fahrerassistenzsystem für verschneite Straßen |
DE102013201941A1 (de) * | 2013-02-06 | 2014-08-07 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Ermitteln eines Fahrbahnverlaufs |
WO2015185198A1 (de) * | 2014-06-07 | 2015-12-10 | Audi Ag | Verfahren zum proaktiven regeln von fahrwerkskomponenten |
DE102015120534A1 (de) | 2015-11-26 | 2017-06-01 | Valeo Schalter Und Sensoren Gmbh | Anordnung wenigstens eines optischen Empfängers einer Sende- und Empfangseinrichtung einer nach einem Lichtimpulslaufzeitverfahren arbeitenden optischen Messvorrichtung |
DE102017122432A1 (de) * | 2017-09-27 | 2019-03-28 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Erfassen einer Fahrbahnbeschaffenheit einer Fahrbahn für ein Kraftfahrzeug, Fahrerassistenzsystem sowie Kraftfahrzeug |
DE102018127712A1 (de) * | 2018-11-07 | 2020-05-07 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Erkennen zumindest einer Reifenspur für ein Kraftfahrzeug mittels eines optoelektronischen Sensors, optoelektronischer Sensor sowie Kraftfahrzeug |
DE102018222763A1 (de) | 2018-12-21 | 2020-06-25 | Continental Automotive Gmbh | Verfahren zur Bereitstellung eines Oberflächenprofils durch ein Erfassungsfahrzeug sowie Erfassungsfahrzeug, Empfängerfahrzeug und Analyseeinrichtung |
DE102015121270B4 (de) | 2014-12-22 | 2022-02-03 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Verfahren zum Ermitteln eines Oberflächenzustands einer Fahrstraße |
DE102020209569A1 (de) | 2020-07-29 | 2022-02-03 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs |
Families Citing this family (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8494687B2 (en) * | 2010-03-12 | 2013-07-23 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Method for enhancing a three dimensional image from a plurality of frames of flash LIDAR data |
US8855911B2 (en) | 2010-12-09 | 2014-10-07 | Honeywell International Inc. | Systems and methods for navigation using cross correlation on evidence grids |
US20120224060A1 (en) * | 2011-02-10 | 2012-09-06 | Integrated Night Vision Systems Inc. | Reducing Driver Distraction Using a Heads-Up Display |
KR101245101B1 (ko) * | 2011-06-08 | 2013-03-25 | 주식회사 만도 | 순항 제어 장치 및 그 제어 방법 |
US20130006482A1 (en) * | 2011-06-30 | 2013-01-03 | Ramadev Burigsay Hukkeri | Guidance system for a mobile machine |
EP2543964B1 (de) * | 2011-07-06 | 2015-09-02 | Harman Becker Automotive Systems GmbH | Straßenbelag eines dreidimensionalen Orientierungspunkts |
US9264673B2 (en) * | 2011-11-20 | 2016-02-16 | Magna Electronics, Inc. | Vehicle vision system with enhanced functionality |
US8818722B2 (en) | 2011-11-22 | 2014-08-26 | Honeywell International Inc. | Rapid lidar image correlation for ground navigation |
GB2499461B (en) * | 2012-02-20 | 2014-08-13 | Jaguar Land Rover Ltd | Improvements in vehicle cruise control |
US9157743B2 (en) | 2012-07-18 | 2015-10-13 | Honeywell International Inc. | Systems and methods for correlating reduced evidence grids |
JP6402104B2 (ja) * | 2012-08-16 | 2018-10-10 | ジャガー・ランド・ローバー・リミテッドJaguar Land Rover Limited | 車両速度を制御するためのシステム及び方法 |
US9499172B2 (en) * | 2012-09-20 | 2016-11-22 | Google Inc. | Detecting road weather conditions |
US9110196B2 (en) | 2012-09-20 | 2015-08-18 | Google, Inc. | Detecting road weather conditions |
US9322909B2 (en) | 2012-12-13 | 2016-04-26 | Continental Automotive Systems, Inc. | Negative obstacle detection with stereo camera and long range radar |
US10524699B2 (en) | 2012-12-26 | 2020-01-07 | Rochester Institute Of Technology | Method and system for monitoring terrain and gait and predicting upcoming terrain |
US8788146B1 (en) | 2013-01-08 | 2014-07-22 | Ford Global Technologies, Llc | Adaptive active suspension system with road preview |
DE102013200385A1 (de) * | 2013-01-14 | 2014-07-17 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Unterstützung eines Fahrers eines Fahrzeugs bei einer Fahrt auf unebenem Gelände |
US20140257686A1 (en) | 2013-03-05 | 2014-09-11 | GM Global Technology Operations LLC | Vehicle lane determination |
US9110169B2 (en) * | 2013-03-08 | 2015-08-18 | Advanced Scientific Concepts, Inc. | LADAR enabled impact mitigation system |
KR20190125517A (ko) * | 2013-04-11 | 2019-11-06 | 웨이모 엘엘씨 | 차량 온보드 센서들을 사용하여 날씨 상태들을 검출하는 방법들 및 시스템들 |
US8983705B2 (en) | 2013-04-30 | 2015-03-17 | Google Inc. | Methods and systems for detecting weather conditions including fog using vehicle onboard sensors |
US9632210B2 (en) | 2013-05-07 | 2017-04-25 | Google Inc. | Methods and systems for detecting weather conditions using vehicle onboard sensors |
US9025140B2 (en) * | 2013-05-07 | 2015-05-05 | Google Inc. | Methods and systems for detecting weather conditions including sunlight using vehicle onboard sensors |
US9207323B2 (en) * | 2013-04-11 | 2015-12-08 | Google Inc. | Methods and systems for detecting weather conditions including wet surfaces using vehicle onboard sensors |
US10247854B2 (en) | 2013-05-07 | 2019-04-02 | Waymo Llc | Methods and systems for detecting weather conditions using vehicle onboard sensors |
KR101519199B1 (ko) * | 2013-05-09 | 2015-05-11 | 현대자동차주식회사 | 도로의 노면 상태 감지시스템 및 방법 |
DE102014213663B4 (de) | 2013-07-15 | 2024-04-11 | Magna Powertrain Of America, Inc. | Traktionssteuersystem für Vierrad-/Allradantrieb-Fahrzeuge mit Bordkamera |
GB2516497A (en) * | 2013-07-25 | 2015-01-28 | Jaguar Land Rover Ltd | Vehicle speed control system and method |
US9421979B2 (en) | 2013-10-17 | 2016-08-23 | Ford Global Technologies, Llc | Road characteristic prediction |
US9090264B1 (en) * | 2014-06-12 | 2015-07-28 | GM Global Technology Operations LLC | Vision-based wet road surface detection |
KR101618551B1 (ko) * | 2014-07-02 | 2016-05-09 | 엘지전자 주식회사 | 차량 운전 보조 장치 및 이를 구비한 차량 |
EP3045936A1 (de) * | 2015-01-13 | 2016-07-20 | XenomatiX BVBA | Umgebungsabtastsystem mit telezentrischer Optik |
EP3045935A1 (de) * | 2015-01-13 | 2016-07-20 | XenomatiX BVBA | Umgebendes Erfassungssystem mit Dome-Filteranordnung |
US9616773B2 (en) | 2015-05-11 | 2017-04-11 | Uber Technologies, Inc. | Detecting objects within a vehicle in connection with a service |
US10946855B2 (en) * | 2015-06-26 | 2021-03-16 | C.R.F. Società Consortile Per Azioni | Method for reducing noise in a driveline of a motor vehicle |
WO2017053407A1 (en) | 2015-09-24 | 2017-03-30 | Quovard Management Llc | Systems and methods for localization using surface imaging |
WO2017053415A1 (en) * | 2015-09-24 | 2017-03-30 | Quovard Management Llc | Systems and methods for surface monitoring |
US20170168495A1 (en) * | 2015-12-10 | 2017-06-15 | Uber Technologies, Inc. | Active light sensors for determining expected traction value of a road segment |
US10712160B2 (en) | 2015-12-10 | 2020-07-14 | Uatc, Llc | Vehicle traction map for autonomous vehicles |
US9840256B1 (en) | 2015-12-16 | 2017-12-12 | Uber Technologies, Inc. | Predictive sensor array configuration system for an autonomous vehicle |
US9841763B1 (en) | 2015-12-16 | 2017-12-12 | Uber Technologies, Inc. | Predictive sensor array configuration system for an autonomous vehicle |
US9946259B2 (en) * | 2015-12-18 | 2018-04-17 | Raytheon Company | Negative obstacle detector |
KR102373926B1 (ko) | 2016-02-05 | 2022-03-14 | 삼성전자주식회사 | 이동체 및 이동체의 위치 인식 방법 |
US9990548B2 (en) | 2016-03-09 | 2018-06-05 | Uber Technologies, Inc. | Traffic signal analysis system |
US10359779B2 (en) | 2016-03-22 | 2019-07-23 | Aurora Flight Sciences Corporation | Aircrew automation system and method |
GB2549108B (en) * | 2016-04-05 | 2020-01-01 | Jaguar Land Rover Ltd | Improvements in vehicle speed control |
SE539816C2 (en) | 2016-04-19 | 2017-12-05 | Scania Cv Ab | Method and control unit in a vehicle for estimating a stretch of a road based on a set of tracks of another vehicle |
US10459087B2 (en) | 2016-04-26 | 2019-10-29 | Uber Technologies, Inc. | Road registration differential GPS |
US9672446B1 (en) | 2016-05-06 | 2017-06-06 | Uber Technologies, Inc. | Object detection for an autonomous vehicle |
US10852744B2 (en) | 2016-07-01 | 2020-12-01 | Uatc, Llc | Detecting deviations in driving behavior for autonomous vehicles |
GB2552027B (en) | 2016-07-08 | 2019-02-20 | Jaguar Land Rover Ltd | A vehicle system for determining terrain type |
US10442439B1 (en) | 2016-08-18 | 2019-10-15 | Apple Inc. | System and method for road friction coefficient estimation |
US10183677B2 (en) * | 2016-09-20 | 2019-01-22 | Ford Global Technologies, Llc | Ice and snow detection systems and methods |
US10408937B2 (en) * | 2016-09-20 | 2019-09-10 | Ford Global Technologies, Llc | Metal bridge detection systems and methods |
JP6874319B2 (ja) * | 2016-10-12 | 2021-05-19 | 日産自動車株式会社 | 走路境界監視方法及び走路境界監視装置 |
EP3315997A1 (de) * | 2016-10-25 | 2018-05-02 | Openworks Engineering Ltd. | Erfassung und/oder verfolgung eines entfernten objekts |
GB2555779B (en) | 2016-10-25 | 2020-06-03 | Openworks Eng Ltd | Acquisition and/or tracking of remote object |
US10460053B2 (en) * | 2017-04-24 | 2019-10-29 | Toyota Research Institute, Inc. | Systems and methods for surface property identification using waveform classification |
US10816970B2 (en) | 2017-06-15 | 2020-10-27 | Aurora Flight Sciences Corporation | System and method for performing an emergency descent and landing |
US10453351B2 (en) | 2017-07-17 | 2019-10-22 | Aurora Flight Sciences Corporation | System and method for detecting obstacles in aerial systems |
US10509415B2 (en) | 2017-07-27 | 2019-12-17 | Aurora Flight Sciences Corporation | Aircrew automation system and method with integrated imaging and force sensing modalities |
US20190124819A1 (en) | 2017-10-31 | 2019-05-02 | Agjunction Llc | Vehicle implement control |
US10435020B2 (en) | 2017-12-01 | 2019-10-08 | Robert Bosch Gmbh | Lane keeping support on roads covered by snow |
US10875662B2 (en) | 2018-04-19 | 2020-12-29 | Aurora Flight Sciences Corporation | Method of robot manipulation in a vibration environment |
US10850397B2 (en) | 2018-04-19 | 2020-12-01 | Aurora Flight Sciences Corporation | System and method for providing in-cockpit actuation of aircraft controls |
US11399137B2 (en) | 2018-08-10 | 2022-07-26 | Aurora Flight Sciences Corporation | Object-tracking system |
CN109359565A (zh) * | 2018-09-29 | 2019-02-19 | 广东工业大学 | 一种道路减速带检测方法及系统 |
US11037453B2 (en) | 2018-10-12 | 2021-06-15 | Aurora Flight Sciences Corporation | Adaptive sense and avoid system |
US11151810B2 (en) | 2018-10-12 | 2021-10-19 | Aurora Flight Sciences Corporation | Adaptable vehicle monitoring system |
DE102018127342B4 (de) * | 2018-11-01 | 2022-09-29 | Mercedes-Benz Group AG | Verfahren und Vorrichtung zum Betrieb eines Assistenzsystems eines Fahrzeuges |
US10843694B2 (en) * | 2018-11-19 | 2020-11-24 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vehicle height detection and environmental warning system |
US10933807B2 (en) | 2018-11-28 | 2021-03-02 | International Business Machines Corporation | Visual hazard avoidance through an on-road projection system for vehicles |
US11432452B2 (en) * | 2019-01-28 | 2022-09-06 | Deere & Company | Vehicle sink alert system and method |
JP7083768B2 (ja) * | 2019-03-13 | 2022-06-13 | 本田技研工業株式会社 | 認識装置、車両制御装置、認識方法、およびプログラム |
US11454510B1 (en) | 2019-03-18 | 2022-09-27 | United Services Automobile Association (Usaa) | Monitoring of data to predict road conditions |
US10650589B1 (en) * | 2019-04-03 | 2020-05-12 | Here Global B.V. | Generating surface approximations using curvature integrals for surface visualization rendering |
US11021159B2 (en) * | 2019-07-10 | 2021-06-01 | Ford Global Technologies, Llc | Road surface condition detection |
US11126891B2 (en) | 2019-09-11 | 2021-09-21 | Toyota Research Institute, Inc. | Systems and methods for simulating sensor data using a generative model |
US11727169B2 (en) | 2019-09-11 | 2023-08-15 | Toyota Research Institute, Inc. | Systems and methods for inferring simulated data |
US20210331663A1 (en) * | 2020-04-26 | 2021-10-28 | Potential Motors Inc. | Electric vehicle control system |
WO2021243576A1 (en) * | 2020-06-02 | 2021-12-09 | Huawei Technologies Co., Ltd. | Apparatus, system and method for detecting speed bumps and potholes on a road |
US11816992B2 (en) | 2020-07-22 | 2023-11-14 | Waymo Llc | Real time fleet management for autonomous vehicles using puddle mapping |
WO2022086487A1 (en) * | 2020-10-19 | 2022-04-28 | Ford Global Technologies, Llc | Suspension system with electronic pitch stability control |
US20240161517A1 (en) * | 2021-03-31 | 2024-05-16 | Agency For Science, Technology And Research | Detection method and system for a mobile object |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3045401B2 (ja) * | 1996-05-08 | 2000-05-29 | ダイムラークライスラー・アクチエンゲゼルシヤフト | 自動車の前方車道状況を確認する方法 |
US6807473B1 (en) * | 2003-04-09 | 2004-10-19 | Continental Teves, Inc. | Road recognition system |
JP4389567B2 (ja) * | 2003-12-03 | 2009-12-24 | 日産自動車株式会社 | 車線逸脱防止装置 |
US7272474B1 (en) * | 2004-03-31 | 2007-09-18 | Carnegie Mellon University | Method and system for estimating navigability of terrain |
JP2006151125A (ja) * | 2004-11-26 | 2006-06-15 | Omron Corp | 車載用画像処理装置 |
JP4687563B2 (ja) * | 2006-05-23 | 2011-05-25 | 株式会社デンソー | 車両用レーンマーク認識装置 |
DE102006028014A1 (de) * | 2006-06-19 | 2007-12-20 | Robert Bosch Gmbh | Fahrerassistenzsystem und Verfahren zu dessen Steuerung |
DE102007039617B4 (de) * | 2007-08-22 | 2013-05-29 | Continental Automotive Gmbh | Automatische Spiegeleinstellung in einem Fahrzeug |
US8436902B2 (en) * | 2007-08-30 | 2013-05-07 | Valeo Schalter And Sensoren Gmbh | Method and system for weather condition detection with image-based road characterization |
-
2009
- 2009-09-09 US US12/556,396 patent/US8306672B2/en active Active
-
2010
- 2010-08-24 DE DE102010035235.7A patent/DE102010035235B4/de active Active
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012201896A1 (de) * | 2012-02-09 | 2013-08-14 | Robert Bosch Gmbh | Fahrerassistenzverfahren und Fahrerassistenzsystem für verschneite Straßen |
DE102013201941A1 (de) * | 2013-02-06 | 2014-08-07 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Ermitteln eines Fahrbahnverlaufs |
WO2015185198A1 (de) * | 2014-06-07 | 2015-12-10 | Audi Ag | Verfahren zum proaktiven regeln von fahrwerkskomponenten |
US9770959B2 (en) | 2014-06-07 | 2017-09-26 | Audi Ag | Method for proactive controlling of chassis components |
DE102015121270B4 (de) | 2014-12-22 | 2022-02-03 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Verfahren zum Ermitteln eines Oberflächenzustands einer Fahrstraße |
DE102015120534A1 (de) | 2015-11-26 | 2017-06-01 | Valeo Schalter Und Sensoren Gmbh | Anordnung wenigstens eines optischen Empfängers einer Sende- und Empfangseinrichtung einer nach einem Lichtimpulslaufzeitverfahren arbeitenden optischen Messvorrichtung |
DE102017122432A1 (de) * | 2017-09-27 | 2019-03-28 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Erfassen einer Fahrbahnbeschaffenheit einer Fahrbahn für ein Kraftfahrzeug, Fahrerassistenzsystem sowie Kraftfahrzeug |
DE102018127712A1 (de) * | 2018-11-07 | 2020-05-07 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Erkennen zumindest einer Reifenspur für ein Kraftfahrzeug mittels eines optoelektronischen Sensors, optoelektronischer Sensor sowie Kraftfahrzeug |
DE102018222763A1 (de) | 2018-12-21 | 2020-06-25 | Continental Automotive Gmbh | Verfahren zur Bereitstellung eines Oberflächenprofils durch ein Erfassungsfahrzeug sowie Erfassungsfahrzeug, Empfängerfahrzeug und Analyseeinrichtung |
DE102020209569A1 (de) | 2020-07-29 | 2022-02-03 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs |
Also Published As
Publication number | Publication date |
---|---|
US20110060478A1 (en) | 2011-03-10 |
DE102010035235B4 (de) | 2017-05-11 |
US8306672B2 (en) | 2012-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102010035235B4 (de) | Fahrzeuggeländedetektionssystem und-verfahren | |
DE102018120845B4 (de) | Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs | |
CN110395258B (zh) | 路面状态推断装置以及路面状态推断方法 | |
DE102017128619B4 (de) | Fahrzeugsteuersystem, damit ausgerüstetes Fahrzeug sowie Verfahren zum Steuern mindestens einer Funktion eines Fahrzeugs | |
EP2936389B1 (de) | Verfahren und vorrichtung zum prädikativen ermitteln eines parameterwertes einer von einem fahrzeug befahrbaren oberfläche | |
DE102019104845A1 (de) | Proaktive fahrzeugwartungsplanung basierend auf digitalzwillingssimulationen | |
DE102019131384A1 (de) | Strassenbelagcharakterisierung unter verwendung von posenbeobachtungen von benachbarten fahrzeugen | |
DE102018115813A1 (de) | Verfahren und systeme zum lokalisieren eines fahrzeugs | |
EP3867118A1 (de) | Lidar-basierte anhängerverfolgung | |
DE102017105897B4 (de) | Fahrzeug und Verfahren zum Steuern davon | |
DE102019201776A1 (de) | Fahrzeugsteuerungssystem und steuerverfahren | |
DE102018120336A1 (de) | Kommunikation von infrastrukturinformationen an ein fahrzeug über bodendurchdringungsradar | |
DE102012212740A1 (de) | System und Verfahren zum Aktualisieren einer digitalen Karte eines Fahrerassistenzsystems | |
DE102012215173A1 (de) | Verfahren zum Betreiben eines Fahrzeugsicherheitssystems | |
DE102011056671A1 (de) | Bestimmung eines Höhenprofils einer Fahrzeugumgebung mittels einer 3D-Kamera | |
DE102018117916A1 (de) | Wegplanung für das autonome Fahren | |
DE102021101426A1 (de) | Erkennung von fahrzeugbetriebsbedingungen | |
DE112021003371T5 (de) | Fahrzeugpositionsschätzvorrichtung und Fahrpositionsschätzverfahren | |
DE102020105657A1 (de) | Verfahren und Systeme für die Kartierung und Lokalisierung eines Fahrzeuges | |
DE102019115646A1 (de) | System und verfahren zum modellieren von lenkeigenschaften | |
DE102022120968A1 (de) | Vernetzte fahrzeuggestützte ermittlung der strassenoberflächenqualität | |
CN114074682A (zh) | 处理自返回的方法和车辆 | |
DE102022109164A1 (de) | Verbessserter fahrzeugbetrieb | |
DE102022100549A1 (de) | Mit einem rang versehene fehlerzustände | |
DE102019112446A1 (de) | Entkommen durch ein Fahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8127 | New person/name/address of the applicant |
Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC , ( N. D. , US |
|
R081 | Change of applicant/patentee |
Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GES, US Free format text: FORMER OWNER: GM GLOBAL TECHNOLOGY OPERATIONS, INC., DETROIT, MICH., US Effective date: 20110323 |
|
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |