DE102015121270A1 - Detektion des Fahrbahnreflexionsvermögens durch einen Lidar-Sensor - Google Patents

Detektion des Fahrbahnreflexionsvermögens durch einen Lidar-Sensor Download PDF

Info

Publication number
DE102015121270A1
DE102015121270A1 DE102015121270.6A DE102015121270A DE102015121270A1 DE 102015121270 A1 DE102015121270 A1 DE 102015121270A1 DE 102015121270 A DE102015121270 A DE 102015121270A DE 102015121270 A1 DE102015121270 A1 DE 102015121270A1
Authority
DE
Germany
Prior art keywords
photodetector
road
response
driveway
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015121270.6A
Other languages
English (en)
Other versions
DE102015121270B4 (de
Inventor
Inna Stainvas Olshansky
Yosi Buda
Ariel Lipson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102015121270A1 publication Critical patent/DE102015121270A1/de
Application granted granted Critical
Publication of DE102015121270B4 publication Critical patent/DE102015121270B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/10Devices for predicting weather conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4738Diffuse reflection, e.g. also for testing fluids, fibrous materials
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/49Scattering, i.e. diffuse reflection within a body or fluid
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/94Investigating contamination, e.g. dust
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/95Lidar systems specially adapted for specific applications for meteorological use
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/068Road friction coefficient
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • G01N2021/556Measuring separately scattering and specular
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • G01N2021/557Detecting specular reflective parts on sample
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/94Investigating contamination, e.g. dust
    • G01N2021/945Liquid or solid deposits of macroscopic size on surfaces, e.g. drops, films, or clustered contaminants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/12Circuits of general importance; Signal processing
    • G01N2201/125Digital circuitry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Atmospheric Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Es wird ein Verfahren zum Ermitteln eines Oberflächenzustands einer Fahrstraße bereitgestellt. Ein Lichtstrahl, der auf eine Oberfläche der Fahrstraße gelenkt wird, wird unter Verwendung eines Lidar-Systems übertragen. Nach der Übertragung des Lichtstrahls wird eine Reaktion an einem Photodetektor des Lidar-Systems analysiert. In Ansprechen auf die Analyse der Reaktion an dem Photodetektor wird ermittelt, ob eine Form von Niederschlag auf der Fahrstraße vorhanden ist. In Ansprechen auf die Ermittlung, dass die Bodenoberfläche eine Form von Niederschlag auf der Fahrstraße umfasst, wird ein Niederschlag angebendes Signal erzeugt.

Description

  • HINTERGRUND DER ERFINDUNG
  • Eine Ausführungsform bezieht sich auf eine Ermittlung des Reflexionsvermögens eines Fahrbahnzustands einer gefahrenen Route.
  • Für verschiedene Funktionen eines Fahrzeugs ist es sehr wichtig, die Fahrbahnzustände, denen ein Fahrzeug begegnet, zu verstehen. Niederschlag auf der Fahrbahn kann zu verschiedenen Steuerproblemen für das Fahrzeug führen. Schnee, Wasser oder Eis auf der Fahrstraße reduzieren den Reibungskoeffizienten zwischen den Fahrzeugreifen und der Oberfläche der Straße erheblich, was zu Fahrzeugstabilitätsproblemen führt. Verschiedene bekannte Systeme können einen solchen Zustand erfassen, erfordern jedoch eine Anregung für die Detektion. Zum Beispiel kann ein System, das Niederschlag auf der Straße unter Verwendung von Radschlupf erfasst, detektieren, wenn die Fahrzeugräder plötzliche Anstiege der Drehzahl des Rads aufweisen. Während dieser Vorgang zur Identifizierung eines Typs von Niederschlag auf der Fahrbahn sehr gut ist, ist das Problem, dass der Niederschlag den Fahrzeugbetrieb bereits negativ beeinflusst. Demzufolge muss das Fahrzeug reaktiv Änderungen an dem Fahrzeugbetrieb vornehmen, um die Auswirkungen des Niederschlags, der das Fahrzeug bereits beeinträchtigt, zu reduzieren.
  • Ein Identifizieren eines Fahrbahnzustands, bevor das Fahrzeug auf dem Niederschlag fährt, ermöglicht einem Fahrzeug, proaktiv verschiedene Sicherheitsfahrmerkmale eines Fahrzeugs freizugeben oder Änderungen an den aktuellen Fahrzeugoperationen vorzunehmen, um die Änderungen des Niederschlags, die die Operationen des Fahrzeugs beeinträchtigen, zu reduzieren.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein Vorteil einer Ausführungsform ist die Detektion eines Fahrbahnzustands, was eine Freigabe der Stabilitätssteueroperationen ermöglicht, um das Wasser/den Schnee/das Eis auf einer Oberfläche der Straße zu entschärfen. Das System verwendet eine Lidar-Technik, die ermittelt, ob ein Signal an einem Photodetektor empfangen wird. Eine Ermittlung, ob die Oberfläche Eis/Schnee/Wasser auf der Fahrstraße umfasst, wird durch Analysieren von Signalen, die an dem Photodetektor empfangen werden, sowie eine Abwesenheit von Signalen, die an dem Photodetektor empfangen werden, durchgeführt. Es können verschiedene Techniken verwendet werden, um Eis/Schnee/Wasser auf der Oberfläche der Oberfläche der Straße zu ermitteln, wie beispielsweise kein Empfang eines Antwortsignals, ein Empfang eines Antwortsignals mit einem erhöht gestreuten Strahl, wie es durch Analysieren des empfangenen Signals unter Verwendung eines sich verschiebenden Fensters ermittelt wird, und eine Detektion falscher Objekte in dem Rücksignal.
  • Ferner können andere Erfassungsvorrichtungen/-systeme mit dem Lidar-System verwendet werden, um die Wahrscheinlichkeit des Fahrbahnzustands sowie des Typs von Niederschlag auf der Fahrbahn zu verbessern.
  • Eine Ausführungsform zieht ein Verfahren zum Ermitteln eines Oberflächenzustands einer Fahrstraße in Betracht. Ein Lichtstrahl, der auf eine Oberfläche der Fahrstraße gelenkt wird, wird unter Verwendung eines Lidar-Systems übertragen. Nach der Übertragung des Lichtstrahls wird eine Reaktion an einem Photodetektor des Lidar-Systems analysiert. In Ansprechen auf die Analyse der Reaktion an dem Photodetektor wird ermittelt, ob eine Form von Niederschlag auf der Fahrstraße vorhanden ist. In Ansprechen auf die Ermittlung, dass die Bodenoberfläche eine Form von Niederschlag auf der Fahrstraße umfasst, wird ein Niederschlag angebendes Signal erzeugt.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm eines Fahrbahnzustand-Detektionssystems.
  • 2 ist eine bildhafte Darstellung, die Reflexionseigenschaften für eine diffuse Fahrbahn veranschaulicht.
  • 3 eine vergrößerte Ansicht der diffusen Fahrbahn.
  • 4 ist eine bildhafte Darstellung, die Reflexionseigenschaften für eine spiegelähnliche Fahrbahn zeigt.
  • 5 ist eine vergrößerte Ansicht der spiegelähnlichen Fahrbahn.
  • 6a und 6b veranschaulichen die jeweiligen Lidar-Rücksignale, die eine Abwesenheit von Lidar-Rückführungen von der Bodenoberfläche zeigen.
  • 7 ist ein Flussdiagramm für eine Signalstreuungsanalysetechnik zum Detektieren von Reflexionseigenschaften der Straße.
  • 8 graphische Darstellung einer Merkmalsextraktionstechnik eines sich verschiebenden Fensters.
  • 9a und 9b Lidar-Rücksignale, die sich auf den Streuungseffekt [engl.: ”scatting effect”] des Lidar-Strahls beziehen.
  • 10 ist eine Technik einer Detektion eines falschen Objekts, die verwendet wird, um Reflexionseigenschaften der Straße zu identifizieren.
  • 11a und 11b veranschaulichen die Lidar-Rücksignale, die falsche Objekte angeben.
  • DETAILLIERTE BESCHREIBUNG
  • In 1 ist ein Blockdiagramm des Fahrbahnzustand-Detektionssystems 10 gezeigt. Das Fahrbahndetektionssystem 10 verwendet ein Lidar-System 12 (z. B. ein Velodyne-Erfassungssystem). Lidar ist eine Fernerfassungstechnologie, bei der ein Ziel beleuchtet wird und eine Distanz zu dem Objekt basierend auf dem Analysieren des reflektierten Lichts gemessen wird.
  • Das Lidar-System 12 umfasst eine Beleuchtungsquelle 14, wie beispielsweise einen Laser. Laser werden auf eine jeweilige Wellenlänge kalibriert, und der Laser kann auf eine spezifizierte Impulslänge und Wiederholungsrate, was die Datenzusammentragungsgeschwindigkeit steuert, eingestellt werden.
  • Das Lidar-System 12 umfasst ferner einen Photodetektor 16, der die reflektierten Strahlen von der Beleuchtungsquelle 14 empfängt.
  • Das Lidar-System 12 umfasst ferner einen Prozessor 18 zum Analysieren der von dem Photodetektor 16 erhaltenen Daten und zum Durchführen von Ermittlungen der Reflexionseigenschaften des Oberflächenzustands der Straße. Das Lidar-System 12 kann ferner ein Positionsbestimmungssystem/Navigationssystem verwenden, um eine absolute Position eines Oberflächenzustands zu identifizieren, wenn das Fahrzeug beweglich ist. Wenn sich ein Fahrzeug bewegt, können Lidar-Abtastungen zu dichten Punktwolken kombiniert werden (falls Positionsbestimmungs-/Navigationssysteme verfügbar sind oder Sensoren, aus denen Eigenbewegung geschätzt werden kann), und die gleiche Analyse kann auf Punktwolkenstücke angewandt werden. Dies ermöglicht dem Lidar-System, eine erhebliche Menge an Information über die Fahrbahn in der Umgebung des Fahrzeugs zu erhalten.
  • Eine Speichereinheit 20 kann zum Speichern einer Information, die durch den Photodetektor 18 zusammengetragen wird, verwendet werden. Die Speichereinheit 20 speichert Daten, die durch einen Klassifizierer verwendet werden, um die Fahrbahn zu ermitteln, was nachstehend ausführlich erläutert wird. Andere Erfassungseinrichtungen 22 (z. B. Radar, Video), die in Kombination mit dem Lidar-System verwendet werden können, um den Zustand der Fahrbahn zu verifizieren.
  • Es kann eine Vielzahl von Einrichtungen Einrichtungen/Systemen 24 verwendet werden, um zu ermöglichen, dass der Fahrzeugbetrieb den Fahrer beim Aufrechterhalten der Kontrolle über das Fahrzeug unterstützt, wenn glatte Straßenzustände vorhanden sind, oder eine detaillierte Information für den Fahrer des Fahrzeugs bereitzustellen, die den Fahrer des Fahrzeugs hinsichtlich des bevorstehenden Straßenzustands informiert oder warnt. Niederschlag auf der Fahrzeugstraße 12 kann zu einer Reduzierung der Traktion beim Fahren auf der nassen Oberfläche führen. Es ist zu verstehen, dass der Begriff Niederschlag wie hierin definiert Wasser, Eis, Schnee oder eine andere Substanz, die bewirken kann, dass das Fahrzeug an Traktion verliert, umfassen kann, jedoch nicht darauf beschränkt ist. Niederschlag, der sich auf der Fahrzeugstraße befindet, verringert den Reibungskoeffizienten zwischen den Fahrzeugreifen und der Fahrzeugstraße, wodurch die Traktion zwischen den Fahrzeugreifen und der Fahrzeugstraße reduziert wird. Ein Traktionsverlust kann durch eines der Folgenden vermindert werden, die autonome Bremssteuerungen 25 unter Verwendung einer variablen Bremskraft zum Minimieren des Niederschlags, der an den Bremsflächen der Bremse gebildet wird; Komponenten, die den Fahrer warnen, die Fahrzeuggeschwindigkeit auf eine zu verringern, die den Umgebungsbedingungen dienlich ist, oder eine Mitteilung für den Fahrer, um einen größeren Anhalteweg zu einem vorausfahrenden Fahrzeug aufrecht zu erhalten; Stabilitätstraktionssteuerungen 26, eine Geschwindigkeitssteuerung zur Deaktivierung oder Beschränkung der Aktivierung der Tempomatfunktionalität, während Niederschlag detektiert wird 27; eine Fahrerwamungsausgabeeinrichtung, um den Fahrer hinsichtlich eines bevorstehenden Fahrbahnzustands zu warnen 28; oder ein Kommunikationssystem zum Kommunizieren mit anderen Fahrzeugen unter Verwendung einer Ad-hoc-Fahrzeugkommunikation, um andere Fahrer hinsichtlich des Fahrbahnzustands vorzuwarnen 29, umfassen, jedoch nicht darauf beschränkt sind.
  • In 2 und 3 ist ein Fahrzeug 30 gezeigt, das entlang einer Fahrstraße 32 fährt und einen Laserstrahl 34 auf die Oberfläche der Fahrstraße 32 lenkt. Je nachdem, ob die Straße eine diffuse Oberfläche oder eine flache spiegelartige Oberfläche umfasst, bestimmt dies, wie Lichtstrahlen von der Oberfläche der Fahrstraße 32 reflektiert werden. 3 veranschaulicht eine erweiterte Ansicht einer diffusen Oberfläche 36 auf der Fahrstraße 32. Eine diffuse Reflexion tritt auf, wenn der Laserstrahl an einer Oberfläche reflektiert wird, die nicht spiegelähnlich ist. Eine diffuse Reflexion ist die Reflexion von Licht von einer Oberfläche, sodass ein einfallender Strahl unter vielen Winkeln reflektiert wird anstatt nur unter einem Winkel wie im Falle der Spiegelreflexion. Als ein Ergebnis dessen, dass ein einfallender Strahl unter vielen Winkeln reflektiert wird wie dargestellt, kehrt ein Teil der reflektierten Strahlen in einer Richtung zu dem Fahrzeug hin zurück. Der Photodetektor erfasst die Rückstrahlen und kann die Distanz von dem Fahrzeug zu dem Schnittpunkt mit der diffusen Oberfläche messen. Ein Stützen auf eine erwartete Rückführung gegenüber dem, was empfangen oder nicht empfangen wird, unterstützt das Durchführen der Ermittlung des Fahrbahnzustands.
  • 4 und 5 zeigen das Fahrzeug 30, das auf der Fahrstraße 32 fährt, und das Lenken des Laserstrahls 34 auf die Oberfläche der Fahrstraße 32, wobei die Oberfläche eine spiegelartige Oberfläche 38 ist. Eine Fahrbahn mit einer spiegelartigen Oberfläche 38 verursacht eine Spiegelreflexion. Eine Spiegelreflexion ist die spiegelartige Reflexion von Licht von der Oberfläche, wobei Licht von dem einfallenden Strahl, der aus einer einzigen ankommenden Richtung kommt, in eine einzige ausgehende Richtung reflektiert wird. Als Ergebnis wird der Reflexionsstrahl in eine Richtung weg von dem Fahrzeug gelenkt, da der Reflexionswinkel gleich dem Winkel des Einfalls in Bezug auf die Fahrbahn ist. Durch die Identifizierung, ob die Fahrbahn eine diffuse Oberfläche oder eine spiegelähnliche Oberfläche umfasst, können Entscheidungen bezüglich dessen getroffen werden, ob der Fahrbahnzustand über Fahrzeugsteuerungen entschärft werden soll.
  • Eine Fahrzeugsteuerung erfordert die Kenntnis des vorausliegenden Fahrbahnzustands (d. h. ob die Straße nass, mit Eis bedeckt, trocken ist). Solche Bedingungen können wahrgenommen werden, indem die Lidar-Systeme verwendet werden und die Daten analysiert werden. Lidar-Rückführungen hängen, wie zuvor beschrieben, von den Eigenschaften des Materials, von dem sie reflektiert werden, ab. Die Reflexionseigenschaften der Straße in nassen/trockenen/schneebedeckten Regionen unterscheiden sich erheblich und können somit unter Verwendung eines Lidar-Sensors detektiert werden. Zum Beispiel füllen sich während eines Regens Schlaglöcher auf der Fahrbahn mit Wasser und können sie sich wie kleine Spiegel verhalten. Wenn ein Lidar-Strahl auf die nassen/Wasseroberflächen trifft, können die folgenden Auswirkungen auftreten: (1) Keine Rückführungen zurück zum Sensordetektor; (2) Streuung der Strahlsignalauslesung ist für Daten, die von einer reflektierenden Oberfläche stammen, größer; (3) falsche Objekte können erscheinen. Die folgenden Beschreibungen hierin beschreiben diese jeweiligen Auswirkungen und deren Analyse.
  • 6a und 6b veranschaulichen das erste Szenario, bei dem eine Abwesenheit von Lidar-Rückführungen von der Bodenoberfläche vorliegt, wobei dieser Zustand leicht durch Verfolgen des Lasersignals über die Zeit und Entdecken ungelesener Daten, wenn Rückführungsdaten erwartet werden, detektiert werden kann. 6a veranschaulicht Lidar-Rückführungen überlagert an einem Bild der Fahrstraße wie durch den Fahrer gesehen, und 6b veranschaulicht eine graphische Darstellung einer Draufsicht eines Lidar-Rücksignals. Die jeweiligen Linien stellen die jeweiligen Laserstrahlen dar, die bei einem spezifischen Sensor, wie beispielsweise einem IBEO LUX-Sensor, verwendet werden. Der IBEO LUX-Sensor weist 4 Schichten von Lasern mit dem vertikalen Sichtfeld von 3,2 Grad und einer Abtastrate von entweder 12,5 Hz, 25 Hz oder 40 Hz auf; allerdings können andere Sensoren verwendet werden, die eine andere Anzahl von Laserstrahlen aufweisen. Wie es in 6a gezeigt ist, veranschaulicht Bezugszeichen 40 Wasser auf einer Fahrbahn, das eine spiegelartige Oberfläche erzeugt. Eine Lücke 41, die keine Rücksignale von dem übertragenen Signal angibt, ist in beiden 6a und 6b gezeigt. Das nicht vorhandene Rücksignal ist das Ergebnis des Abprallens des Laserstrahls von der spiegelartigen Oberfläche und Reflektierens vor dem Fahrzeug. Als Ergebnis erscheint eine Lücke bei dem Rückführungs-Lidar-Signal. Eine solche Situation kann an den Bordsteinkanten auftreten, wobei das Fahrzeugsystem ein Spurführungssystem umfassen könnte, das nach Bordsteinen sucht. Während Bordsteine entlang der Fahrstraße detektiert werden, wird ermittelt, dass es keine Rückführungen für eine nahe gelegene Bordsteinlinie, die dort erwartet wird, gibt. Aufgrund der Konstruktion der Straße weist die Oberfläche des Bordsteins eine negative Krümmung in der Richtung senkrecht zur Richtung der Straße auf, was zu einer Wasseransammlung in der Nähe der Bordsteinoberfläche führt. Als Folge davon gibt der Lidar-Strahl an bestimmten Orten keinen Reflexionsstrahl zurück und gibt ein Muster über die Zeit an, dass das Muster an der Stelle unterbrochen ist, an der sich Straße und Bordsteinoberflächen treffen. Das unterbrochene Muster gibt Wasser oder andere spiegelartige Zustände an der Oberfläche der Straße an. Daher können spiegelähnliche Oberflächen detektiert werden, wenn kein Rücksignal zurückgeführt wird, wenn dies erwartet wird.
  • In Bezug auf das zweite Szenario, bei dem die Lidar-Signalstreuung einer nassen/Schneeoberfläche erhöht ist, kann diese visuelle Auswirkung durch die Verwendung von Signalverarbeitung und Techniken eines maschinellen Lernens detektiert werden. 7 stellt ein Blockdiagramm eines algorithmischen Flusses zum Durchführen einer Analyse für eine Signalstreuung dar.
  • In Kasten 42 wird ein erstes Signal durch das sich verschiebende Fenster abgetastet und werden Merkmale für jedes Fenster extrahiert. Es wird ein erstes Signal durch ein sich verschiebendes Fenster abgetastet, und es werden Merkmale für jedes Fenster extrahiert. 8 veranschaulicht das sich verschiebende Fenster. In 8 wird bei Fenster i – 1 ein jeweiliges Fenster analysiert. Das Fenster wird bewegt und es wird ein nächstes Fenster analysiert (i-tes Fenster). Es werden nachfolgende Fenster analysiert (Fenster i + 1).
  • In Kasten 43 werden für jedes Fenster extrahierte Merkmale analysiert. Merkmale, die extrahiert werden, umfassen Statistiken eines kurzen Signals wie beispielsweise STD oder beliebige andere Statistiken, die eine Abweichung von einer Normalverteilung messen (zum Beispiel Kurtosis), FFT-Koeffizienten und ihre Statistiken, sind jedoch nicht darauf beschränkt. Da das Signal eines sich verschiebenden Fensters aus 3D-Punkten besteht, können ferner auch eine Hauptkomponentenanalyse (PCA von principal component analysis) sowie Eigenwerte und deren Verhältnis zum Schätzen einer Streuung eines kurzen Fenstersignals verwendet werden.
  • Zusätzlich zur FFT kann eine andere Technik, wie beispielsweise eine Wavelet-Transformation, verwendet werden. Eine Wavelet-Transformation ist eine Zeit-Frequenz-Transformation unter Verwendung eines mathematischen Prozesses zum Durchführen einer Signalanalyse für eine Signalfrequenz, die über die Zeit variiert.
  • In Kasten 44 werden die jeweiligen Merkmale klassifiziert. Der letzte Klassifizierungsschritt kann durch einen beliebigen jeweiligen Klassifizierer angewandt werden, der jegliche neuronalen Netze, Unterstützungsvektormaschinen (SVM von support vector machines), Nächste-Nachbarn-Klassifizierer etc. umfasst, jedoch nicht darauf beschränkt ist. Klassifizierungskennzeichnungen umfassen nasse Regionen, eisige Regionen, trockene Regionen und Schneeregionen, sind jedoch nicht darauf beschränkt. Die Merkmalsextraktions- und Klassifizierungsschritte können unter Verwendung einer Technik tiefer neuronaler Netze zu einem Schritt kombiniert werden.
  • 9a und 9b veranschaulichen Lidar-Rücksignale, die sich auf den Streuungseffekt [engl.: ”scatting effect”] des Lidar-Strahls beziehen. Wie es in 9b gezeigt ist wird, während Rücksignale vorhanden sind, die geometrische Form der Rücksignale gestreut. Dieser Typ von Signal wird unter Verwendung von Signalverarbeitung und der Techniken eines maschinellen Lernens wie oben angegeben identifiziert.
  • Ferner können andere Sensordaten (wie beispielsweise Kameras, Radar, Ultraschall) zusammenwirkend mit dem Lidar-System verwendet werden, was das Treffen zusammenwirkender Entscheidungen bezüglich des Fahrbahnzustands unterstützt.
  • 10 veranschaulicht das dritte Szenario, bei dem falsche Objekte an der Spiegeloberfläche der Straße detektiert werden. Wie es in 10 gezeigt ist, überträgt das Lidar-System einen Lichtstrahl auf die Fahrstraße 32. Auf der Fahrbahn befindet sich Niederschlag 50. Eine Lichtreflexion auf der Fahrbahn weist für den Niederschlag einen Reflexionsstrahlwinkel auf, der im Wesentlichen gleich dem Einfallstrahlwinkel ist. Der Niederschlag 50 auf der Fahrstraße fungiert als Oberfläche vom Spiegeltyp mit Reflexionseigenschaften. Nach dem Erfolgen der Reflexion durch die Spiegeloberfläche trifft der reflektierte Strahl auf ein Objekt 52 vor dem Fahrzeug. Das Licht, das von dem vorderen Objekt 52 abprallt, wird zurückgeführt und durch einen Sensor (Mehrweg) gemessen, wobei ein sekundäres Echo erzeugt wird. Diese Rückführungen eines sekundären Echos sind 3D-Punkte, die Signale eines falschen Alarms erzeugen, welche ein falsches/virtuelles Objekt 54 angeben. Die falschen Objekte werden als virtuelle Punkte betrachtet, die sich unter der Erde befinden und an den gleichen Punkt unter der Oberfläche auf das virtuelle Objekt 54 wie bei dem realen Objekt 52 projiziert werden, da das reale Objekt 52 und das virtuelle Objekt 54 im Wesentlichen die gleiche Größe aufweisen; es wird jedoch erwartet, dass die Intensität des sekundären Impulses aufgrund von Mehrfachreflexionen kleiner ist.
  • Der Prozess des Detektierens des falschen Objekts wird wie folgt beschrieben. In Schritt 60 wird eine Bodenebene unter Verwendung einer Technik einer stabilen Ebenenanpassung (RANSAC) ermittelt. Eine Technik wie beispielsweise RANSAC führt eine Bodenschätzung durch, indem die Daten verschoben und gedreht werden, um mit der xy-Ebene und der Bodenebene übereinzustimmen.
  • In Schritt 61 werden Punkte eines falschen Objekts des virtuellen Objekts, die sich unter dem Boden befinden, identifiziert. Die Punkte eines falschen Objekts weisen einen Untergrundpunkt (z < 0) auf. Dies gilt auch für negative Objekte wie beispielsweise Schlaglöcher.
  • In Schritt 62 werden Punkte eines falschen Objekts von verschiedenen Strahlen durch das Lidar-System zusammengetragen. Die verschiedenen zusammengetragenen Strahlen sollten bei einer Projektion auf den Boden von einer im Wesentlichen gleichen Stelle stammen. Das gleiche gilt für ein reales Objekt, jedoch nicht für bestimmte Eigenschaften der Straße, wie beispielsweise Schlaglöcher.
  • In Schritt 63 werden die in den Schritten 62 und 63 identifizierten Eigenschaften zusammenwirkend analysiert, um eine Detektion eines falschen Objekts zu identifizieren. Es ist zu verstehen, dass die Schnittmenge zwischen der Fahrbahn und den falschen Objekten dem Reflexionsbereich der Fahrbahn entspricht. Diese jeweiligen Punkte eines falschen Objekts decken sich mit den realen Lidar-Punkten, die aus den ersten Impulsen erhalten werden. Eine Detektion falscher Objekte ermöglicht ferner eine Rekonstruktion von realen Objekten durch Anwenden von Symmetrietransformationen der falschen Objekte von der Fahrbahn.
  • Es ist zu verstehen, dass andere Fahrzeugsubsysteme, wie beispielsweise ein kamerabasiertes System, zusammenwirkend mit dem Lidar-System verwendet werden können, um die Wahrscheinlichkeit zu verbessern, dass ein falsches Objekt unterhalb der Bodenebene richtig detektiert wird.
  • 11a und 11b veranschaulichen die Lidar-Rücksignale für das Szenario, bei dem sich falsche Objekte in dem Signal befinden. Wie es in 11a gezeigt ist, fährt ein Fahrzeug 52 vor dem gefahrenen Fahrzeug. Es sind Lidar-Rücksignale vorhanden; allerdings sind jeweilige Abschnitte der Rücksignale mit einer größeren Distanz als erwartet angeordnet. In 11 b ist eine Lidar-Signalrückführung 54 weiter von der Stelle versetzt, an der sich die anderen Rücksignale befinden. Dies gibt an, dass das Signal eine weitere Strecke zurückgelegt hat, um von dem Fahrzeug 52 abzuprallen. Da sich die anderen Rücksignale im Vergleich zu dem Rücksignal 54 im Wesentlichen an der gleichen Stelle befinden, wird ermittelt, dass das Rücksignal ein falsches Objekt angibt, was angibt, dass eine spiegelartige Oberfläche vorhanden ist.
  • Die hierin beschriebenen vorgeschlagenen Techniken können bei anderen Ausführungsformen als Fahrzeuganwendungen verwendet werden, um eine Trennung zwischen Objekten und Hintergründen mit unterschiedlichem Reflexionsvermögen zu ermitteln, wie beispielsweise bei einer Verwendung von Lidar für eine Schiffsdetektion auf dem Meer. Es ist zu verstehen, dass die obigen Techniken nicht auf Kraftfahrzeuganwendungen beschränkt sind, sondern bei Anwendungen, die keine Kraftfahrzeuge umfassen, verwendet werden können.
  • Ferner können Lidar-Abtastungen zu dichten Punktwolken kombiniert werden (falls Eigenbewegungssensoren verfügbar sind, aus denen Eigenbewegung geschätzt werden kann), und die gleiche Analyse kann auf Punktwolkenstücke angewandt werden, was eine umfassende Information über die Fahrbahn in der Umgebung des Fahrzeugs liefert.
  • Während bestimmte Ausführungsformen der vorliegenden Erfindung ausführlich beschrieben wurden, wird der Fachmann, den diese Erfindung betrifft, verschiedene alternative Entwürfe und Ausführungsformen zum Ausführen der Erfindung, wie sie durch die folgenden Ansprüche definiert ist, erkennen.

Claims (10)

  1. Verfahren zum Ermitteln eines Oberflächenzustands einer Fahrstraße, wobei das Verfahren die Schritte umfasst: Übertragen eines Lichtstrahls, der auf eine Oberfläche der Fahrstraße gelenkt wird, unter Verwendung eines Lidar-Systems; Analysieren einer Reaktion an einem Photodetektor des Lidar-Systems nach der Übertragung des Lichtstrahls; Ermitteln, ob eine Form von Niederschlag auf der Fahrstraße vorhanden ist, in Ansprechen auf die Analyse der Reaktion an dem Photodetektor; Erzeugen eines Niederschlag angebenden Signals in Ansprechen auf die Ermittlung, dass die Bodenoberfläche eine Form von Niederschlag auf der Fahrstraße umfasst.
  2. Verfahren nach Anspruch 1, wobei das Analysieren einer Reaktion an dem Photodetektor umfasst, dass ermittelt wird, ob ein Reflexionssignal an dem Photodetektor empfangen wird, wobei kein Empfang eines Reflexionssignals durch den Photodetektor angibt, dass die Form von Niederschlag auf der Fahrstraße vorhanden ist.
  3. Verfahren nach Anspruch 2, wobei eine sekundäre Erfassungseinrichtung zusammenwirkend mit dem Lidar-System verwendet wird, um eine Wahrscheinlichkeit eines Ermittelns von Niederschlag auf der Oberfläche der Straße zu erhöhen.
  4. Verfahren nach Anspruch 1, wobei die Reaktion umfasst, dass Lichtsignale an dem Photodetektor empfangen werden, wobei die Streuung der Lichtsignale bei der empfangenen Reaktion im Vergleich zu einem erwarteten Reflexionssignal erhöht ist, wenn Niederschlag vorhanden ist.
  5. Verfahren nach Anspruch 4, wobei das Ermitteln, ob eine Streuung des Lichtsignals vorhanden ist, die Schritte umfasst: Anwenden eines sich verschiebenden Fensters auf ein reflektiertes Signal, das durch den Photodetektor empfangen wird; Anwenden einer Merkmalsextraktionstechnik auf jedes jeweilige Fenster des empfangenen reflektierten Signals; Identifizieren, ob eine Streuung in dem reflektierten Signal vorhanden ist, in Ansprechen auf das Analysieren der extrahierten Merkmale von jedem jeweiligen Fenster.
  6. Verfahren nach Anspruch 1, wobei das Analysieren einer Reaktion an dem Photodetektor umfasst, dass ermittelt wird, ob ein falsches Objekt an einer reflektierenden Oberfläche auf der Fahrstraße vorhanden ist.
  7. Verfahren nach Anspruch 6, wobei das falsche Objekt basierend auf der Distanz, die sich über eine Distanz zu einem Schnittpunkt des Lichtstrahls und der Oberfläche der Straße hinaus erstreckt, als Objekte, die sich unter der Oberfläche der Straße befinden, analysiert wird.
  8. Verfahren nach Anspruch 6, wobei die Distanz zu dem falschen Objekt außerhalb eines vorbestimmten Schwellenwerts einer erwarteten Distanz zu der Oberfläche der Straße.
  9. Verfahren nach Anspruch 6, wobei das Analysieren einer Reaktion an dem Photodetektor, das das Ermitteln, ob ein falsches Objekt an einer reflektierenden Oberfläche auf der Fahrstraße vorhanden ist, umfasst, die Schritte umfasst: Identifizieren einer Bodenebene unter Verwendung einer Ebenenanpassung; Identifizieren von Punkten eines falschen Objekts, die sich unter der Oberfläche der Straße befinden; Zusammentragen von Punkten eines falschen Objekts von einer Vielzahl von reflektierten Strahlen, die durch den Photodetektor empfangen werden, wobei die Vielzahl von reflektierten Strahlen die Oberfläche der Straße an im Wesentlichen der gleichen Stelle der Fahrbahn schneidet;
  10. Verfahren nach Anspruch 9, wobei eine sekundäre Erfassungseinrichtung zusammenwirkend mit dem Lidar-System verwendet wird, um eine Wahrscheinlichkeit eines Ermittelns von Niederschlag auf der Oberfläche der Straße zu erhöhen.
DE102015121270.6A 2014-12-22 2015-12-07 Verfahren zum Ermitteln eines Oberflächenzustands einer Fahrstraße Active DE102015121270B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/578,638 US9453941B2 (en) 2014-12-22 2014-12-22 Road surface reflectivity detection by lidar sensor
US14/578,638 2014-12-22

Publications (2)

Publication Number Publication Date
DE102015121270A1 true DE102015121270A1 (de) 2016-06-23
DE102015121270B4 DE102015121270B4 (de) 2022-02-03

Family

ID=56099813

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015121270.6A Active DE102015121270B4 (de) 2014-12-22 2015-12-07 Verfahren zum Ermitteln eines Oberflächenzustands einer Fahrstraße

Country Status (3)

Country Link
US (1) US9453941B2 (de)
CN (1) CN105717514B (de)
DE (1) DE102015121270B4 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017219610A1 (de) * 2017-11-06 2019-05-09 Robert Bosch Gmbh Verfahren zur Bestimmung eines Typus eines Hydrometeors
DE102020210269A1 (de) 2020-08-13 2022-02-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln von Fahrbahnbedingungen
DE102021109100A1 (de) 2021-04-13 2022-10-13 Valeo Schalter Und Sensoren Gmbh Automatische Erkennung von Nässe auf einer Fahrbahnoberfläche
DE102017106535B4 (de) 2016-03-30 2023-09-21 GM Global Technology Operations LLC Verfahren zur Feststellung eines Oberflächenzustandes eines Bewegungsweges

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9616773B2 (en) 2015-05-11 2017-04-11 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service
US10048700B1 (en) * 2015-12-01 2018-08-14 Amazon Technologies, Inc. Generating state information for autonomous vehicles
US10712160B2 (en) 2015-12-10 2020-07-14 Uatc, Llc Vehicle traction map for autonomous vehicles
US20170168495A1 (en) * 2015-12-10 2017-06-15 Uber Technologies, Inc. Active light sensors for determining expected traction value of a road segment
US9840256B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9841763B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
KR102373926B1 (ko) * 2016-02-05 2022-03-14 삼성전자주식회사 이동체 및 이동체의 위치 인식 방법
US9990548B2 (en) 2016-03-09 2018-06-05 Uber Technologies, Inc. Traffic signal analysis system
US10459087B2 (en) 2016-04-26 2019-10-29 Uber Technologies, Inc. Road registration differential GPS
US9672446B1 (en) 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
US10852744B2 (en) 2016-07-01 2020-12-01 Uatc, Llc Detecting deviations in driving behavior for autonomous vehicles
US10183677B2 (en) * 2016-09-20 2019-01-22 Ford Global Technologies, Llc Ice and snow detection systems and methods
KR101843866B1 (ko) * 2016-11-30 2018-05-14 네이버 주식회사 라이다 데이터를 이용하여 도로 영역과 차선을 검출하는 방법 및 그 시스템
US10745009B2 (en) * 2016-12-21 2020-08-18 Samsung Electronics Co., Ltd. Electronic apparatus for determining a dangerous situation of a vehicle and method of operating the same
EP3553566B1 (de) * 2016-12-29 2022-06-22 Huawei Technologies Co., Ltd. Verfahren und vorrichtung zur erkennung der bodenumgebung
EP3566078A1 (de) * 2017-01-03 2019-11-13 Innoviz Technologies Ltd. Lidar-systeme und verfahren zur detektion und klassifizierung von objekten
US10725171B2 (en) * 2017-01-27 2020-07-28 Massachusetts Institute Of Technology Method and system for localization of a vehicle using surface penetrating radar
US10460053B2 (en) 2017-04-24 2019-10-29 Toyota Research Institute, Inc. Systems and methods for surface property identification using waveform classification
CN107169469B (zh) * 2017-06-02 2020-06-19 南京理工大学 一种基于机器学习的mimo雷达的材料识别方法
US10491807B2 (en) * 2017-06-27 2019-11-26 GM Global Technology Operations LLC Method to use vehicle information and sensors for photography and video viewing recording
CN109139893B (zh) * 2017-06-27 2020-06-16 广西大学 一种agv叉车颠簸路面识别方法
US10605924B2 (en) * 2017-08-02 2020-03-31 GM Global Technology Operations LLC Method and apparatus cross segment detection in a lidar system
DE102017219048A1 (de) * 2017-10-25 2019-04-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen eines Zustands einer Fahrbahn eines Fahrzeugs
EP3480624B1 (de) * 2017-11-07 2021-12-29 Veoneer Sweden AB Erkennung der parkreihenausrichtung
JP6769945B2 (ja) * 2017-12-26 2020-10-14 株式会社日立製作所 媒質センサー装置および監視システム
US10901424B2 (en) 2018-03-28 2021-01-26 Wipro Limited Method and system for generating a safe navigation path in real-time for navigating a vehicle
US10641391B2 (en) 2018-04-23 2020-05-05 GM Global Technology Operations LLC System and method for CVT clamp control based on oncoming conditions in a vehicle propulsion system
US11334753B2 (en) 2018-04-30 2022-05-17 Uatc, Llc Traffic signal state classification for autonomous vehicles
US11592566B2 (en) 2019-08-15 2023-02-28 Volvo Car Corporation Vehicle systems and methods utilizing LIDAR data for road condition estimation
US11124193B2 (en) 2018-05-03 2021-09-21 Volvo Car Corporation System and method for providing vehicle safety distance and speed alerts under slippery road conditions
US11333740B2 (en) 2018-06-04 2022-05-17 Uatc, Llc Determining specular reflectivity characteristics using Lidar
US10627516B2 (en) 2018-07-19 2020-04-21 Luminar Technologies, Inc. Adjustable pulse characteristics for ground detection in lidar systems
CN109507678B (zh) * 2018-11-26 2023-02-03 广东小天才科技有限公司 用于路面避险的提醒方法、系统、设备及存储介质
US20200189463A1 (en) * 2018-12-13 2020-06-18 Waymo Llc Detecting puddles and standing water
CN109782274B (zh) * 2019-01-31 2023-05-16 长安大学 一种基于探地雷达信号时频统计特征的水损害识别方法
WO2020197614A1 (en) * 2019-03-27 2020-10-01 Panosense Inc. Identifying and/or removing false positive detections from lidar sensor output
US11480686B2 (en) 2019-03-27 2022-10-25 Zoox, Inc. Identifying and/or removing false positive detections from lidar sensor output
US11740335B2 (en) * 2019-03-27 2023-08-29 Zoox, Inc. Identifying and/or removing false positive detections from LIDAR sensor output
CN110298311B (zh) * 2019-06-28 2021-05-07 北京智行者科技有限公司 路面积水检测方法及装置
US11021159B2 (en) * 2019-07-10 2021-06-01 Ford Global Technologies, Llc Road surface condition detection
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
US11126891B2 (en) 2019-09-11 2021-09-21 Toyota Research Institute, Inc. Systems and methods for simulating sensor data using a generative model
US11727169B2 (en) 2019-09-11 2023-08-15 Toyota Research Institute, Inc. Systems and methods for inferring simulated data
US11150348B2 (en) 2019-10-02 2021-10-19 Cepton Technologies, Inc. Techniques for detecting cross-talk interferences in lidar imaging sensors
FR3105143B1 (fr) * 2019-12-20 2021-12-17 Valeo Vision Procédé de détection d’un état local de la route sur laquelle circule un véhicule automobile
US20210223776A1 (en) * 2020-01-22 2021-07-22 Ati Motors Inc. Autonomous vehicle with on-board navigation
JPWO2021199609A1 (de) * 2020-04-03 2021-10-07
US11673581B2 (en) * 2020-12-11 2023-06-13 Waymo Llc Puddle occupancy grid for autonomous vehicles
SE2150236A1 (en) * 2021-03-02 2022-09-03 Klimator Ab Method and arrangement for determining a condition of a road surface
US20230092933A1 (en) * 2021-08-09 2023-03-23 Lyft, Inc. Systems and methods for detecting an environment external to a personal mobile vehicle in a fleet management system
EP4202861A1 (de) * 2021-12-24 2023-06-28 Hyundai Mobis Co., Ltd. Verfahren und vorrichtung zur klassifizierung von end-zu-end-wetter- und strassenbedingungen in echtzeit unter verwendung von lidar

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1235773A (en) * 1983-12-23 1988-04-26 Shigeto Nakayama Device for detecting road surface condition
JPH0789059B2 (ja) * 1987-01-14 1995-09-27 株式会社日立製作所 視覚センサシステム
EP0380659A4 (en) * 1987-10-02 1992-07-15 Kabushiki Kaisha Komatsu Seisakusho Method of recognizing linear pattern
US6166645A (en) * 1999-01-13 2000-12-26 Blaney; Kevin Road surface friction detector and method for vehicles
DE19932094A1 (de) 1999-07-09 2001-01-25 Daimler Chrysler Ag Multisensorielle, vorausschauende Straßenzustandserkennung
AU2004219513B2 (en) * 2003-03-14 2009-08-27 Liwas Aps A device for detection of road surface condition
JP4687563B2 (ja) * 2006-05-23 2011-05-25 株式会社デンソー 車両用レーンマーク認識装置
US7872764B2 (en) * 2007-10-16 2011-01-18 Magna Electronics Inc. Machine vision for predictive suspension
US8699754B2 (en) * 2008-04-24 2014-04-15 GM Global Technology Operations LLC Clear path detection through road modeling
US20100019964A1 (en) * 2008-07-24 2010-01-28 Gm Global Technology Operations, Inc. Adaptive vehicle control system with driving style recognition and road condition recognition
US8364334B2 (en) * 2008-10-30 2013-01-29 Honeywell International Inc. System and method for navigating an autonomous vehicle using laser detection and ranging
US8306672B2 (en) 2009-09-09 2012-11-06 GM Global Technology Operations LLC Vehicular terrain detection system and method
DE102011015527A1 (de) 2010-06-15 2011-12-15 Wabco Gmbh Sensor zur berührungslosen Bestimmung der Fahrbahnbeschaffenheit und dessen Verwendung
DE102011015457A1 (de) * 2010-06-30 2012-01-05 Wabco Gmbh Verfahren und Vorrichtung zur Erkennung einer Fahrzeugbewegung
US9460353B2 (en) 2010-09-16 2016-10-04 California Institute Of Technology Systems and methods for automated water detection using visible sensors
CN103403577B (zh) * 2011-03-02 2015-02-11 丰田自动车株式会社 激光雷达装置
US20120330513A1 (en) * 2011-06-24 2012-12-27 Gm Global Technology Operations Llc. Air dam actuation system
KR101326991B1 (ko) * 2011-12-01 2013-11-13 현대자동차주식회사 노면의 성질 감지 장치 및 그 방법
DE102013002333A1 (de) * 2013-02-12 2014-08-14 Continental Teves Ag & Co. Ohg Verfahren und Strahlensensormodul zur vorausschauenden Straßenzustandsbestimmung in einem Fahrzeug
US9207323B2 (en) * 2013-04-11 2015-12-08 Google Inc. Methods and systems for detecting weather conditions including wet surfaces using vehicle onboard sensors
KR101519199B1 (ko) * 2013-05-09 2015-05-11 현대자동차주식회사 도로의 노면 상태 감지시스템 및 방법
US8825260B1 (en) * 2013-07-23 2014-09-02 Google Inc. Object and ground segmentation from a sparse one-dimensional range data
US9139204B1 (en) * 2014-06-12 2015-09-22 GM Global Technology Operations LLC Road surface condition detection with recursive adaptive learning and validation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017106535B4 (de) 2016-03-30 2023-09-21 GM Global Technology Operations LLC Verfahren zur Feststellung eines Oberflächenzustandes eines Bewegungsweges
DE102017219610A1 (de) * 2017-11-06 2019-05-09 Robert Bosch Gmbh Verfahren zur Bestimmung eines Typus eines Hydrometeors
DE102020210269A1 (de) 2020-08-13 2022-02-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln von Fahrbahnbedingungen
DE102021109100A1 (de) 2021-04-13 2022-10-13 Valeo Schalter Und Sensoren Gmbh Automatische Erkennung von Nässe auf einer Fahrbahnoberfläche

Also Published As

Publication number Publication date
US9453941B2 (en) 2016-09-27
CN105717514B (zh) 2019-01-29
DE102015121270B4 (de) 2022-02-03
US20160178802A1 (en) 2016-06-23
CN105717514A (zh) 2016-06-29

Similar Documents

Publication Publication Date Title
DE102015121270B4 (de) Verfahren zum Ermitteln eines Oberflächenzustands einer Fahrstraße
DE102004016025B4 (de) Verfahren zur Klassifizierung eines Objektstandorts eines 3D-Objekts an einer Seite eines Transportfahrzeugs
DE102004016024B4 (de) Ausfilterung eines stillstehenden Objekts für ein Seitenobjekterfassungssystem
DE102004016023B4 (de) Verfahren zur Objektklassifizierung aus Daten eines seitwärts gerichteten Sensors
DE102013113619B4 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102009043385B4 (de) Vorrichtung und Verfahren zum Optimieren einer Fahrzeugkollisions-Vorbereitungsreaktion
DE102008003948B4 (de) Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird
DE10152078B4 (de) Verfahren und Objekterfassungssystem zur Unterscheidung von detektierten Objekten auf dem Weg eines Fahrzeugs
DE102007043164B4 (de) Nebelerkennungsvorrichtung für Kraftfahrzeuge
DE112016004777T5 (de) Objektmeldevorrichtung
DE102015109238B4 (de) Verfahren zum ermitteln eines zustands eines nassen strassenbelags für ein fahrzeug, das auf einer strasse fährt
DE102007023037A1 (de) Objekterkennungsvorrichtung
DE102010027647A1 (de) Laserbasiertes Verfahren zur Reibwertklassifikation in Kraftfahrzeugen
DE102018104243B3 (de) Verfahren und System zur Erkennung von für ein Fahrzeug geeigneten Parklücken
DE112013003276T5 (de) Objekterkennungseinrichtung
DE102017119042A1 (de) Vermeidung von Totwinkelwarnungen durch Gischt
DE102020118067A1 (de) Erkennung von strassenoberflächenbedingungen
DE102016225494A1 (de) Verfahren und vorrichtung zum erfassen eines zielobjekts
DE10344299B4 (de) Klassifizierung der in einer Umgebung eines Kraftfahrzeugs befindlichen Objekte
DE102018222036A1 (de) Verfahren und Steuereinrichtung zur Objekterfassung im Umfeld eines Fahrzeugs
WO2019162317A1 (de) Verfahren zur erzeugung von sensordaten für sicherheitskritische automobil-steuergeräte
EP3867666B1 (de) Verfahren zur erfassung wenigstens von partikelzusammensetzungen in einem überwachungsbereich mit einer optischen detektionsvorrichtung und detektionsvorrichtung
DE102009046597A1 (de) Verfahren und Einrichtung für die Störungsverminderung bei einem Lidarsystem
DE112019006516T5 (de) Fahrassistenzvorrichtung
US20090297049A1 (en) Detection of partially occluded targets in ladar images

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01B0011300000

Ipc: G01N0021550000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final