DE202018100323U1 - LIDAR-Sensorfensterkonfiguration für verbesserte Datenintegrität - Google Patents

LIDAR-Sensorfensterkonfiguration für verbesserte Datenintegrität Download PDF

Info

Publication number
DE202018100323U1
DE202018100323U1 DE202018100323.2U DE202018100323U DE202018100323U1 DE 202018100323 U1 DE202018100323 U1 DE 202018100323U1 DE 202018100323 U DE202018100323 U DE 202018100323U DE 202018100323 U1 DE202018100323 U1 DE 202018100323U1
Authority
DE
Germany
Prior art keywords
sensor
sensor window
window
optical
housing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202018100323.2U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waymo LLC
Original Assignee
Waymo LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waymo LLC filed Critical Waymo LLC
Publication of DE202018100323U1 publication Critical patent/DE202018100323U1/de
Expired - Lifetime legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
    • G01S2007/4977Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen including means to prevent or remove the obstruction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

System zum Bestimmen, ob sich eine optische Störung auf einem Sensorfenster befindet, wobei das System Folgendes umfasst:ein Gehäuse, das ein erstes Sensorfenster und ein zweites Sensorfenster beinhaltet, wobei das erste Sensorfenster eine erste äußere Oberflächeneigenschaft zum Ablenken von Wasser und das zweite Sensorfenster eine zweite äußere Oberflächeneigenschaft zum Ablenken von Wasser aufweist, die sich von der ersten äußeren Oberflächeneigenschaft unterscheidet;eine Laserlichtquelle, die konfiguriert ist, einen Lichtstrahl durch mindestens das erste Sensorfenster zu generieren;einen optischen Sensor; undeinen oder mehrere Prozessoren, die konfiguriert sind zum:Empfangen von Sensordaten, die dem Licht des von dem optischen Sensor erkannten Lichtstrahls entsprechen, der die Abstände von dem optischen Sensor zu einem Objekt in einer äußeren Umgebung des Gehäuses identifiziert; undBestimmen, dass sich ein optisches Störungselement auf einer Oberfläche von mindestens einem von dem ersten Sensorfenster und dem zweiten Sensorfenster befindet, basierend auf einem Vergleich zwischen einem Teil der Sensordaten von dem ersten Sensorfenster, der dem Objekt entspricht, und einem Teil der Sensordaten von dem zweiten Sensorfenster, der dem Objekt entspricht.

Description

  • HINTERGRUND
  • Autonome Fahrzeuge, wie z. B. Fahrzeuge, die keinen menschlichen Fahrer benötigen, können für den Transport von Personen oder Gegenständen von einem Ort zu einem anderen eingesetzt werden. Diese Fahrzeuge können in einem völlig autonomen Fahrmodus betrieben werden, bei dem die Fahrgäste eine erste Eingabe, wie z. B. ein Ziel, tätigen können und das Fahrzeug sich selbst zu diesem Ziel manövriert. Daher können diese Fahrzeuge weitgehend von Systemen abhängig sein, die in der Lage sind, den Standort des autonomen Fahrzeugs zu einem bestimmten Zeitpunkt zu bestimmen, sowie Objekte außerhalb des Fahrzeugs, wie z. B. andere Fahrzeuge, Bremslichter, Fußgänger usw., zu erkennen und zu identifizieren. Dazu gehören beispielsweise Sensoren, wie z. B. Laserscanner und Kameras, die an verschiedenen Stellen in dem Fahrzeug montiert sind.
  • Während diese Sensoren in vielen verschiedenen Konfigurationen erhältlich sind, kann ein („Light detection and ranging“) LIDAR-Sensor beispielsweise mindestens eine Laserlichtquelle, einen optischen Sensor und eine Steuereinheit beinhalten. Die Laserlichtquelle stellt einen gepulsten Lichtstrahl in die Umgebung des LIDAR-Sensors bereit. Jedes Licht von dem Lichtstrahl, das von einem Objekt zurück zum LIDAR-Sensor reflektiert wird, wird vom optischen Sensor erkannt. Der Abstand von dem reflektierenden Objekt wird von der Steuereinheit bestimmt, und eine Aufzeichnung der Oberfläche als Objekt im Raum aufgezeichnet. Die Sensordaten von aufeinanderfolgenden Messungen können zum Generieren einer 3D-Karte der Umgebung verwendet werden. Die Nützlichkeit jener Karten hängt davon ab, dass Sensor und Laser eine ungehinderte Sicht durch die Sensorfenster haben.
  • So kann z. B. ein Bereich des Sensorfensters mit Staub, Schmutz, Schlamm, Salz, Laub, Wasser oder anderen Substanzen oder Ablagerungen verunreinigt werden, die als optische Störelemente wirken. In diesem Zusammenhang stört das optische Störelement den Weg des Lichtstrahls von der Laserlichtquelle weg von dem Sensorfenster und/oder den Weg des reflektierten Lichts von dem Lichtstrahl zurück durch das Sensorfenster zu dem optischen Sensor. Somit kann das optische Störungselement dazu führen, dass der LIDAR-Sensor falsche Informationen für den Bereich des Sensorfensters generiert.
  • Dadurch kann die Leistungsfähigkeit des LIDAR-Sensors beeinträchtigt werden oder die von dem LIDAR-Sensor generierten Daten (Sensordaten) können völlig ungültig werden. So dämpft z. B. ein opakes optisches Störungselement auf dem Sensorfenster den Lichtstrahl und blockiert die Funktion in dem betroffenen Scanbereich. Wasser oder eine andere transparente Flüssigkeit kann den Lichtstrahl nicht vollständig blockieren, Wasser kann jedoch wie eine Linse wirken und den Lichtstrahl ablenken. Die großflächige Ablenkung hat die Wirkung, dass die Intensität des wiederkehrenden oder reflektierten Lichts reduziert wird, ähnlich dem opaken optischen Störungselement. Strahlablenkungen mit kleinerem Winkel können falsche Daten an den optischen Sensor zurückgeben, was zu gültig erscheinenden Messungen von Objekten führt, die sich an Standorten befinden, die sich von denen unterscheiden, auf die der LIDAR-Sensor den Lichtstrahl tatsächlich ausrichtet. In einigen Fällen verschlechterten sich die Sensordaten von dem abgelenkten Licht derart, dass das Rauschen des LIDAR-Sensors die gewünschten Sensordaten überlagert. Daher werden die Sensordaten nutzlos und unbrauchbar für die Computergeräte des Fahrzeugs, wodurch potenziell gefährliche Situationen entstehen.
  • KURZE ZUSAMMENFASSUNG
  • Aspekte der Offenbarung stellen ein System bereit, mit dem bestimmt werden kann, ob sich ein optisches Störungselement auf einem Sensorfenster befindet. Das System beinhaltet ein Gehäuse. Das Gehäuse beinhaltet ein erstes Sensorfenster und ein zweites Sensorfenster. Das erste Sensorfenster weist eine erste äußere Oberflächeneigenschaft zum Ablenken von Wasser auf, und das zweite Sensorfenster weist eine zweite äußere Oberflächeneigenschaft zum Ablenken von Wasser auf, die sich von der ersten äußeren Oberflächeneigenschaft unterscheidet. Das System beinhaltet zudem eine Laserlichtquelle, die konfiguriert ist, einen Lichtstrahl durch mindestens das erste Sensorfenster, einen optischen Sensor und einen oder mehrere Prozessoren generiert. Der eine oder die mehreren Prozessoren sind konfiguriert, Sensordaten zu empfangen, die dem Licht des Lichtstrahls entsprechen, der von dem optischen Sensor erkannt wird, der Abstände von dem optischen Sensor zu einem Objekt in einer externen Umgebung des Gehäuses identifiziert, und dass sie bestimmen, dass sich ein optisches Störungselement auf einer Oberfläche von mindestens einem von dem ersten Sensorfenster und dem zweiten Sensorfenster befindet, basierend auf einem Vergleich zwischen einem Teil der Sensordaten des ersten Sensorfensters, der dem Objekt entspricht, und einem Teil der Sensordaten des zweiten Sensors.
  • In einem Beispiel entspricht die erste äußere Oberflächeneigenschaft einer äußeren Oberfläche des ersten Sensorfensters, die hydrophober als eine äußere Oberfläche des zweiten Sensorfensters ist. In einem anderen Beispiel entspricht die erste äußere Oberflächeneigenschaft einer äußeren Oberfläche des ersten Sensorfensters, die hydrophiler als eine äußere Oberfläche des zweiten Sensorfensters ist. In einem anderen Beispiel entspricht die erste äußere Oberflächeneigenschaft einer ersten Beschichtung, die auf das erste Sensorfenster aufgetragen wird. In diesem Beispiel entspricht die zweite äußere Oberflächeneigenschaft einer zweiten Beschichtung, die auf das zweite Sensorfenster aufgetragen wird, wobei die erste Beschichtung und die zweite Beschichtung unterschiedliche Eigenschaften zum Ablenken von Wasser aufweisen. Außerdem entspricht die erste äußere Oberflächeneigenschaft einem ersten Material des ersten Sensorfensters. Zusätzlich oder alternativ entspricht die zweite äußere Oberflächeneigenschaft einem zweiten Material des zweiten Sensorfensters, wobei das erste Material und das zweite Material unterschiedliche Eigenschaften zum Ablenken von Wasser aufweisen. In einem anderen Beispiel beinhaltet der Vergleich einen Vergleich von einem ersten Abstand zu einem Objekt, der von dem Teil der Sensordaten von dem ersten Sensorfenster bestimmt wurde, und einem zweiten Abstand zu dem Objekt, der von dem Teil der Sensordaten von dem zweiten Sensorfenster bestimmt wurde. In diesem Beispiel entsprechen der erste Abstand und der zweite Abstand unterschiedlichen Positionen eines Objekts, die innerhalb eines vorgegebenen Zeitraums erkannt wurden. In einem anderen Beispiel umfassen das erste Sensorfenster und das zweite Sensorfenster verschiedene Teile eines einzelnen Fensters. In einem anderen Beispiel ist das optische Störungselement Wasser.
  • In einem anderen Beispiel beinhaltet das System auch ein Fahrzeug, und das Gehäuse ist an dem Fahrzeug befestigt. In diesem Beispiel werden der eine oder die mehreren Prozessoren konfiguriert, das Fahrzeug in einem autonomen Fahrmodus basierend auf dem Vergleich zu steuern. Zusätzlich werden der eine oder die mehreren Prozessoren weiterhin konfiguriert, um dann, wenn der Vergleich angibt, dass sich das optische Störungselement auf dem ersten Sensorfenster befindet, die Sensordaten von dem ersten Sensorfenster vorübergehend zu ignorieren, wenn das Fahrzeug in dem autonomen Fahrmodus gesteuert wird. Zusätzlich oder alternativ werden der eine oder die mehreren Prozessoren weiter konfiguriert, um dann, wenn der Vergleich anzeigt, dass sich das optische Störungselement auf dem zweiten Sensorfenster befindet, die Sensordaten von dem zweiten Sensorfenster vorübergehend zu ignorieren, wenn das Fahrzeug in dem autonomen Fahrmodus gesteuert wird.
  • In einem anderen Beispiel ist das Gehäuse konfiguriert, sich zu drehen, sodass die Laserlichtquelle konfiguriert ist, einen Lichtstrahl durch das erste Sensorfenster und das zweite Sensorfenster zu unterschiedlichen Zeiten zu generieren, während sich das Gehäuse dreht. Zusätzlich oder alternativ beinhaltet das System auch ein Spiegelelement, das so konfiguriert ist, dass es den Lichtstrahl sowohl durch das erste Sensorfenster als auch durch das zweite Sensorfenster zu unterschiedlichen Zeiten dreht und reflektiert, während sich das Gehäuse dreht. In einem anderen Beispiel beinhaltet das System zudem eine zweite Laserlichtquelle, die konfiguriert ist, einen zweiten Lichtstrahl durch das zweite Sensorfenster zu generieren, während die Laserlichtquelle den Lichtstrahl durch das erste Sensorfenster generiert. In diesem Beispiel ist die zweite Laserlichtquelle relativ zu dem zweiten Sensorfenster fixiert, während die Laserlichtquelle relativ zu dem ersten Sensorfenster fixiert ist. Zusätzlich oder alternativ dazu ist das Gehäuse konfiguriert, um 360 Grad drehbar zu sein, sodass sich die Laserlichtquelle und die zweite Laserlichtquelle mit dem Gehäuse drehen.
  • Figurenliste
    • 1 zeigt ein Funktionsschema eines exemplarischen Fahrzeugs in Übereinstimmung mit Aspekten der Offenbarung gemäß Aspekten der Offenbarung.
    • 2 zeigt eine exemplarische Außenansicht des exemplarischen Fahrzeugs von 1 gemäß Aspekten der Offenbarung.
    • 3A und 3B zeigen Ansichten eines exemplarischen LIDAR-Sensors gemäß den Aspekten der Offenbarung.
    • 4A und 4B zeigen Ansichten eines anderen exemplarischen LIDAR-Sensors gemäß Aspekten der Offenbarung.
    • 5 zeigt ein exemplarisches Ablaufdiagramm gemäß Aspekten der Offenbarung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Aspekte der Technologie beziehen sich auf Bestimmen, ob ein Sensorfenster eines LIDAR-Sensors mit einem oder mehreren optischen Störungselementen verunreinigt ist. Dazu können die Sensorfenster mit unterschiedlichen Oberflächeneigenschaften konfiguriert werden. Wenn die Sensorfenster beispielsweise aus Glas oder Kunststoff bestehen, kann die Außenfläche mit einer permanenten Beschichtung versehen sein, um die Eigenschaften in Bezug auf das Verhalten von optischen Störungselementen auf dem Fenster zu variieren. In diesem Zusammenhang kann ein Sensorfenster eine hydrophobe Beschichtung aufweisen, während ein anderes Fenster eine hydrophile Beschichtung aufweisen kann. So kann z. B. ein erstes Sensorfenster eine hydrophobere Oberfläche als ein zweites von den Sensorfenstern aufweisen. Daher kann das zweite der Sensorfenster eine hydrophilere Oberfläche als das erste von den Sensorfenstern aufweisen.
  • Wenn der LIDAR-Sensor die Umgebung abtastet, kann dieser Informationen durch jedes der Sensorfenster mit unterschiedlichen Oberflächeneigenschaften empfangen. So befinden sich z. B. zwei Sensorfenster an unterschiedlichen Positionen auf dem Gehäuse. Ein oder mehrere Laser können einen Strahl durch ein oder beide Sensorfenster lenken. Abhängig von der Konfiguration des LIDAR-Sensors gibt das Laserlicht, das durch jedes der Fenster fällt, Informationen für denselben physischen Bereich, z. B. dasselbe Objekt, zurück.
  • Unter allen Bedingungen (unabhängig davon, ob eines oder mehrere der Sensorfenster verunreinigt sind oder nicht) ist es möglich, die entsprechenden Datenpunkte, die von jedem Sensorfenster zurückgegeben werden, zu vergleichen und einen allgemeinen Vergleich auszuführen. Wie zuvor erwähnt, wird jedes Sensorfenster Datenpunkte für einen bestimmten Bereich erzeugt haben. Aufgrund der unterschiedlichen hydrophilen und hydrophoben Oberflächeneigenschaften kann es vorkommen, dass bei nassen Sensorfenstern das gleiche Objekt in unterschiedlichen Abständen von dem LIDAR-Sensor zu liegen scheint, abhängig von den Oberflächeneigenschaften des Fensters, durch das die Sensordaten generiert wurden. Die Abstände dieser Punkte können dann verglichen werden, um zu bestimmen, ob es mindestens eine Schwellenanzahl von Punkten gibt, die mindestens einen minimalen Änderungsbetrag des Abstands aufweisen.
  • Das Erkennen einer Schwellenanzahl von Differenzen kann genutzt werden, um zu bestimmen, ob die Sensorfenster nass oder anderweitig verunreinigt sind. In einigen Fällen kann die Erkennung einer Differenz verwendet werden, um zu bestimmen, welche Daten (oder eher Daten aus welchem Sensorfenster) für einen bestimmten geografischen Bereich verwendet werden sollen, oder um ein bevorzugtes Sensorfenster auszuwählen, das als Standardfenster für die gegebenen Umgebungsbedingungen verwendet werden soll. In diesem Zusammenhang können Sensordaten von dem bevorzugten Sensorfenster als zuverlässig angesehen werden, während Sensordaten aus anderen Sensorfenstern verworfen oder vorübergehend ignoriert werden können, bis sich die Bedingungen für die anderen Sensorfenster verbessern.
  • Darüber hinaus kann die Intensität des Regens oder Niederschlags relevant sein, um zu bestimmen, welches Sensorfenster die besten oder eher zuverlässigsten Daten bereitstellt, wenn man die aktuellen Umgebungsbedingungen für den LIDAR-Sensor berücksichtigt. Beispielsweise kann das Sensorfenster mit hydrophoben Oberflächeneigenschaften bei nur leichtem Regen bessere Daten bereitstellen, denn je mehr Wasser sich auf der hydrophoben Oberfläche befindet, desto größer ist der Linseneffekt. Gleichzeitig kann das Sensorfenster mit hydrophilen Oberflächeneigenschaften bei sehr starkem Regen bessere Daten bereitstellen, da das Licht weniger stark verzerrt ist.
  • EXEMPLARISCHE SYSTEME
  • Wie in 1 dargestellt, beinhaltet ein Fahrzeug 100 gemäß einem Aspekt der Offenbarung verschiedene Komponenten. Während bestimmte Aspekte der Offenbarung im Zusammenhang mit bestimmten Fahrzeugtypen besonders nützlich sind, kann es sich bei dem Fahrzeug um jeden Fahrzeugtyp handeln, einschließlich, jedoch nicht beschränkt auf, PKW, LKW, Motorräder, Busse, Wohnmobile usw. Das Fahrzeug kann ein oder mehrere Computergeräte aufweisen, wie z. B. Computergeräte 110, die einen oder mehrere Prozessoren 120, Arbeitsspeicher 130 und sonstige Komponenten beinhalten, die typischerweise in Universal-Computergeräten vorhanden sind.
  • Der Arbeitsspeicher 130 speichert von dem einen oder den mehreren Prozessoren 120 zugänglichen Informationen, einschließlich Anweisungen 132 und Daten 134, die von dem Prozessor 120 ausgeführt oder anderweitig verwendet werden können. Der Arbeitsspeicher 130 kann jeglicher Art sein, solange dieser in der Lage ist, die von dem Prozessor zugänglichen Informationen zu speichern, darunter auch ein computerlesbares Medium oder sonstiges Medium, das Daten speichert, die mithilfe eines elektronischen Geräts gelesen werden können, wie z. B. eine Festplatte, Speicherkarte, ROM, RAM, DVD oder sonstige optische Platten, sowie auch sonstige beschreibbare Speicher und schreibgeschützte Speicher. Systeme und Verfahren können unterschiedliche Kombinationen der vorstehend genannten Medien beinhalten, wobei unterschiedliche Abschnitte der Anweisungen und Daten auf unterschiedlichen Arten von Medien gespeichert werden.
  • Bei den Anweisungen 132 kann es sich um einen beliebigen Satz von Anweisungen zur direkten (wie z. B. Maschinencode) oder indirekten (wie Scripts) Ausführung durch den Prozessor handeln. Die Anweisungen können beispielsweise in Form von Computergerätecode auf einem computergerätelesbaren Medium gespeichert werden. Diesbezüglich können die Begriffe „Anweisungen“ und „Programme“ hierin austauschbar verwendet werden. Die Anweisungen können in Objektcodeformat zur direkten Verarbeitung durch einen Prozessor oder in einer anderen Computergerätesprache, einschließlich Scripts oder Sammlungen von unabhängigen Quellcodemodulen, gespeichert sein, die auf Anforderung interpretiert oder vorab kompiliert werden. Funktionen, Verfahren und Routinen der Anweisungen werden nachfolgend ausführlicher erklärt.
  • Die Daten 134 können durch den Prozessor 120 in Übereinstimmung mit den Anweisungen 132 abgerufen, gespeichert oder modifiziert werden. So können beispielsweise, obwohl der hierin beschriebene Gegenstand nicht durch eine beliebige bestimmte Datenstruktur beschränkt ist, die Daten in Computergeräteregistern in einer verwandten Datenbank als eine Tabelle gespeichert werden, die eine Vielzahl verschiedener Felder und Datensätze, XML-Dokumente oder unstrukturierten Dateien aufweisen. Die Daten können auch in jedem computerlesbaren Format formatiert werden.
  • Der eine oder die mehreren Prozessoren 120 können jeden herkömmlichen Prozessor, wie z. B. im Handel erhältliche CPUs, beinhalten. Alternativ kann der eine oder die mehreren Prozessoren ein dediziertes Gerät, wie z. B. ein ASIC oder ein anderer hardwarebasierter Prozessor, sein. Obwohl 1 funktional den Prozessor, Arbeitsspeicher und andere Elemente des Computergeräts 110 als innerhalb des gleichen Blocks befindlich veranschaulicht, ist es für Fachleute auf dem Gebiet verständlich, dass der Prozessor, das Computergerät oder der Arbeitsspeicher tatsächlich mehrere Prozessoren, Computergeräte oder Arbeitsspeicher beinhalten können, die innerhalb des gleichen physischen Gehäuses aufbewahrt sein können oder auch nicht. Beispielsweise kann der Arbeitsspeicher eine Festplatte oder ein sonstiges Speichermedium sein, das sich in einem anderen Gehäuse als demjenigen von Computergeräten 110 befindet. Dementsprechend werden Verweise auf einen Prozessor oder ein Computergerät so verstanden, dass sie Verweise auf eine Sammlung von Prozessoren oder Computergeräten oder Arbeitsspeichern beinhalten, die parallel arbeiten können oder nicht.
  • Die Computergeräte 110 können alle Komponenten beinhalten, die normalerweise in Verbindung mit einem Computergerät verwendet werden, wie z. B. den zuvor beschriebenen Prozessor und Arbeitsspeicher sowie ein Benutzereingabegerät 150 (z. B. Maus, Tastatur, Berührungsbildschirm und/oder Mikrofon) und verschiedene elektronische Anzeigen (z. B. ein Monitor mit einem Bildschirm oder ein anderes elektrisches Gerät, das zur Anzeige von Informationen betrieben werden kann). In diesem Beispiel beinhaltet das Fahrzeug eine interne elektronische Anzeige 152 sowie einen oder mehrere Lautsprecher 154, um Informationen oder audiovisuelle Erfahrungen bereitzustellen. In diesem Zusammenhang kann sich die interne elektronische Anzeige 152 in einer Kabine des Fahrzeugs 100 befinden und von den Computergeräten 110 verwendet werden, um den Fahrgästen im Fahrzeug 100 Informationen bereitzustellen.
  • Computergeräte 110 können zudem eine oder mehrere drahtlose Netzwerkverbindungen 156 beinhalten, um die Kommunikation mit anderen Computergeräten, wie z. B. Client-Computergeräten und Server-Computergeräten, die nachfolgend ausführlich beschrieben werden, zu erleichtern. Die drahtlosen Netzwerkverbindungen können Kommunikationsprotokolle für kurze Entfernungen, wie z. B. Bluetooth, Bluetooth Low Energy (LE), Mobilfunkverbindungen sowie verschiedene Konfigurationen und Protokolle, einschließlich Internet, World Wide Web, Intranets, virtuelle private Netzwerke, Großraumnetzwerke, lokale Netzwerke, private Netzwerke, die Kommunikationsprotokolle eines oder mehrerer Unternehmen verwenden, Ethernet, WLAN und HTTP sowie verschiedene Kombinationen der vorgenannten Protokolle, beinhalten.
  • In einem Beispiel kann es sich bei den Computergeräten 110 um ein autonomes Fahrcomputersystem handeln, das in das Fahrzeug 100 integriert ist. Das autonome Fahrcomputersystem kann in der Lage sein, mit verschiedenen Komponenten des Fahrzeugs zu kommunizieren, um das Fahrzeug 100 in einem völlig autonomen Fahrmodus und/oder einem teilautonomen Fahrmodus zu manövrieren. Wenn wir beispielsweise zu 1 zurückkehren, können die Computergeräte 110 mit verschiedenen Systemen des Fahrzeugs 100, wie z. B. mit dem Verzögerungssystem 160, dem Beschleunigungssystem 162, dem Lenksystem 164, dem Signalisierungssystem 166, dem Navigationssystem 168, dem Positionsbestimmungssystem 170, dem Wahrnehmungssystem 172 und dem Energiesystem 174 (z. B. einem Benzin- oder Dieselmotor oder Elektromotor), in Verbindung stehen, um die Bewegung, die Geschwindigkeit usw. des Fahrzeugs 100 gemäß den Anweisungen 132 von Arbeitsspeicher 130 zu steuern. Auch wenn diese Systeme als extern zu den Computergeräten 110 dargestellt werden, können diese Systeme in Wirklichkeit auch in die Computergeräte 110, wiederum als autonomes Fahrcomputersystem zur Steuerung des Fahrzeugs 100, integriert werden.
  • Beispielsweise können Computergeräte 110 mit dem Verzögerungssystem 160 und dem Beschleunigungssystem 162 interagieren, um die Geschwindigkeit des Fahrzeugs zu steuern. Ebenso kann das Lenksystem 164 von den Computergeräten 110 verwendet werden, um die Richtung des Fahrzeugs 100 zu steuern. Wenn z. B. Fahrzeug 100 für den Einsatz auf einer Straße, wie z. B. einem PKW oder LKW, konfiguriert ist, kann das Lenksystem Komponenten beinhalten, die den Winkel der Räder steuern, um das Fahrzeug zu wenden. Das Signalisierungssystem 166 kann von den Computergeräten 110 verwendet werden, um die Absicht des Fahrzeugs anderen Fahrern oder Fahrzeugen, z. B. durch das Beleuchten von Blinkern oder Bremslichtern, sofern erforderlich, zu signalisieren.
  • Das Navigationssystem 168 kann von Computergeräten 110 verwendet werden, um eine Route zu einem Standort zu bestimmen und zu verfolgen. In diesem Zusammenhang kann das Navigationssystem 168 und/oder die Daten 134 ausführliche Karteninformationen speichern, z. B. sehr ausführliche Karten, die die Form und Höhe von Straßen, Fahrspuren, Kreuzungen, Fußgängerüberwegen, Geschwindigkeitsbegrenzungen, Verkehrssignalen, Gebäuden, Schildern, Echtzeit-Verkehrsinformationen, Vegetation oder anderen Objekten und Informationen dieser Art identifizieren. Mit anderen Worten können diese ausführlichen Karteninformationen die Geometrie der zu erwartenden Umgebung des Fahrzeugs, einschließlich der Fahrbahnen sowie Geschwindigkeitsbeschränkungen (gesetzliche Geschwindigkeitsbegrenzungen), für diese Fahrbahnen definieren. Darüber hinaus können diese Karteninformationen auch Informationen über Verkehrssteuerungen wie Ampeln, Stoppschilder, Vorfahrt-Gewähren-Schilder usw. beinhalten, die in Verbindung mit Echtzeitinformationen, die von dem Wahrnehmungssystem 172 empfangen werden, von den Computergeräten 110 verwendet werden können, um zu bestimmen, welche Verkehrsrichtungen an einem bestimmten Ort Vorfahrt haben.
  • Das Wahrnehmungssystem 172 beinhaltet zudem eine oder mehrere Komponenten zum Erkennen von Objekten außerhalb des Fahrzeugs, wie z. B. anderen Fahrzeugen, Hindernissen auf der Fahrbahn, Ampeln, Schildern, Bäumen usw. Beispielsweise kann das Wahrnehmungssystem 172 einen oder mehrere LIDAR-Sensoren, Sonargeräte, Radargeräte, Kameras und/oder andere Erfassungsgeräte beinhalten, die Daten aufzeichnen, die von den Computergeräten 110 verarbeitet werden können. Die Sensoren des Wahrnehmungssystems können Objekte und deren Eigenschaften, wie z. B. Position, Orientierung, Größe, Form, Art, Richtung und Geschwindigkeit der Bewegung usw., erkennen. Die Rohdaten der Sensoren und/oder die vorgenannten Kenngrößen können quantifiziert oder zu einer beschreibenden Funktion oder einem Vektor angeordnet, und zur Weiterverarbeitung an die Computergeräte 110 gesendet werden. Wie nachfolgend näher erläutert, können Computergeräte 110 das Positionsbestimmungssystem 170 verwenden, um den Standort des Fahrzeugs zu bestimmen, und das Wahrnehmungssystem 172, um Objekte zu erkennen und auf diese zu reagieren, falls dies erforderlich ist, um den Standort sicher zu erreichen.
  • 2 zeigt eine exemplarische äußere Ansicht eines Fahrzeugs 100. Wie bereits erwähnt, kann das Wahrnehmungssystem 172 einen oder mehrere Sensoren, wie z. B. LIDAR-Sensor 200 und LIDAR-Sensor 210, beinhalten. Der LIDAR-Sensor 200 befindet sich auf einer „Fahrerseite“ (linke Seite aus der Rückansicht des Fahrzeugs 100), Frontplatte 202 neben einem Scheinwerfer 204. Ein entsprechender LIDAR-Sensor 200 kann auch auf einer „Beifahrerseite“ (rechte Seite aus der Rückansicht des Fahrzeugs 100) neben dem Scheinwerfer 206 (jedoch nicht sichtbar aus der Perspektive von 2) montiert werden. Diese Positionierung ermöglicht es den LIDAR-Sensoren 200, einen 180-Grad-Anteil der Umgebung des Fahrzeugs von der Fahrerseite (oder der Beifahrerseite) aus zu erfassen.
  • Der LIDAR-Sensor 210 befindet sich auf einer Dachkonsole 212 des Fahrzeugs. Diese Positionierung ermöglicht es dem LIDAR-Sensor 210, eine 360-Grad-Ansicht der Fahrzeugumgebung von oben zu erfassen, aber natürlich gibt es Bereiche unter der Dachhaut, die dem Sichtfeld des LIDAR-Sensors 210 entgehen können.
  • 3A und 3B zeigen eine exemplarische Konfiguration des LIDAR-Sensors 200. In dem Beispiel von 3B wird der LIDAR-Sensor 200, wie in 3A dargestellt, um 90 Grad im Uhrzeigersinn um eine erste Achse 316 aus der Position des LIDAR-Sensors 200 gedreht dargestellt. In diesem Beispiel beinhaltet der LIDAR-Sensor 200 ein Gehäuse 310 mit einem ersten Sensorfenster 312 und einem zweiten Sensorfenster 314. Das Gehäuse 310 ist konfiguriert, sich um eine erste Achse 316 zu drehen und dabei das erste Sensorfenster 312 und das zweite Sensorfenster 314 zu drehen. In diesem Zusammenhang kann das Gehäuse 310 an einen kleinen Elektromotor angeschlossen werden, der mit einer Steuereinheit 350 verbunden ist, die nachfolgend beschrieben wird.
  • Im Inneren des Gehäuses befinden sich eine Laserlichtquelle 320, ein Spiegelelement 330 und ein optischer Sensor 340. Die Laserlichtquelle 320 kann so konfiguriert werden, dass sie einen Lichtstrahl entlang einer zweiten Achse 322, parallel zur ersten Achse (oder in einer Linie mit derselben) ausstrahlt. Die Laserlichtquelle 320 könnte z. B. ein Halbleiter-Waveguide-Laser, ein Faserlaser, ein Excimerlaser oder ein anderes Lasersystem sein, das einen Lichtstrahl 324 (teilweise überlappend mit der Referenzlinie 318) erzeugt, der einem Strahl gleichbleibenden gepulsten Lichtes entspricht. Die Emissionswellenlänge der Laserlichtquelle 320 kann im infraroten (IR) Wellenlängenspektrum, im sichtbaren Wellenlängenspektrum oder im ultravioletten (UV) Wellenlängenspektrum liegen. Der Lichtstrahl 324 ist ein ausgehender Lichtmittelwert. Der ausgehende Strahl und der eingehende Lichtstrahl (dargestellt in 3B) können kolinear mit der ersten Achse 316 sein, wobei ein Spiegel oder ein anderes Gerät (nicht abgebildet) die Strahlen mit der Laserlichtquelle 320 und dem optischen Sensor 340, der sich seitlich an dem Gerät befindet, verbindet.
  • Das Spiegelelement 330 kann so konfiguriert werden, dass es sich um eine dritte Achse 332 dreht. Wie dargestellt, können die erste Achse und die dritte Achse senkrecht zueinander stehen, und somit können die dritte und die zweite Achse senkrecht zueinander stehen. Zusätzlich verfügt der Spiegel über 3 reflektierende Flächen 334, 336, 338, die eine dreieckige Form bilden. Die reflektierenden Oberflächen können so konfiguriert werden, dass sie Licht bei, oder im Wesentlichen bei der Emissionswellenlänge der Laserlichtquelle 320 reflektieren. In diesem Zusammenhang können die reflektierenden Oberflächen aus einem Metall, wie z. B. Aluminium, Gold, Silber oder einem anderen reflektierenden Material, geformt und/oder mit diesem beschichtet sein. Zusätzlich oder alternativ können die reflektierenden Oberflächen eine Beschichtung mit hohem Reflexionsgrad (HR) aufweisen. In einer exemplarischen Ausführungsform kann die HR-Beschichtung einen dielektrischen Stapel beinhalten, der konfiguriert ist, eingehendes Licht bei der Emissionswellenlänge zu reflektieren. Der dielektrische Stapel kann z. B. ein periodisches Schichtsystem beinhalten, das zwischen zwei Materialien mit unterschiedlichen Brechungsindizes wechselt. Andere Arten von HR-Beschichtungen sind möglich und werden hierin in Betracht gezogen.
  • Der optische Sensor 340 kann so konfiguriert werden, dass er über ein optisches Element (z. B. eine Kondensorlinse) Licht aus der Umgebung des LIDAR-Sensors 200 empfängt. Basierend auf dem empfangenen Licht kann der optische Empfänger Informationen über eine Szene der Umgebung um den LIDAR-Sensor 200 bereitstellen. Der optische Empfänger kann ein Detektor-Array mit einer Vielzahl von Einzelphotonen-Lawinendetektoren (SPADs) oder andere Arten von Fotodetektoren beinhalten, die zum Erkennen von Licht konfiguriert sind.
  • Die Steuereinheit 350 kann einen oder mehrere Prozessoren 352 und Arbeitsspeicher 354 beinhalten, die ähnlich wie die Prozessoren 120 und 130 konfiguriert sind. Die Prozessoren 352 sind konfiguriert, Anweisungen auszuführen, die in dem Arbeitsspeicher gespeichert sind, um die Position des Lasers zu steuern, die Emission eines Lichtstrahls von dem Laser zu steuern, die Drehung von Spiegel und Gehäuse 310 unter Verwendung von einem oder mehreren Elektromotoren zu steuern (nicht abgebildet) und Prozessdaten, die von dem Sensor-Array empfangen werden. Beispielsweise kann sich das Spiegelelement 330 um die dritte Achse 332 mit einer Drehfrequenz von etwa 500 kHz oder mehr oder weniger drehen, während sich das Gehäuse 310 um die erste Achse 316 mit einer Drehfrequenz von etwa 10 Hz oder mehr oder weniger drehen kann oder sich das Gehäuse 310 mit 600 U/min oder mehr oder weniger dreht, während sich das Spiegelelement mit 30.000 U/min oder mehr oder weniger dreht.
  • Obwohl nicht dargestellt, kann das optische System auch mindestens einen Strahlstopp beinhalten, der aus einem Polymer, Metall, Gewebe oder anderen Materialien gebildet und so konfiguriert ist, dass Laserlicht nicht in Winkeln außerhalb eines Emissionswinkelbereichs in die Umgebung emittiert wird. In einer exemplarischen Ausführungsform kann der Emissionswinkelbereich um die zweite Achse größer als 230 Grad sein.
  • Wie zuvor beschrieben, drehen sich das Spiegelelement 330 und das Gehäuse 310 in verschiedenen Achsen, um einen von dem Laser generierten Lichtstrahl durch das erste Sensorfenster 312 und das zweite Sensorfenster 314 zu reflektieren. Während sich das Spiegelelement 330 dreht, kann der Strahl durch das erste Sensorfenster 312 und das zweite Sensorfenster 314 von oben nach unten oder von unten nach oben abgetastet werden. Das Ergebnis für eine 360-Grad-Drehung des Gehäuses sind Streifen von Datenpunkten (halb durch ein Fenster und halb durch das andere), die Abstände von Objekten darstellen. Da sich sowohl das Gehäuse (d. h. die Sensorfenster) als auch das Spiegelelement in unterschiedlichen Achsen drehen, werden Datenpunkte für das gleiche Objekt in kürzester Zeit mehrfach durch das erste Sensorfenster 312 und das zweite Sensorfenster 314 reflektiert.
  • Wie in 3A dargestellt, werden die ersten und zweiten Sensorfenster 312, 314 durch die Referenzlinie 318 geteilt (und somit ist in 3B nur das erste Sensorfenster sichtbar), die jeweils einen 180-Grad-Teil des Gehäuses 310 abdecken, wobei jedes Fenster mehr oder weniger das Gehäuse 310 abdecken kann. Zusätzlich können das erste Sensorfenster 312 und das zweite Sensorfenster 314 unterschiedliche Oberflächeneigenschaften aufweisen. Beispielsweise kann das erste Sensorfenster 312 Oberflächeneigenschaften aufweisen, die das erste Sensorfenster 312 hydrophober als das zweite Sensorfenster 314 machen. Auf ähnliche Weise kann das zweite Sensorfenster 314 Oberflächeneigenschaften aufweisen, die das zweite Sensorfenster 314 hydrophiler als das erste Sensorfenster 312 machen.
  • Unter trockenen Bedingungen können sich sowohl hydrophile als auch hydrophobe Oberflächen ähnlich verhalten, sodass sich trockene optische Störungselemente (Staub, Schmutz, Salz, Blätter usw.) von den Sensorfenstern im Wesentlichen auf die gleiche Weise wegbewegen können, wobei einige trockene optische Störungselemente auf den unterschiedlichen Oberflächen je nach ihren spezifischen Materialeigenschaften und der Wechselwirkung mit jeder Oberfläche unterschiedlich haften oder sich auflösen. Bei nassen Bedingungen, wie z. B. bei Wasser oder Flüssigkeit in Form von Regen, Nebel, Schnee oder anderen Niederschlägen auf den Sensorfenstern, führen die unterschiedlichen Oberflächeneigenschaften dazu, dass sich die Sensorfenster sehr unterschiedlich verhalten, mit möglicherweise vorübergehenden Sensorfehlern in dem hydrophilen Fenster.
  • Bei Nässe werden die hydrophoben und hydrophilen Oberflächen das Fenster auf unterschiedliche Weise reinigen. Eine hydrophobe Oberfläche hat die Wirkung, dass das Wasser kugelig nach oben abperlt und von der Oberfläche abwärts läuft. Mit anderen Worten kann es die hydrophobe Beschichtung ermöglichen, dass kleine Wasserperlen auf der Oberfläche des Sensorfensters sitzen, bis diese Perlen freigeschlagen werden oder sich ansammelnde Tröpfchen zu Tropfen verschmelzen, die schwer genug sind, um die Oberfläche herunterzurollen. Auf der Oberfläche wirkt jede Perle wie eine Linse und fokussiert einen Teil des Lichts. Dies führt zu einer Streuung des Lichts, das durch den Bereich der Kugel fließt, und beeinträchtigt die Leistung des LIDAR-Sensors 200 vor allem durch eine Verschlechterung der Lichtintensität, die an den optischen Sensor zurückgegeben wird. Die Ablenkung des von der Laserlichtquelle 320 generierten Lichtstrahls ist minimal.
  • Eine hydrophile Oberfläche fördert die Bildung eines Wasserfilms auf der Oberfläche, der bergab fließt. Die hydrophile Oberfläche ermöglicht es dem Wasser außerdem, bestimmte trockene Verunreinigungen, wie z. B. von Permanentmarkern, mühelos anzuheben und zu entfernen. Somit ist eine hydrophile Oberfläche besser geeignet, um Schmutz von dem Fenster zu entfernen, bewirkt jedoch, dass angesammeltes Wasser als Film mit variabler Dicke das Fenster hinunterfließt. Der Wasserfilm weist jedoch flache Vorder- und Hinterkanten auf, und unterstützt Wanderwellen, die durch Tropfen entstehen, die auf den Film auftreffen. Aus diesem Grund können die flachen Winkel den von der Laserlichtquelle 320 generierten Lichtstrahl zu Winkeln umlenken, die zu erheblichen Messfehlern führen. Mit anderen Worten wird das Licht verzerrt und lässt es so aussehen, als ob die Daten von einem anderen Ort gekommen sind. Darüber hinaus kann das Wasser den Lichtstrahl, der durch das Wasser fließt, auch zerstreuen, wodurch die Rücklaufintensität reduziert wird. Die Steuereinheit 350 des LIDAR-Sensors 200 ist möglicherweise nicht in der Lage, diese schlechten Daten von guten Daten zu unterscheiden, was zu Problemen sowohl bei der Verarbeitung der Sensordaten als auch beim Vertrauen in die Sensordaten führt.
  • 4A und 4B sind eine exemplarische Konfiguration eines LIDAR-Sensors 210. 4A zeigt eine Seitenansicht und 4B eine Draufsicht. In diesem Beispiel kann der LIDAR-Sensor 210 ein Gehäuse 410 aufweisen, das ein erstes Sensorfenster 412 und ein zweites Sensorfenster 414, Laserlichtquellen 420, 422 beinhalten kann, die ähnlich der Laserlichtquelle 320 konfiguriert werden können, einen optischen Sensor 440, 442, der ähnlich dem optischen Sensor 340 konfiguriert ist, und eine Steuereinheit 450, die ähnlich wie Steuereinheit 350 konfiguriert ist.
  • In diesem Beispiel sind die Laserlichtquellen 420, 422, „Rücken an Rücken“ oder vielmehr etwa 180 Grad voneinander entfernt oder weniger in dem Gehäuse 310 angeordnet. In diesem Zusammenhang können die Laserlichtquellen Lichtstrahlen 424, 426 generieren, die etwa 180 Grad voneinander beabstandet sind. Jeder Laser kann relativ zueinander fixiert werden, ebenso wie jeweils eines von dem ersten und zweiten Sensorfenster 312, 314. So können sich in diesem Beispiel die Laserlichtquellen 420, 422 und das erste und zweite Sensorfenster 412, 414, z. B. mit 600 U/min oder mehr oder weniger, zusammen drehen. In diesem Zusammenhang werden Datenpunkte für den gleichen Bereich der Umgebung des LIDAR-Sensors 210 während einer einzigen Umdrehung der Laserlichtquellen mindestens einmal durch jedes von dem ersten und zweiten Sensorfenster reflektiert.
  • Wie bei dem Beispiel des LIDAR-Sensors 200 können in dem Beispiel des LIDAR-Sensors 210 das erste und zweite Sensorfenster 412, 414 unterschiedliche Oberflächeneigenschaften aufweisen. Beispielsweise kann das erste Sensorfenster 412 Oberflächeneigenschaften aufweisen, die das erste Sensorfenster 412 hydrophober als das zweite Sensorfenster 414 machen. Auf ähnliche Weise kann das zweite Sensorfenster 414 Oberflächeneigenschaften aufweisen, die das zweite Sensorfenster 414 hydrophiler als das erste Sensorfenster 412 machen.
  • EXEMPLARISCHE VERFAHREN
  • Zusätzlich zu den zuvor beschriebenen und in den Figuren dargestellten Vorgängen werden nun unterschiedliche Vorgänge beschrieben. Es sollte sich verstehen, dass die folgenden Vorgänge nicht in der nachstehend beschriebenen genauen Reihenfolge ausgeführt werden müssen. Vielmehr können verschiedene Schritte in einer anderen Reihenfolge oder gleichzeitig gehandhabt werden, zudem können Schritte hinzugefügt oder weggelassen werden.
  • Unter Bezugnahme auf den LIDAR-Sensor 200 kann Steuereinheit 350 die Funktion des LIDAR-Sensors 200 steuern, um Sensordaten für die Verarbeitung durch die Computergeräte 110 zu erzeugen. Wie bereits erwähnt, kann die Steuereinheit 350 die Laserlichtquelle 320 veranlassen, einen Lichtstrahl 324 in Richtung des Spiegelelements 330 zu generieren. Die Steuereinheit 350 bewirkt außerdem, dass sich das Spiegelelement 330 und das Gehäuse drehen. Während sich das Spiegelelement 330 dreht, wird das Licht des Lichtstrahls von den Seiten des Spiegelelements 330 reflektiert. Das Ergebnis veranlasst, dass der Lichtstrahl das Gehäuse 310 in einer Reihe von Lichtstreifen durchdringt, wobei jeder Streifen dem Licht entspricht, das von einer der Seiten reflektiert wird. Dieses reflektierte oder „ausgehende“ Licht (siehe 3A) durchdringt dann das erste Sensorfenster 312 oder das zweite Sensorfenster 314 in Abhängigkeit von der Position des Gehäuses 310 während der Drehung des Gehäuses 310.
  • Das ausgehende Licht trifft dann auf ein Objekt in der Umgebung des LIDAR-Sensors 200 auf, und wird zurück in Richtung des ersten Sensorfensters 312 oder des zweiten Sensorfensters 314 als „eingehendes Licht“ (siehe 3B), erneut in Abhängigkeit von der Position des Gehäuses 310 während der Drehung des Gehäuses 310 reflektiert. Das eingehende Licht wird dann wieder von der gleichen Oberfläche des Spiegelelements 330 in Richtung des optischen Sensors 340 reflektiert (und bei Bedarf über einen Spiegel oder ein anderes Gerät zu dem optischen Sensor 340 gerichtet). Schließlich wird das eingehende und/oder ausgehende Licht des Lichtstrahls, das durch jedes der ersten und zweiten Sensorfenster 312, 314 fließt, von dem Objekt reflektiert.
  • Sobald Licht an dem optischen Sensor 340 (oder 440) empfangen wird, verwendet die Steuereinheit 350 (oder 450) dann die zeitlichen Unterschiede zwischen dem Zeitpunkt, an dem der Lichtstrahl von der Laserlichtquelle 320 generiert wurde und dem Zeitpunkt, an dem das Licht den optischen Sensor 340 erreichte, um den Abstand zwischen dem Objekt und dem optischen Sensor zu bestimmen. Die Steuereinheit 350 (oder 450) kann diese Informationen als Sensordaten, einschließlich einer Vielzahl von Datenpunkten, die der Richtung und den Abständen unterschiedlicher Objekte in der Umgebung entsprechen, an die Computergeräte 110 zur weiteren Verarbeitung bereitstellen.
  • Unter allen Umständen, oder wenn eine Oberfläche von einem oder mehreren der Sensorfenster 312 und 314 oder 412 und 414 ein optisches Störungselement auf der Oberfläche aufweist oder nicht, ist es für die Computergeräte 110 möglich, einen allgemeinen Vergleich von entsprechenden Datenpunkten auszuführen, die von jedem von dem ersten und zweiten Sensorfenster 312 und 314 oder 412 und 414 zurückgegeben wurden. Beispielsweise gibt es bei dem Beispiel von LIDAR-Sensor 200 nach einem kurzen Zeitraum eine Reihe von Streifen oder Datenpunkten für jedes von dem ersten Sensorfenster 312 und dem zweiten Sensorfenster 314. Zusätzlich wird jedes von dem ersten und zweiten Sensorfenster 312, 314 Datenpunkte für einen gegebenen Bereich oder vielmehr eine gegebene Richtung von dem LIDAR-Sensor 200 erzeugt haben. Daher können die Abstände der Datenpunkte für den Bereich, der durch eingehendes oder ausgehendes Licht generiert wurde, das durch das erste Sensorfenster 312 hindurchgeht, mit den Abständen der Datenpunkte für den Bereich verglichen werden, der durch eingehendes oder ausgehendes Licht generiert wurde, das durch das zweite Sensorfenster 314 hindurchgeht.
  • In dem Beispiel von LIDAR-Sensor 210 sind nach einer einzelnen 360-Grad-Drehung des Gehäuses 410 Datenpunkte für jedes von dem ersten Sensorfenster und dem zweiten Sensorfenster 414 für den gesamten 360-Grad-Bereich um den LIDAR-Sensor herum vorhanden. Daher können die Abstände der Datenpunkte für den 360-Grad-Bereich, der durch eingehendes oder ausgehendes Licht generiert wurde, das durch das erste Sensorfenster 412 hindurchgeht, mit den Abständen der Datenpunkte für den 360-Grad-Bereich verglichen werden, der durch eingehendes oder ausgehendes Licht generiert wurde, das durch das zweite Sensorfenster 414 hindurchgeht. Um Zeit bei der Verarbeitung zu sparen, kann alternativ ein kleinerer Bereich, der 1, 5 oder 10 Grad oder mehr oder weniger überlappenden Datenpunkten entspricht, verglichen werden.
  • Der Vergleich kann verwendet werden, um zu identifizieren, wo mindestens eine Schwellenanzahl von Punkten vorhanden ist, die mindestens einen minimalen Änderungsbetrag des Abstands aufweisen. Im Wesentlichen kann das Computergerät 110 bestimmen, ob der LIDAR-Sensor 200 (oder alternativ LIDAR-Sensor 210) dasselbe Objekt in unterschiedlichen Abständen zu nahezu dem gleichen Zeitpunkt beobachtet. Mit anderen Worten können kleine Änderungen, wie z. B. diejenigen in einer Größenordnung von mehreren Zoll oder mehr oder weniger, an den Standorten eines Objekts aufgrund von Ungenauigkeiten bei der Verarbeitung in der Steuereinheit 350 (oder alternativ Steuereinheit 450), Bewegung des Objekts, Bewegung des LIDAR-Sensors usw. erwartet werden. Größere Veränderungen, wie z. B. in der Größenordnung von mehreren Fuß oder mehr oder weniger, im Laufe sehr kleiner Zeiträume, wie z. B. Bruchteil einer Sekunde oder mehr oder weniger, können jedoch darauf hindeuten, dass auf einer Oberfläche eines der Sensorfenster ein optisches Störungselement vorhanden ist.
  • Mit anderen Worten, ein optisches Störungselement, das sich auf einer Oberfläche eines Sensorfensters befindet, wie z. B. eines der Sensorfenster 312, 314, 412, 414, kann als Unterschied in den vergleichbaren Sensordatenpunkten von den unterschiedlichen Oberflächeneigenschaften der verschiedenen Sensorfenster identifiziert werden. So kann die Erkennung von Differenzen verwendet werden, um zu bestimmen, dass sich ein optisches Störungselement auf einer Oberfläche eines Sensorfensters befindet, und somit ein Hinweis darauf sein, dass sich Wasser oder Schmutz auf dem Sensorfenster befindet.
  • In einigen Fällen kann das Erkennen einer Differenz verwendet werden, um zu bestimmen, welcher Sensor für einen bestimmten Bereich verwendet werden soll, oder um ein bevorzugtes Sensorfenster auszuwählen, das als das Standardfenster für die gegebenen Umgebungsbedingungen verwendet werden soll. Dies kann auch den Vergleich mit Sensordaten beinhalten, die zu einem früheren Zeitpunkt, z. B. unmittelbar vor dem Generieren der aktuellen Sensordaten, für den Bereich generiert wurden, und kann sogar die Genauigkeit des Vergleichs erhöhen und ein größeres Vertrauen in das Bestimmen bereitstellen, dass ein optisches Störungselement auf einer Oberfläche eines bestimmten Sensorfensters vorhanden ist.
  • Wenn beispielsweise der Vergleich der aktuellen Sensordaten für einen Bereich, der durch eingehendes oder ausgehendes Licht generiert wurde, das durch jedes von den unterschiedlichen Sensorfenstern hindurchgeht, anzeigt, dass ein optisches Störungselement auf einer Oberfläche von einem von den Sensorfenstern vorhanden ist, können die aktuellen Sensordaten für ein oder beide von dem ersten und zweiten Sensorfenster mit vorherigen Sensordaten verglichen werden. In dieser Hinsicht, wenn die vorherigen Sensordaten für den Bereich (die durch eingehendes oder ausgehendes Licht generiert wurden, das durch ein oder beide von dem ersten oder zweiten Sensorfenster hindurchgeht) mit den aktuellen Sensordaten in Bezug auf den Bereich „übereinstimmen“, die durch eingehendes oder ausgehendes Licht generiert wurden, das durch das erste Sensorfenster hindurchgeht, kann dies darauf hinweisen, dass ein optisches Störungselement auf einer Oberfläche des zweiten Sensorfensters vorhanden ist, das zu dem Zeitpunkt nicht existierte, als die vorherigen Sensordaten generiert wurden. Auf ähnliche Weise, wenn die vorherigen Sensordaten (die durch eingehendes oder ausgehendes Licht generiert wurden, das durch ein oder beide von dem ersten oder zweiten Sensorfenster hindurchgeht) mit den aktuellen Sensordaten in Bezug auf den Bereich „übereinstimmen“, die durch eingehendes oder ausgehendes Licht generiert wurden, das durch das zweite Sensorfenster hindurchgeht, kann dies darauf hinweisen, dass ein optisches Störungselement auf einer Oberfläche des zweiten Sensorfensters vorhanden ist, das zu dem Zeitpunkt nicht existierte, als die vorherigen Sensordaten generiert wurden. Beispielsweise können die aktuellen und vorherigen Sensordaten übereinstimmen, wenn die Unterschiede in den Abständen der Datenpunkte für die aktuellen Sensordaten und die vorherigen Sensordaten (unter Berücksichtigung einer möglichen Bewegung des LIDAR-Sensors, z. B. wenn dieser sich auf einem fahrenden Fahrzeug, wie z. B. Fahrzeug 100, befindet) die Schwellenwertanzahl der Abstände nicht erreichen.
  • Der Vergleich kann zudem den Vergleich der Umlaufzeit von Licht von dem Lichtstrahl der letzten Lichtquelle zu dem optischen Sensor beinhalten. Wenn das System z. B. auf einen bestimmten Azimut A und Höhe B abzielt, wenn die Laufzeit angibt, dass ein reflektierendes Objekt bei AB bei einem Abstand von X durch eines der Sensorfenster vorhanden ist, würden die Computergeräte erwarten, dass der bei dem gleichen AB durch ein anderes der Sensorfenster gemessene Abstand der gleiche ist, unter der Annahme, dass der Punkt im Raum, auf den der LIDAR weist, im Wesentlichen derselbe ist. Wenn eines der Sensorfenster Störungselemente aufweist, die den ausgehenden Lichtstrahl blockieren, gibt die Laufzeit einen sehr geringen Abstand oder einen Fehler an. Wenn eines der Sensorfenster Störungselemente aufweist, die den eingehenden Lichtstrahl ablenken, gibt die Laufzeit den Abstand zu einem anderen Objekt bei einem anderen Abstand X an (oder der Lichtstrahl wird niemals zurückkehren). In einem anderen Beispiel ist es wahrscheinlich, dass das andere Sensorfenster fehlerhafte Daten meldet, wenn sich die Abstandsmessung von einem der Sensorfenster in den letzten paar Messungen nicht geändert hat, während dies bei dem anderen Sensorfenster der Fall ist.
  • Vergleicht man die bisherigen Sensordaten, die durch eingehendes oder ausgehendes Licht generiert wurden, das durch das erste und zweite Sensorfenster hindurchgeht, so kann die Genauigkeit der Bestimmung, ob sich das optische Störungselement auf dem ersten oder zweiten Sensorfenster befindet, weiter erhöht werden. Dies kann besonders nützlich sein, wenn es darum geht, Anomalien oder z. B. optische Störungselemente auf der Oberfläche eines Sensorfensters zu identifizieren, die nur für einen sehr kurzen Zeitraum auf der Oberfläche waren. Darüber hinaus können Unterschiede, die über mehrere Scanzyklen bestehen, als Hinweis auf die Notwendigkeit der Reinigung eines oder mehrerer Sensorfenster verwendet werden.
  • Darüber hinaus kann die Intensität des Regens oder des Niederschlags von Bedeutung sein, um zu bestimmen, welches der Sensorfenster an dem Gehäuse 310 oder 410 die besten Daten bereitstellt. Beispielsweise kann ein Sensorfenster, wie z. B. das erste Sensorfenster 312 oder 412, mit hydrophoben Oberflächeneigenschaften bei leichtem Regen bessere Daten bereitstellen, denn je mehr Wasser sich auf der hydrophoben Oberfläche befindet, desto größer ist der Linseneffekt auf das eingehende oder ausgehende Licht. Gleichzeitig kann ein Sensorfenster, wie z. B. das zweite Sensorfenster 314 oder 414 mit hydrophilen Oberflächeneigenschaften bei sehr starkem Regen bessere Daten bereitstellen, da das eingehende oder ausgehende Licht weniger stark verzerrt ist.
  • In einem anderen Beispiel ist der LIDAR-Sensor, vergleichbar mit dem LIDAR-Sensor 210, und nicht mit zwei Laserlichtquellen 420, 422, die relativ zu dem ersten Sensorfenster 412 und dem zweiten Fenster 414 so fixiert sind, dass sich das Gehäuse 410 und die Laserlichtquellen 420, 422 synchron drehen, sondern eine oder mehrere feste Laserlichtquellen verwendet werden können. In diesem Beispiel können sich das Gehäuse und das erste und zweite Sensorfenster um die Laserlichtquelle drehen, während die Laserlichtquelle einen Lichtstrahl in eine einzelne Richtung oder als Streifen erzeugt, indem sie die Laserlichtquelle innerhalb des Gehäuses in einer Achse parallel oder nahezu parallel zu der Drehachse des Gehäuses auf und ab bewegt. In Abhängigkeit von der Drehgeschwindigkeit des Gehäuses und der Bewegung der Laserlichtquelle können Sensordaten für das Licht generiert werden, das durch jedes von dem ersten und zweiten Sensorfenster, die dem gleichen Bereich der Umgebung entsprechen, hindurchgeht. Innerhalb einer einzelnen oder sehr wenigen Umdrehungen des Gehäuses. Die Abstände der Datenpunkte für den Bereich können dann verglichen und verarbeitet werden, um zu bestimmen, ob eine Oberfläche des ersten oder zweiten Sensorfensters ein optisches Störungselement aufweist, und ob Sensordaten, die durch das Licht generiert werden, das durch das erste oder zweite Sensorfenster hindurchgeht, ignoriert werden sollen.
  • In den zuvor beschriebenen Beispielen werden das erste und zweite Sensorfenster als unterschiedliche, diskrete Fenster dargestellt. Das erste und zweite Sensorfenster können aber auch einzelne Teilbereiche eines einzelnen Sensorfensters sein.
  • Obwohl sich die Beispiele hier auf zwei Sensorfenster mit unterschiedlichen Oberflächeneigenschaften beziehen, kann ein ähnliches Vergleichsverfahren mit drei oder mehr Sensorfenstern angewendet werden. In einem solchen Beispiel können mehrere Vergleiche zwischen Sensordaten verwendet werden, die durch Licht generiert werden, das durch jedes der Sensorfenster für denselben Bereich der Umgebung hindurchgeht. Wenn Sensordaten für einen Bereich, der durch Licht generiert wird, das durch ein erstes und zweites Sensorfenster hindurchgeht, übereinstimmen, während Sensordaten für den Bereich, der durch Licht erzeugt wird, das durch ein drittes Sensorfenster hindurchgeht, nicht mit den zwei oder mehr Sensorfenstern übereinstimmen, kann dies ein Hinweis darauf sein, dass eine Oberfläche des dritten Sensorfensters ein optisches Störungselement aufweist.
  • Alternativ dazu kann der Vergleich verwendet werden, um zu identifizieren, ob eine Oberfläche eines Sensorfensters ein optisches Störungselement aufweist, wenn das erste und das zweite Sensorfenster ähnliche oder gleiche Oberflächeneigenschaften aufweisen.
  • Sobald die Computergeräte 110 bestimmt haben, dass eine Oberfläche eines bestimmten Sensorfensters ein optisches Störungselement beinhaltet, können die Computergeräte vorübergehend die „schlechten“ oder unzuverlässigen Sensordaten ignorieren, die durch das Licht generiert werden, das durch das bestimmte hindurchgeht. Mit anderen Worten dürfen die Computergeräte 110 diese Sensordaten nicht verwenden, wenn sie Fahrentscheidungen für das Fahrzeug treffen. Somit können die Computergeräte 110 die Verwendung von Daten, die durch das optische Störungselement beeinträchtigt wurden, vermeiden. Dies wiederum kann die Betriebssicherheit des Fahrzeugs 100 erheblich erhöhen. Darüber hinaus können die Sensordaten ignoriert werden, bis neue Sensordaten generiert werden, bei denen die Unterschiede bei den Abständen zwischen den Datenpunkten, die durch das durch das erste und zweite Sensorfenster durchgelassene Licht generiert werden, nicht mehr den Schwellenwert erreichen. Durch Ignorieren der Sensordaten können die Computergeräte 110 vermeiden.
  • Alternativ kann der Vergleich und die weitere Verarbeitung durch die Prozessoren 352 der Steuereinheit 350 oder eine Kombination der Prozessoren 352 der Steuereinheit 350 und des einen oder der mehreren Computergeräte 110 ausgeführt werden. In einem Fall, wenn die Steuereinheit 350 bestimmt hat, dass sich ein optisches Störungselement auf einer Oberfläche eines der Sensorfenster befindet, braucht die Steuereinheit 350 die Sensordaten, die durch das Licht generiert werden, das durch dieses Sensorfenster hindurchgeht, nicht tatsächlich an die Computergeräte 110 des Fahrzeugs 100 zu senden. Auf diese Weise werden die „schlechten“ Sensordaten von den Computergeräten 110 beispielsweise bei Fahrtentscheidungen für das Fahrzeug nicht genutzt, bis die Sensordaten, die von dem durch das erste und zweite Sensorfenster hindurchgehende Licht generiert werden, wieder übereinstimmen.
  • 5 zeigt ein exemplarisches Ablaufdiagramm 500 gemäß einigen der beschriebenen Aspekte. In diesem Beispiel erzeugt eine Laserlichtquelle einen Lichtstrahl, der mindestens durch ein erstes Sensorfenster eines Gehäuses hindurchgeht, wobei das erste Sensorfenster eine erste äußere Oberflächeneigenschaft zum Ablenken von Wasser bei Block 510 aufweist. Das Gehäuse beinhaltet auch ein zweites Fenster mit einer zweiten äußeren Oberflächeneigenschaft zum Ablenken von Wasser, das sich von der ersten äußeren Oberflächeneigenschaft unterscheidet. Sensordaten, die dem Licht des von einem optischen Sensor erkannten Lichtstrahls entsprechen, der Abstände von dem optischen Sensor zu einem Objekt in der Umgebung des Gehäuses identifiziert, werden bei Block 520 empfangen. Basierend auf einem Vergleich zwischen einem Teil der Sensordaten von dem ersten Sensorfenster und einem Teil der Sensordaten von einem zweiten Sensorfenster entsprechend dem Objekt, Bestimmen, dass sich ein optisches Störungselement auf einer Oberfläche von mindestens einem von dem ersten Sensorfenster und dem zweiten Sensorfenster befindet, die dem Objekt bei Block 530 entsprechen.
  • Sofern nicht anders angegeben, schließen sich die meisten der vorstehenden alternativen Beispiele nicht gegenseitig aus, sondern können in unterschiedlichen Kombinationen implementiert werden, um charakteristische Vorteile zu erzielen. Während diese und andere Variationen und Kombinationen der vorstehend beschriebenen Merkmale verwendet werden können, ohne vom Gegenstand, der von den Ansprüchen definiert wird, abzuweichen, sollte die vorhergehende Beschreibung der Ausführungsformen eher als Veranschaulichung und nicht als Gelegenheit betrachtet werden, den von den Ansprüchen definierten Gegenstand der Erfindung einzuschränken. Darüber hinaus sollte das Bereitstellen der hierin beschriebenen Beispiele, sowie Klauseln, die mit Begriffen wie etwa „zum Beispiel“, „einschließlich“ und dergleichen formuliert sind, nicht als Einschränkung des Gegenstands der Ansprüche auf diese spezifischen Beispiele interpretiert werden, da die Beispiele dazu dienen, nur eine der vielen möglichen Ausführungsformen zu veranschaulichen. Ferner können die gleichen Referenznummern in unterschiedlichen Zeichnungen die gleichen oder ähnliche Elemente identifizieren.

Claims (20)

  1. System zum Bestimmen, ob sich eine optische Störung auf einem Sensorfenster befindet, wobei das System Folgendes umfasst: ein Gehäuse, das ein erstes Sensorfenster und ein zweites Sensorfenster beinhaltet, wobei das erste Sensorfenster eine erste äußere Oberflächeneigenschaft zum Ablenken von Wasser und das zweite Sensorfenster eine zweite äußere Oberflächeneigenschaft zum Ablenken von Wasser aufweist, die sich von der ersten äußeren Oberflächeneigenschaft unterscheidet; eine Laserlichtquelle, die konfiguriert ist, einen Lichtstrahl durch mindestens das erste Sensorfenster zu generieren; einen optischen Sensor; und einen oder mehrere Prozessoren, die konfiguriert sind zum: Empfangen von Sensordaten, die dem Licht des von dem optischen Sensor erkannten Lichtstrahls entsprechen, der die Abstände von dem optischen Sensor zu einem Objekt in einer äußeren Umgebung des Gehäuses identifiziert; und Bestimmen, dass sich ein optisches Störungselement auf einer Oberfläche von mindestens einem von dem ersten Sensorfenster und dem zweiten Sensorfenster befindet, basierend auf einem Vergleich zwischen einem Teil der Sensordaten von dem ersten Sensorfenster, der dem Objekt entspricht, und einem Teil der Sensordaten von dem zweiten Sensorfenster, der dem Objekt entspricht.
  2. System nach Anspruch 1, wobei die erste äußere Oberflächeneigenschaft einer äußeren Oberfläche des ersten Sensorfensters entspricht, die hydrophober als eine äußere Oberfläche des zweiten Sensorfensters ist.
  3. System nach Anspruch 1, wobei die erste äußere Oberflächeneigenschaft einer äußeren Oberfläche des ersten Sensorfensters entspricht, die hydrophiler als eine äußere Oberfläche des zweiten Sensorfensters ist.
  4. System nach Anspruch 1, wobei die erste äußere Oberflächeneigenschaft einer ersten Beschichtung entspricht, die auf das erste Sensorfenster aufgetragen wird.
  5. System nach Anspruch 4, wobei die zweite äußere Oberflächeneigenschaft einer zweiten Beschichtung entspricht, die auf ein zweites Sensorfenster aufgetragen wird, wobei die erste Beschichtung und die zweite Beschichtung unterschiedliche Eigenschaften zum Ablenken von Wasser aufweisen.
  6. System nach Anspruch 5, wobei die erste äußere Oberflächeneigenschaft einem ersten Material des ersten Sensorfensters entspricht.
  7. System nach Anspruch 6, wobei die zweite äußere Oberflächeneigenschaft einem zweiten Material des zweiten Sensorfensters entspricht, wobei das erste Material und das zweite Material unterschiedliche Eigenschaften zum Ablenken von Wasser aufweisen.
  8. System nach einem der vorangegangenen Ansprüche, wobei der Vergleich einen Vergleich von einem ersten Abstand zu einem Objekt beinhaltet, das von dem Teil der Sensordaten von dem ersten Sensorfenster bestimmt wurde, und einem zweiten Abstand zu dem Objekt, der von dem Teil der Sensordaten von dem zweiten Sensorfenster bestimmt wurde.
  9. System nach Anspruch 8, wobei der erste Abstand und der zweite Abstand unterschiedlichen Positionen eines Objekts entsprechen, die innerhalb eines vorgegebenen Zeitraums erkannt wurden.
  10. System nach einem der vorangegangenen Ansprüche, wobei das erste Sensorfenster und das zweite Sensorfenster verschiedene Teile eines einzelnen Fensters umfassen.
  11. System nach einem der vorangegangenen Ansprüche, wobei das optische Störungselement Wasser ist.
  12. System nach einem der vorangegangenen Ansprüche, das ferner ein Fahrzeug umfasst und wobei das Gehäuse an dem Fahrzeug befestigt ist.
  13. System nach Anspruch 12, wobei der eine oder die mehreren Prozessoren konfiguriert sind, das Fahrzeug in einem autonomen Fahrmodus basierend auf dem Vergleich zu steuern.
  14. System nach Anspruch 13, wobei der eine oder die mehreren Prozessoren ferner konfiguriert sind, um dann, wenn der Vergleich anzeigt, dass sich das optische Störungselement auf dem ersten Sensorfenster befindet, die Sensordaten von dem ersten Sensorfenster vorübergehend zu ignorieren, wenn das Fahrzeug in dem autonomen Fahrmodus gesteuert wird.
  15. System nach Anspruch 13 oder 14, wobei der eine oder die mehreren Prozessoren ferner konfiguriert sind, um dann, wenn der Vergleich anzeigt, dass sich das optische Störungselement auf dem zweiten Sensorfenster befindet, die Sensordaten von dem zweiten Sensorfenster vorübergehend zu ignorieren, wenn das Fahrzeug in dem autonomen Fahrmodus gesteuert wird.
  16. System nach einem der vorangegangenen Ansprüche, wobei das Gehäuse so konfiguriert ist, dass die Laserlichtquelle konfiguriert ist, einen Lichtstrahl durch das erste Sensorfenster und das zweite Sensorfenster zu unterschiedlichen Zeiten zu generieren, während sich das Gehäuse dreht.
  17. System nach Anspruch 16, ferner umfassend ein Spiegelelement, das konfiguriert ist, den Lichtstrahl sowohl durch das erste Sensorfenster als auch durch das zweite Sensorfenster zu unterschiedlichen Zeiten während der Drehung des Gehäuses zu drehen und zu reflektieren.
  18. System nach einem der vorangegangenen Ansprüche, ferner umfassend eine zweite Laserlichtquelle, die konfiguriert ist, einen zweiten Lichtstrahl durch das zweite Sensorfenster zu generieren, während die Laserlichtquelle den Lichtstrahl durch das erste Sensorfenster generiert.
  19. System nach Anspruch 18, wobei die zweite Laserlichtquelle relativ zu dem zweiten Sensorfenster fixiert ist, und die Laserlichtquelle relativ zu dem ersten Sensorfenster fixiert ist.
  20. System nach Anspruch 19, wobei das Gehäuse so konfiguriert ist, dass es um 360 Grad drehbar ist, sodass sich die Laserlichtquelle und die zweite Laserlichtquelle mit dem Gehäuse drehen.
DE202018100323.2U 2017-01-27 2018-01-20 LIDAR-Sensorfensterkonfiguration für verbesserte Datenintegrität Expired - Lifetime DE202018100323U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/417,654 US10168423B2 (en) 2017-01-27 2017-01-27 LIDAR sensor window configuration for improved data integrity
US15/417,654 2017-01-27

Publications (1)

Publication Number Publication Date
DE202018100323U1 true DE202018100323U1 (de) 2018-04-09

Family

ID=61249378

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202018100323.2U Expired - Lifetime DE202018100323U1 (de) 2017-01-27 2018-01-20 LIDAR-Sensorfensterkonfiguration für verbesserte Datenintegrität

Country Status (4)

Country Link
US (3) US10168423B2 (de)
CN (1) CN210270155U (de)
AU (1) AU2018100098A4 (de)
DE (1) DE202018100323U1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020206812A1 (de) 2020-05-29 2021-12-02 Robert Bosch Gesellschaft mit beschränkter Haftung LiDAR-System mit Störquellenerkennung, Fahrzeug und Verfahren zur Störquellenerkennung
US11442168B2 (en) * 2017-11-21 2022-09-13 Magna Electronics Inc. Vehicular driving assist system with lidar sensors that emit different patterns of light
DE102022129795A1 (de) 2022-11-10 2024-05-16 Bayerische Motoren Werke Aktiengesellschaft Lidar-system und verfahren zum betrieb eines lidar-systems

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10315578B2 (en) * 2016-01-14 2019-06-11 Faraday&Future Inc. Modular mirror assembly
DE102016216520A1 (de) * 2016-09-01 2018-03-01 Robert Bosch Gmbh Verfahren und System zum Betrieb eines Fahrzeugs
US10168423B2 (en) 2017-01-27 2019-01-01 Waymo Llc LIDAR sensor window configuration for improved data integrity
US10338198B2 (en) 2017-04-03 2019-07-02 Ford Global Technologies, Llc Sensor apparatus
US10488494B2 (en) * 2017-04-03 2019-11-26 Ford Global Technologies, Llc Sensor apparatus
US10663585B2 (en) * 2017-11-22 2020-05-26 Luminar Technologies, Inc. Manufacturing a balanced polygon mirror
US10976420B2 (en) * 2018-11-02 2021-04-13 Waymo Llc Methods and systems for detecting sensor occlusions
US20220155450A1 (en) * 2019-03-05 2022-05-19 Waymo Llc Methods and systems for detecting degraded lidar range measurement accuracy
CN113646661A (zh) * 2019-03-05 2021-11-12 伟摩有限责任公司 用于实时lidar距离校准的系统和方法
US11933920B2 (en) 2019-03-14 2024-03-19 Waymo Llc Methods and systems for detecting obstructions on a sensor housing
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
JP2021076414A (ja) * 2019-11-06 2021-05-20 豊田合成株式会社 車両用センサユニット
CA3180748A1 (en) 2020-06-04 2021-12-09 William Dale Tischer Accurate estimation of battery charge remaining in a mobile cart
US10969491B1 (en) * 2020-08-14 2021-04-06 Aeva, Inc. LIDAR window blockage detection
US11965991B1 (en) 2020-09-23 2024-04-23 Waymo Llc Surface fouling detection
US11457204B1 (en) 2020-11-06 2022-09-27 Waymo Llc Localized window contaminant detection
US20220236382A1 (en) * 2021-01-27 2022-07-28 Ford Global Technologies, Llc Rotating sensor assembly
DE102021211017A1 (de) 2021-09-30 2023-03-30 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Herstellung eines Freiform-Optikbauteils

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10136068A1 (de) * 2001-07-25 2003-02-13 Heidelberger Druckmasch Ag Verfahren und Vorrichtung zur Strukturierung einer Oberfläche in hydrophile und hydrophobe Bereiche
JP4326999B2 (ja) * 2003-08-12 2009-09-09 株式会社日立製作所 画像処理システム
JP2005233774A (ja) * 2004-02-19 2005-09-02 Denso Corp 距離検出装置
JP2006194639A (ja) * 2005-01-11 2006-07-27 Denso Corp レーダ装置
US9948835B2 (en) * 2012-01-31 2018-04-17 Siemens Energy, Inc. Single-axis inspection scope with spherical camera and method for internal inspection of power generation machinery
US9001319B2 (en) * 2012-05-04 2015-04-07 Ecolab Usa Inc. Self-cleaning optical sensor
JP5967372B2 (ja) 2013-01-08 2016-08-10 マツダ株式会社 雨滴検出装置
US9470520B2 (en) * 2013-03-14 2016-10-18 Apparate International C.V. LiDAR scanner
NO335488B1 (no) 2013-03-22 2014-12-22 Kongsberg Seatex As Posisjonsreferansesystem og fremgangsmåte for posisjonering og sporing av ett eller flere objekter
US20150250137A1 (en) * 2013-11-27 2015-09-10 Dansk Mink Papir A/S Motorized feeding vehicle and a method of operating an animal farming system
JP6135481B2 (ja) * 2013-11-28 2017-05-31 トヨタ自動車株式会社 自律移動体
WO2015140899A1 (ja) 2014-03-17 2015-09-24 三菱電機株式会社 レーザレーダ装置
US20160176384A1 (en) * 2014-12-19 2016-06-23 Continental Automotive Systems, Inc. Sensor cleaning system
WO2016123580A1 (en) * 2015-01-30 2016-08-04 Flir Systems, Inc. Liquid shutter for infrared imaging devices
US10028702B2 (en) * 2015-04-30 2018-07-24 Verily Life Sciences Llc Body-mountable devices with two layers
US10197496B2 (en) * 2015-06-23 2019-02-05 Empire Technology Development Llc Real-time monitoring of material composition for quality control
US10209709B2 (en) * 2016-08-15 2019-02-19 Ford Global Technologies, Llc LIDAR sensor frost detection
KR102457029B1 (ko) * 2016-09-20 2022-10-24 이노비즈 테크놀로지스 엘티디 Lidar 시스템 및 방법
US10168423B2 (en) 2017-01-27 2019-01-01 Waymo Llc LIDAR sensor window configuration for improved data integrity

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11442168B2 (en) * 2017-11-21 2022-09-13 Magna Electronics Inc. Vehicular driving assist system with lidar sensors that emit different patterns of light
US12007484B2 (en) 2017-11-21 2024-06-11 Magna Electronics Inc. Vehicular driving assist system with lidar sensors that emit light at different pulse rates
DE102020206812A1 (de) 2020-05-29 2021-12-02 Robert Bosch Gesellschaft mit beschränkter Haftung LiDAR-System mit Störquellenerkennung, Fahrzeug und Verfahren zur Störquellenerkennung
DE102022129795A1 (de) 2022-11-10 2024-05-16 Bayerische Motoren Werke Aktiengesellschaft Lidar-system und verfahren zum betrieb eines lidar-systems

Also Published As

Publication number Publication date
US20190178997A1 (en) 2019-06-13
US20200271766A1 (en) 2020-08-27
CN210270155U (zh) 2020-04-07
AU2018100098A4 (en) 2018-03-01
US11624813B2 (en) 2023-04-11
US10168423B2 (en) 2019-01-01
US10641877B2 (en) 2020-05-05
US20180217242A1 (en) 2018-08-02

Similar Documents

Publication Publication Date Title
DE202018100323U1 (de) LIDAR-Sensorfensterkonfiguration für verbesserte Datenintegrität
DE102012024874B4 (de) Verfahren und Vorrichtung zum prädikativen Ermitteln eines Parameterwertes einer von einem Fahrzeug befahrbaren Oberfläche
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102017221691A1 (de) Verfahren und Vorrichtung zur Eigenlokalisierung eines Fahrzeugs
DE102013226631A1 (de) Verfahren und Vorrichtung zur Ermittlung von lokalen Wetterverhältnissen und eines lokalen Fahrbahnzustands
DE102009043385A1 (de) Vorrichtung und Verfahren zum Optimieren einer Fahrzeugkollisions-Vorbereitungsreaktion
DE102004019651A1 (de) Blindspot-Sensorsystem
EP1557692A1 (de) Verfahren zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen
DE102012107885A1 (de) Verfahren zur Bestimmung eines Fahrspurverlaufs für ein Fahrzeug
DE102016209810A1 (de) Verfahren zur Erkennung wenigstens einer Parklücke für ein Fahrzeug
WO2017016533A1 (de) Detektionsvorrichtung zur nebelerkennung für ein kraftfahrzeug
DE102005039895A1 (de) System für Spurverlassenswarnung und/oder Spurhaltefunktion
DE102020118067A1 (de) Erkennung von strassenoberflächenbedingungen
DE102011077333A1 (de) Fahrerassistenzsystem mit Objektdetektion
DE102011082218A1 (de) Standortbestimmungseinrichtung in einem Kraftfahrzeug und Informationsfusionsverfahren
WO2012034637A1 (de) Verfahren und vorrichtung zur detektion von fahrbahnmarkierungen in einem bild
DE102011105074A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Sichtweite für ein Fahrzeug
WO2016131541A1 (de) Verfahren zur ermittlung einer ortsinformation eines kraftfahrzeugs bezüglich eines fahrkorridors und kraftfahrzeug
DE102005003191A1 (de) Vorrichtung und Verfahren zur Umfelderfassung eines bewegbaren Objektes
WO2008074314A1 (de) Verfahren zur bewertung der funktionsfähigkeit eines sensorsystems
DE102007032997A1 (de) Fahrerassistenzvorrichtung
DE102020121504A1 (de) Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug, Halteziel und Antriebssteuersystem
DE102009046597A1 (de) Verfahren und Einrichtung für die Störungsverminderung bei einem Lidarsystem
DE102016109850A1 (de) Verfahren zum Erkennen einer Neigung in einer Fahrbahn eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
WO2021239326A1 (de) Verfahren zum schätzen einer eigengeschwindigkeit

Legal Events

Date Code Title Description
R207 Utility model specification
R082 Change of representative

Representative=s name: VENNER SHIPLEY GERMANY LLP, DE

Representative=s name: VENNER SHIPLEY LLP, DE

R150 Utility model maintained after payment of first maintenance fee after three years
R157 Lapse of ip right after 6 years