-
EINLEITUNG
-
Vorrichtungen und Verfahren in Übereinstimmung mit exemplarischen Ausführungsformen beziehen sich auf die Lichtdetektions- und Abstandsmessung (Light Detection and Ranging). Insbesondere beziehen sich Vorrichtungen und Verfahren in Übereinstimmung mit exemplarischen Ausführungsformen auf das Klassifizieren von Lichtdetektions- und Abstandsinformationen.
-
KURZDARSTELLUNG
-
Eine oder mehrere exemplarische Ausführungsformen stellen ein Verfahren und eine Vorrichtung bereit, die Lichtdetektions- und Abstandsinformationen verarbeitet. Insbesondere stellen eine oder mehrere exemplarische Ausführungsformen ein Verfahren und eine Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen zum Durchführen der Objekterkennung bereit.
-
Gemäß einer exemplarischen Ausführungsform ist ein Verfahren zum Klassifizieren von Lichtdetektions- und Abstands-(LIDAR)-Sensordaten vorgesehen. Das Verfahren beinhaltet: Transformieren von Sensordaten des LIDAR in Punktwolkendaten, Auswählen einer Zelle mit einer Teilmenge der Punktwolkendaten, Unterteilen der ausgewählten Zelle in eine Vielzahl von Voxeln, Berechnen einer Differenz von Gradienten für die Vielzahl von Voxeln, Durchführen eines ersten Durchlaufs der Vielzahl von Voxeln, um Voxel zu identifizieren, die ein Objekt basierend auf der Differenz von Gradienten beinhalten, Durchführen eines zweiten Durchlaufs der Vielzahl von Voxeln, um Voxel zu identifizieren, die das Objekt beinhalten, durch Einstellen eines Voxels mit mindestens einem aus einem Jitterparameter und einem Rotationsparameter, und Ausgeben eines Durchschnitts der Voxel, die das Objekt beinhalten.
-
Die Punktwolkendaten können mindestens eines aus dem LASer-(LAS)-Datenformat und dem Punktwolkendaten-(PCD)-Datenformat beinhalten.
-
Die Punktwolkendaten können x-Koordinatendaten, y-Koordinatendaten, z-Koordinatendaten und einen reflektierenden Intensitätswert beinhalten.
-
Das Durchführen des zweiten Durchlaufs der Vielzahl von Voxeln zum Identifizieren von Voxeln, die das Objekt beinhalten, kann das Einstellen eines Voxels mit dem Rotationsparameter durch Drehen von Punkten des Voxels, das Vergleichen des eingestellten Voxels mit gebündelten Daten und das Ausgeben eines Durchschnitts des eingestellten Voxels, der das Objekt beinhaltet, umfassen, wenn der Vergleich anzeigt, dass das eingestellte Voxel das Objekt beinhaltet.
-
Das Durchführen des zweiten Durchlaufs der Vielzahl von Voxeln zum Identifizieren von Voxeln, die das Objekt beinhalten, kann das Einstellen eines Voxels mit dem Jitterparameter durch Verschieben von Punkten des Voxels, das Vergleichen des eingestellten Voxels mit gebündelten Daten und das Ausgeben eines Durchschnitts des eingestellten Voxels, der das Objekt beinhaltet, umfassen, wenn der Vergleich anzeigt, dass das eingestellte Voxel das Objekt beinhaltet.
-
Das Objekt beinhaltet mindestens eines aus einer Verkehrssteuerungsvorrichtung, ein Verkehrskontrollschild und eine Ampelsteuerung.
-
Das Berechnen der Differenz der Gradienten der Vielzahl von Voxeln beinhaltet das Berechnen einer Differenz zwischen einem mittleren Voxel der Zelle und allen anderen Voxeln in der Zelle.
-
Das Verfahren kann ferner das Empfangen der Sensordaten von einem LIDAR-Sensor beinhalten.
-
Das Verfahren kann ferner das Unterteilen der Punktwolkendaten in eine Vielzahl von Zellen beinhalten, und das Auswählen der Zelle kann das Auswählen einer Zelle aus der Vielzahl von Zellen beinhalten.
-
Gemäß einer exemplarischen Ausführungsform ist eine Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstands-(LIDAR)-Sensordaten vorgesehen. Die Vorrichtung beinhaltet mindestens einen Prozessor, der computerausführbare Anweisungen beinhaltet; und mindestens einen Prozessor, der dazu konfiguriert ist, die computerausführbaren Anweisungen auszuführen. Die computerausführbaren Anweisungen veranlassen den mindestens einen Prozessor, Sensordaten des LIDAR in Punktwolkendaten zu transformieren, eine Zelle mit einer Teilmenge der Punktwolkendaten auszuwählen, die ausgewählte Zelle in eine Vielzahl von Voxeln zu unterteilen, eine Differenz von Gradienten für die Vielzahl von Voxeln zu berechnen, Durchführen eines ersten Durchlaufs auf der Vielzahl von Voxeln, um Voxel zu identifizieren, die ein Objekt basierend auf der Differenz von Gradienten beinhalten, Durchführen eines zweiten Durchlaufs auf der Vielzahl von Voxeln, um Voxel zu identifizieren, die das Objekt beinhalten, durch Einstellen eines Voxels mit mindestens einem aus einem Jitterparameter und einem Rotationsparameter, und Ausgeben eines Mittelwerts der Voxel, die als das Objekt enthaltend identifiziert wurden.
-
Die Punktwolkendaten können mindestens eines aus dem LASer-(LAS)-Datenformat und dem Punktwolkendaten-(PCD)-Datenformat beinhalten.
-
Die Punktwolkendaten können x-Koordinatendaten, y-Koordinatendaten, z-Koordinatendaten und einen reflektierenden Intensitätswert beinhalten.
-
Die computerausführbaren Anweisungen veranlassen den mindestens einen Prozessor, den zweiten Durchlauf auf der Vielzahl von Voxeln durchzuführen, um Voxel zu identifizieren, die das Objekt beinhalten, durch Einstellen eines Voxels mit dem Rotationsparameter durch Drehen von Punkten des Voxels, Vergleichen des eingestellten Voxels mit gebündelten Daten und Ausgeben eines Mittelwerts des eingestellten Voxels, der das Objekt beinhaltet, wenn durch das Vergleichen angezeigt wird, dass das eingestellte Voxel das Objekt beinhaltet.
-
Die computerausführbaren Anweisungen veranlassen den mindestens einen Prozessor ferner dazu, den zweiten Durchlauf auf der Vielzahl von Voxeln durchzuführen, um Voxel zu identifizieren, die das Objekt beinhalten, durch Einstellen eines Voxels mit dem Jitterparameter durch Verschieben von Punkten des Voxels, Vergleichen des eingestellten Voxels mit gebündelten Daten und Ausgeben eines Mittelwerts des eingestellten Voxels, der das Objekt beinhaltet, wenn durch das Vergleichen angezeigt wird, dass das eingestellte Voxel das Objekt beinhaltet.
-
Das Objekt kann mindestens eines aus einer Verkehrssteuerungsvorrichtung, eines Verkehrskontrollschildes und einer Ampelsteuerung beinhalten.
-
Die computerausführbaren Anweisungen können den mindestens einen Prozessor ferner veranlassen, die Differenz der Gradienten der Vielzahl von Voxeln durch Berechnen einer Differenz zwischen einem mittleren Voxel der Zelle und allen anderen Voxeln in der Zelle zu berechnen.
-
Die Vorrichtung kann ferner einen LIDAR-Sensor beinhalten. Die computerausführbaren Anweisungen können den mindestens einen Prozessor ferner veranlassen, die Sensordaten von einem LIDAR-Sensor zu empfangen.
-
Die computerausführbaren Anweisungen können den mindestens einen Prozessor ferner veranlassen, die Punktwolkendaten in eine Vielzahl von Zellen zu unterteilen und die Zelle durch Auswählen einer Zelle aus der Vielzahl von Zellen auszuwählen.
-
Die computerausführbaren Anweisungen können den mindestens einen Prozessor ferner veranlassen, die Punktwolkendaten in eine Vielzahl von Zellen basierend auf Merkmalen der Punktwolkendaten zu unterteilen.
-
Weitere Zwecke, Vorteile und neuartige Merkmale der Ausführungsbeispiele ergeben sich aus der nachfolgenden detaillierten Beschreibung der Ausführungsbeispiele und den beigefügten Zeichnungen.
-
Figurenliste
-
- 1 stellt ein Blockdiagramm einer Vorrichtung dar, die Lichtdetektions- und Abstandssensordaten gemäß einer exemplarischen Ausführungsform klassifiziert;
- 2 stellt ein Flussdiagramm für ein Verfahren zum Klassifizieren von Lichtdetektions- und Abstandssensordaten gemäß einer exemplarischen Ausführungsform dar; und
- 3 zeigt Darstellungen von Objekten, die unter Verwendung der Lichtdetektions- und Abstandssenordaten gemäß einem Aspekt einer exemplarischen Ausführungsform identifiziert wurden.
-
AUSFÜHRLICHE BESCHREIBUNG VON EXEMPLARISCHEN AUSFÜHRUNGSFORMEN
-
Eine Vorrichtung und ein Verfahren zum Klassifizieren von Lichtdetektions- und Abstandsinformationen wird nun unter Bezugnahme auf die 1-3 der beigefügten Zeichnungen ausführlich beschrieben, in denen sich gleiche Bezugszeichen auf gleiche Elemente beziehen.
-
Die folgende Offenbarung ermöglicht es Fachleuten Erfindungsgedanken auszuüben. Jedoch sind die hierin offenbarten Ausführungsbeispiele lediglich exemplarisch und beschränken nicht den Erfindungsgedanken der hierin beschriebenen Ausführungsbeispiele. Außerdem sollten Beschreibungen der Merkmale oder Aspekte jedes Ausführungsbeispiels normalerweise als verfügbar für Aspekte von anderen Ausführungsbeispielen berücksichtigt werden.
-
Es versteht sich auch, dass dort, wo es hierin angegeben ist, ein erstes Element mit einem zweiten Element „verbunden mit“, „gebildet auf“ oder „angelegt“ ist, das erste Element direkt verbunden mit, direkt gebildet auf oder direkt auf dem zweiten Element angeordnet sein kann, dass Zwischenelemente zwischen dem ersten Element und dem zweiten Element vorhanden sein können, es sei denn, es wird angegeben, dass ein erstes Element „direkt“ mit dem zweiten Element verbunden, daran befestigt, darauf ausgebildet oder auf diesem angeordnet ist. Wenn darüber hinaus ein erstes Element dazu konfiguriert ist, Informationen von einem zweiten Element zu „senden“ oder auf diesem zu „empfangen“, kann das erste Element die Informationen direkt zu dem zweiten Element senden oder von diesem empfangen, die Informationen über einen Bus senden oder von diesem empfangen, die Informationen über ein Netzwerk senden oder empfangen, oder die Information über Zwischenelemente senden oder empfangen, es sei denn, das erste Element wird angezeigt, um Informationen „direkt“ zu dem zweiten Element zu senden oder von diesem zu empfangen.
-
In der gesamten Offenbarung können eines oder mehrere der offenbarten Elemente zu einer einzigen Vorrichtung kombiniert oder zu einer oder mehreren Vorrichtungen kombiniert werden. Zusätzlich können einzelne Elemente auf separaten Vorrichtungen vorgesehen sein.
-
Fahrzeuge werden mit Sensoren ausgestattet, die in der Lage sind, die Bedingungen oder Objekte der Umgebung eines Fahrzeugs zu erfassen. Die Sensoren liefern Informationen über die Bedingungen oder Objekte in der Umgebung und diese Informationen können zum Steuern des Fahrzeugs oder zur Unterstützung eines Fahrzeugführers verwendet werden. Ein derartiger Sensor, z. B. ein LIDAR, kann konfiguriert werden, um Lichtdetektions- und Abstandsinformationen bereitzustellen. Die Lichtdetektions- und Abstandsinformationen können verwendet werden, um ein Objekt, wie beispielsweise eine Verkehrssteuerungsvorrichtung oder eine Ampel, zu erfassen. Jedoch müssen Lichtdetektions- und Abstandsinformationen effizient verarbeitet und klassifiziert werden, um ein Objekt anhand der Informationen zu identifizieren.
-
Um das vorgenannte Problem zu lösen, können Lichtdetektions- und Abstandsinformationen geteilt und Informationen zu einer effizienten Identifizierung der Merkmale können gebündelt werden. Darüber hinaus können die Informationen durch das Berücksichtigen von Jitter- und Rotationsparametern beim Verarbeiten der Lichtdetektions- und Abstandsinformationen angepasst werden, um Umwelteinflüssen, wie beispielsweise Wind, entgegenzuwirken.
-
1 zeigt ein Blockdiagramm einer Vorrichtung, die gemäß einer exemplarischen Ausführungsform Lichtdetektions- und Abstandsinformationen 100 klassifiziert. Wie in 1 dargestellt, beinhaltet die Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 gemäß einer exemplarischen Ausführungsform eine Steuerung 101, eine Stromversorgung 102, einen Speicher 103, eine Ausgabe 104, eine Fahrzeugantriebssteuerung 105, eine Benutzereingabe 106, einen Objekterkennungssensor 107 und eine Kommunikationsvorrichtung 108. Jedoch ist die Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 nicht auf die vorstehend erwähnte Konfiguration beschränkt und kann so konfiguriert sein, dass sie zusätzliche Elemente beinhaltet und/oder ein oder mehrere der vorgenannten Elemente weglässt. Die Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 kann als Teil eines Fahrzeugs, als eigenständige Komponente, als Hybrid zwischen einer Fahrzeug- und einer nicht Fahrzeugvorrichtung oder einem anderen Computergerät implementiert sein.
-
Die Steuerung 101 steuert den Gesamtbetrieb und die Funktion der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100. Die Steuerung 101 kann einen oder mehrere Speicher 103, eine Ausgabe 104, eine Fahrzeugantriebssteuerung 105, eine Benutzereingabe 106, einen Objekterkennungssensor 107 und eine Kommunikationsvorrichtung 108 der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 steuern. Die Steuerung 101 kann einen oder mehrere aus einem Prozessor, einem Mikroprozessor, einer zentralen Verarbeitungseinheit (CPU), einem Grafikprozessor, anwendungsspezifischen integrierten Schaltungen (ASICs), feldprogrammierbaren Gate-Arrays (FPGAs), Zustandsmaschinen, Schaltungen und einer Kombination von Hardware-, Software- und Firmware-Komponenten beinhalten.
-
Die Steuerung 101 ist konfiguriert, um Informationen von einem oder mehreren der Speicher 103, dem Ausgang 104, der Fahrzeugantriebssteuerung 105, der Benutzereingabe 106, dem Objekterkennungssensor 107 und der Kommunikationsvorrichtung 108 der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 zu senden und/oder zu empfangen. Die Informationen können über einen Bus oder ein Netzwerk gesendet und empfangen werden oder können direkt von einem oder mehreren von dem Speicher 103, dem Ausgang 104, der Benutzereingabe 106, dem Objektsensor 107 und der Kommunikationsvorrichtung 108 der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 gelesen oder geschrieben werden. Beispiele geeigneter Netzwerkverbindungen beinhalten ein Controller Area Network (CAN), einen medienorientierten Systemtransfer (MOST), ein lokales Kopplungsstrukturnetzwerk (LIN), ein lokales Netzwerk (LAN), Drahtlosnetzwerke, wie beispielsweise Bluetooth und 802.11, und andere geeignete Verbindungen, wie z. B. Ethernet.
-
Die Stromversorgung 102 liefert Leistung an eine oder mehrere der Steuerungen 101, den Speicher 103, dem Ausgang 104, der Fahrzeugantriebssteuerung 105, der Benutzereingabe 106, dem Objekterkennungssensor 107 und der Kommunikationsvorrichtung 108 der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100. Die Stromversorgung 102 kann eine oder mehrere aus einer Batterie, einem Auslass, einem Kondensator, einer Solarenergiezelle, einem Generator, einer Windenergievorrichtung, einem Wechselstromgenerator usw. beinhalten.
-
Der Speicher 103 ist zum Speichern von Informationen und zum Wiedergewinnen von Informationen konfiguriert, die von der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 verwendet werden. Der Speicher 103 kann durch die Steuerung 101 gesteuert werden, um von der Steuerung 101, dem Objekterkennungssensor 107 und/oder der Kommunikationsvorrichtung 108 empfangene Informationen zu speichern und abzurufen. Die Informationen können Lichtdetektions- und Abstandsinformationen einschließlich dreidimensionaler (x, y, z) Koordinaten und reflektierender Intensitätswerte oder Reflektivitätswerte beinhalten. Die Lichtdetektions- und Abstandsinformationen können in einem LASer-(LAS)-Dateiformat oder einem Punktwolkendaten-(PCD)-Dateiformat bereitgestellt werden. Der Speicher 103 kann auch konfiguriert sein, um gebündelte Trainingsdaten und menschliche Kennzeichnungen der gebündelten Trainingsdaten aus einer Reihe von Merkmalen zu speichern, die aus den Sensordaten berechnet werden. Der Speicher 103 kann auch die Computeranweisungen beinhalten, die zum Ausführen durch einen Prozessor konfiguriert sind, um die Funktionen der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 auszuführen.
-
Der Speicher 103 kann ein oder mehrere aus Disketten, optischen Platten, CD-ROMs (Compact Disc-Read Only Memories), magnetooptischen Platten, ROMs (Read Only Memories), RAMs (Random Access Memories), EPROMs (löschbare programmierbare Nur-Lese-Speicher), EEPROMs (elektrisch löschbare programmierbare Nur-Lese-Speicher), magnetische oder optische Karten, Flash-Speicher, Cache-Speicher und andere Arten von Medien/maschinenlesbaren Medien beinhalten, die zum Speichern von maschinenausführbaren Anweisungen geeignet sind.
-
Der Ausgang 104 gibt Informationen in einer oder mehreren Formen aus, einschließlich: visuell, hörbar und/oder haptisch. Der Ausgang 104 kann über die Steuerung 101 gesteuert werden, um dem Benutzer der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 Ausgänge zu liefern. Der Ausgang 104 kann einen oder mehrere aus einem Lautsprecher, einer Audiovorrichtung, einer Anzeige, einer zentral gelegenen Anzeige, einem Head-Up-Display, einer Windschutzscheibenanzeige, einer haptischen Rückmeldungsvorrichtung, einer Schwingungsvorrichtung, einer taktilen Rückmeldungsvorrichtung, einer Tap-Rückmeldungsvorrichtung, einer holografischen Anzeige, einer Instrumentenleuchte, einer Kontrollleuchte usw. beinhalten.
-
Der Ausgang 104 kann eine Benachrichtigung und/oder Informationen ausgeben, die eine oder mehrere aus einer hörbaren Benachrichtigung, einer Lichtbenachrichtigung und einer Anzeigebenachrichtigung beinhalten. Die Benachrichtigungen und/oder Informationen können den Status der Verkehrssteuerungsvorrichtung anzeigen und/oder angeben, ob die Verkehrssteuerungsvorrichtung erkannt wird. In einem Beispiel kann die Ausgabe 104 einen Durchschnitt von Voxeln ausgeben, die das Objekt, eine Grafik mit dem identifizierten Objekt oder eine Karte und einen Indikator um das identifizierte Objekt herum beinhalten.
-
Die Fahrzeugantriebssteuerung 105 kann konfiguriert sein, um eine oder mehrere von einer Trajektorie eines Fahrzeugs, einer Geschwindigkeit eines Fahrzeugs, einer Beschleunigung/Verzögerung eines Fahrzeugs zu steuern. So kann beispielsweise die Fahrzeugsteuerung 105 dazu konfiguriert sein, das Gaspedal einzustellen, die Leistung eines Motors einzustellen, den Kraftstoff, der in eine Brennkammer eingespritzt wird, einzustellen und/oder eine Bremse zu aktivieren, um die Geschwindigkeit eines Fahrzeugs zu steuern. In einem anderen Beispiel kann die Fahrzeugsteuerung 105 konfiguriert werden, um die Trajektorie des Fahrzeugs durch Steuern des Lenkrads oder der Räder eines Fahrzeugs zu ändern. Die Fahrzeugantriebssteuerung 105 kann ein Fahrzeug gemäß dem erfassten Objekttyp oder gemäß einem Signal oder Licht, das von dem erfassten Objekt ausgesendet wird, steuern.
-
Die Benutzereingabe 106 ist konfiguriert, um Informationen und Befehle an die Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 zu liefern. Die Benutzereingabe 106 kann verwendet werden, um Benutzereingaben usw. für die Steuerung 101 bereitzustellen. Die Benutzereingabe 106 kann einen oder mehrere aus einem Touchscreen, einer Tastatur, einer Softtastatur, einer Schaltfläche, einem Bewegungsdetektor, einem Spracheingabedetektor, einem Mikrofon, einer Kamera, einem Trackpad, einem Lenkrad, einem Touchpad usw. beinhalten. Die Benutzereingabe 106 kann dazu konfiguriert sein, eine Benutzereingabe zu empfangen und damit die Benachrichtigung durch den Ausgang 104 zu bestätigen oder zu verwerfen. Die Benutzereingabe 106 kann auch konfiguriert werden, um eine Benutzereingabe zum Kennzeichnen von Trainingsdaten von einem Bediener der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 zu empfangen.
-
Der Objekterkennungssensor 107 kann einen oder mehrere aus einer Vielzahl von Sensoren beinhalten, die eine Kamera, einen Lasersensor, einen Ultraschallsensor, eine Infrarotkamera, einen LIDAR, einen Radarsensor, einen Ultrakurzstrecken-Radarsensor, einen Ultrabreitband-Radarsensor und einen Mikrowellensensor beinhalten. Der Objekterkennungssensor 107 kann dazu konfiguriert sein, einen Bereich um ein Fahrzeug zum Erkennen eines Objekts, wie beispielsweise einer Verkehrssteuerungsvorrichtung, abzutasten. Der Objekterkennungssensor 107 kann konfiguriert werden, um Lichtdetektions- und Abstandsinformationen bereitzustellen. Die Lichtdetektions- und Abstandsinformationen können eine dreidimensionale (x, y, z) Koordinaten und reflektierende Intensitätswerte oder Reflektivitätswerte beinhalten. Die Lichtdetektions- und Abstandsinformationen können in einem LASer-(LAS)-Dateiformat oder einem Punktwolkendaten-(PCD)-Dateiformat bereitgestellt werden.
-
Die Kommunikationsvorrichtung 108 kann durch die Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 verwendet werden, um mit verschiedenen Arten von externen Vorrichtungen gemäß verschiedenen Kommunikationsverfahren zu kommunizieren. Die Kommunikationsvorrichtung 108 kann zum Senden/Empfangen von Informationen, inklusive Lichtdetektion und Abstandsinformationen, einschließlich dreidimensionaler (x, y, z) Koordinaten und reflektierender Intensitätswerte oder Reflektivitätswerte, verwendet werden. Die Lichtdetektions- und Abstandsinformationen können in einem LASer-(LAS)-Dateiformat oder einem Punktwolkendaten-(PCD)-Dateiformat bereitgestellt werden. Die Kommunikationsvorrichtung 108 kann auch verwendet werden, um gebündelte Trainingsdaten und menschliche Kennzeichnungen der gebündelten Trainingsdaten von Merkmalsvektoren aus einer Reihe von Merkmalen zu empfangen, die aus den Sensordaten berechnet werden.
-
Die Kommunikationsvorrichtung 108 kann verschiedene Kommunikationsmodule beinhalten, wie etwa ein oder mehrere Rundfunkempfangsmodule, ein Nahbereichskommunikations-(NFC)-Modul, ein GPS-Modul und ein Drahtloskommunikationsmodul. Das Rundfunkempfangsmodul kann ein terrestrisches Rundfunkempfangsmodul beinhalten, welches eine Antenne beinhaltet, um ein terrestrisches Rundfunksignal, einen Demodulator und einen Entzerrer usw. zu empfangen. Das NFC-Modul ist ein Modul, das mit einer externen Vorrichtung kommuniziert, die sich in einer nahe gelegenen Entfernung gemäß einem NFC-Verfahren befindet. Der GPS-Empfänger ist ein Modul, das ein GPS-Signal von einem GPS-Satelliten empfängt und einen aktuellen Standort erkennt. Das drahtgebundene Kommunikationsmodul kann ein Modul sein, das Informationen über ein drahtgebundenes Netzwerk, wie etwa ein lokales Netzwerk, ein Controller Area Network (CAN) oder ein externes Netzwerk, empfängt. Das drahtlose Kommunikationsmodul ist ein Modul, das über ein drahtloses Kommunikationsprotokoll, wie beispielsweise ein IEEE 802.11-Protokoll, WiMAX-, WLAN- oder IEEE-Kommunikationsprotokoll mit einem externen Netzwerk verbunden ist und mit dem externen Netzwerk kommuniziert. Das Drahtloskommunikationsmodul kann ferner ein Mobilkommunikationsmodul beinhalten, das auf ein Mobilkommunikationsnetzwerk zugreift und eine Kommunikation gemäß verschiedenen Mobilkommunikationsstandards, wie etwa 3.Generation (3G), 3.Generation Partnerschaftsprojekt (3GPP), Langzeitentwicklung (LTE), Bluetooth, EVDO, CDMA, GPRS, EDGE oder ZigBee, beinhalten.
-
Gemäß einer weiteren exemplarischen Ausführungsform kann die Steuerung 101 der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 konfiguriert werden, um Sensordaten des LIDAR in Punktwolkendaten zu transformieren, eine Differenz von Gradienten für die Vielzahl von Voxeln zu berechnen, einen ersten Durchlauf auf der Vielzahl von Voxeln durchführen, um Voxel zu identifizieren, die ein Objekt basierend auf der Differenz von Gradienten beinhalten, einen zweiten Durchlauf auf der Vielzahl von Voxeln durchführen, um Voxel zu identifizieren, die das Objekt beinhalten, durch Einstellen eines Voxels mit mindestens einem aus einem Jitterparameter und einem Rotationsparameter, und Ausgeben eines Mittelwerts der Voxel, die als das Objekt enthaltend identifiziert wurden.
-
Die Steuerung 101 der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 kann konfiguriert werden, um den zweiten Durchgang auf der Vielzahl von Voxeln zum Identifizieren von Voxeln, die das Objekt beinhalten, durchzuführen, indem ein Voxel mit dem Rotationsparameter durch Drehen von Punkten des Voxels eingestellt wird, wobei das eingestellte Voxel mit gebündelten Daten verglichen wird und ein Mittelwert des eingestellten Voxels ausgegeben wird, der als das Objekt enthaltend identifiziert wurde, wenn durch das Vergleichen angezeigt wird, dass das eingestellte Voxel das Objekt beinhaltet.
-
Die Steuerung 101 der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 kann konfiguriert werden, um den zweiten Durchgang auf der Vielzahl von Voxeln zum Identifizieren von Voxeln, die das Objekt beinhalten, durchzuführen, indem ein Voxel mit dem Jitterparameter durch Verschieben von Punkten des Voxels eingestellt wird, wobei das eingestellte Voxel mit gebündelten Daten verglichen wird und ein Mittelwert des eingestellten Voxels ausgegeben wird, der als das Objekt enthaltend identifiziert wurde, wenn durch das Vergleichen angezeigt wird, dass das eingestellte Voxel das Objekt beinhaltet.
-
Die Steuerung 101 der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 kann konfiguriert werden, um die Differenz der Gradienten der Vielzahl von Voxeln durch Berechnen einer Differenz zwischen einem mittleren Voxel der Zelle und allen anderen Voxeln in der Zelle zu berechnen. Darüber hinaus kann die Steuerung 101 der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 konfiguriert werden, um die Sensordaten von einem LIDAR-Sensor zu empfangen.
-
Die Steuerung 101 der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 kann konfiguriert werden, um die Punktwolkendaten in eine Vielzahl von Zellen zu unterteilen und die Zelle durch Auswählen einer Zelle aus der Vielzahl von Zellen auszuwählen. Die Steuerung 101 kann die Punktwolkendaten basierend auf den Merkmalen der Punktwolkendaten in eine Vielzahl von Zellen unterteilen.
-
2 stellt ein Flussdiagramm zum Klassifizieren von Lichtdetektions- und Abstandssensordaten gemäß einer exemplarischen Ausführungsform dar. Das Verfahren von 2 kann durch die Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 durchgeführt werden oder kann in ein computerlesbares Medium als Anweisungen codiert werden, die von einem Computer ausführbar sind, um das Verfahren durchzuführen.
-
Unter Bezugnahme auf 2 werden die Sensordaten eines LIDAR im Betrieb S210 in Punktwolkendaten transformiert. Im Betrieb S220 wird eine Zelle mit einer Teilmenge der Punktwolkendaten ausgewählt. Die ausgewählte Zelle wird im Betrieb S230 in eine Vielzahl von Voxeln unterteilt. Anschließend wird im Betrieb S240 eine Differenz des Gradienten der Vielzahl von Voxeln berechnet.
-
Basierend auf der berechneten Differenz der Gradienten wird ein erster Durchlauf auf der Vielzahl der Voxel durchgeführt, um Voxel zu identifizieren, die ein Objekt im Betrieb S250 beinhalten. Anschließend wird ein zweiter Durchlauf auf der Vielzahl von Voxeln durch Einstellen eines Voxels mit einem Jitterparameter und einem Rotationsparameter durchgeführt, um einen eingestellten Voxel zu identifizieren, der das Objekt im Betrieb S260 beinhaltet. Im Betrieb S270 wird ein Mittelwert der Voxel, die das Objekt beinhalten, ausgegeben.
-
3 zeigt Darstellungen von Objekten, die unter Verwendung der Lichtdetektions- und Abstandssensordaten gemäß einem Aspekt einer exemplarischen Ausführungsform identifiziert wurden. Unter Bezugnahme auf 3 wird ein Bild 400 eines Bereichs dargestellt, der von einem Sensor abgetastet wurde. Das Bild 400 beinhaltet Datenpunkte 401 der durch den LIDAR-Sensor erfassten Sensordaten. Wie in den Feldern 402 dargestellt, können Objekte, wie beispielsweise Ampeln und Schilder, aus den Sensordaten durch die Verwendung der Vorrichtung und des Verfahrens zum Klassifizieren von Lichtdetektions- und Abstandssensordaten 100 identifiziert werden.
-
Die hierin offenbarten Prozesse, Verfahren oder Algorithmen können von einer Verarbeitungsvorrichtung, einer Steuerung oder einem Computer, die jede vorhandene programmierbare elektronische Steuervorrichtung oder eine dedizierte elektronische Steuervorrichtung beinhalten können, geliefert/implementiert werden.
-
Desgleichen können die Prozesse, Verfahren oder Algorithmen als Daten oder ausführbare Anweisungen durch eine Steuerung oder einen Computer in vielfältiger Weise gespeichert werden, darunter ohne Einschränkung die dauerhafte Speicherung auf nicht beschreibbaren Speichermedien, wie einem ROM, und als änderbare Information auf beschreibbaren Speichermedien wie Disketten, Magnetbändern, CDs, RAM sowie anderen magnetischen und optischen Medien. Die Prozesse, Verfahren oder Algorithmen können auch in einem softwareausführbaren Objekt implementiert werden. Alternativ können die Prozesse, Verfahren oder Algorithmen ganz oder teilweise mit geeigneten Hardwarekomponenten, wie beispielsweise anwendungsspezifischen integrierten Schaltungen (ASICs), feldprogrammierbaren Gate Arrays (FPGAs), Zustandsmaschinen, Steuerungen oder anderen Hardwarekomponenten oder Vorrichtungen oder einer Kombination von Hardware, Software und Firmwarekomponenten verkörpert werden.
-
Es wurden oben ein oder mehrere exemplarische Ausführungsformen anhand der Zeichnungen beschrieben. Die oben beschriebenen exemplarischen Ausführungsformen sollten nur im beschreibenden Sinne betrachtet werden und nicht der Begrenzung dienen. Außerdem können die exemplarischen Ausführungsformen ohne Abweichen vom Geist und Schutzumfang des Erfindungsgedankens modifiziert werden, was in den folgenden Ansprüchen definiert ist.