DE102018112151A1 - Verfahren und vorrichtung zum klassifizieren von lidardaten zur objekterkennung - Google Patents

Verfahren und vorrichtung zum klassifizieren von lidardaten zur objekterkennung Download PDF

Info

Publication number
DE102018112151A1
DE102018112151A1 DE102018112151.2A DE102018112151A DE102018112151A1 DE 102018112151 A1 DE102018112151 A1 DE 102018112151A1 DE 102018112151 A DE102018112151 A DE 102018112151A DE 102018112151 A1 DE102018112151 A1 DE 102018112151A1
Authority
DE
Germany
Prior art keywords
voxels
voxel
point cloud
data
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018112151.2A
Other languages
English (en)
Inventor
David H. Clifford
David J. Hiemenga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
General Motors LLC
Original Assignee
GM Global Technology Operations LLC
General Motors LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC, General Motors LLC filed Critical GM Global Technology Operations LLC
Publication of DE102018112151A1 publication Critical patent/DE102018112151A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Nonlinear Science (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Ein Verfahren und eine Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandssensordaten sind vorgesehen. Das Verfahren beinhaltet das Transformieren von Sensordaten des LIDAR in Punktwolkendaten, Auswählen einer Zelle mit einer Teilmenge der Punktwolkendaten, Unterteilen der ausgewählten Zelle in eine Vielzahl von Voxeln, Berechnen einer Differenz von Gradienten für die Vielzahl von Voxeln, Durchführen eines ersten Durchlaufs der Vielzahl von Voxeln, um Voxel zu identifizieren, die ein Objekt basierend auf der Differenz von Gradienten beinhalten, Durchführen eines zweiten Durchlaufs der Vielzahl von Voxeln, um Voxel zu identifizieren, die das Objekt beinhalten, durch Einstellen eines Voxels mit mindestens einem aus einem Jitterparameter und einem Rotationsparameter, und Ausgeben eines Mittelwerts der Voxel, die das Objekt beinhalten.

Description

  • EINLEITUNG
  • Vorrichtungen und Verfahren in Übereinstimmung mit exemplarischen Ausführungsformen beziehen sich auf die Lichtdetektions- und Abstandsmessung (Light Detection and Ranging). Insbesondere beziehen sich Vorrichtungen und Verfahren in Übereinstimmung mit exemplarischen Ausführungsformen auf das Klassifizieren von Lichtdetektions- und Abstandsinformationen.
  • KURZDARSTELLUNG
  • Eine oder mehrere exemplarische Ausführungsformen stellen ein Verfahren und eine Vorrichtung bereit, die Lichtdetektions- und Abstandsinformationen verarbeitet. Insbesondere stellen eine oder mehrere exemplarische Ausführungsformen ein Verfahren und eine Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen zum Durchführen der Objekterkennung bereit.
  • Gemäß einer exemplarischen Ausführungsform ist ein Verfahren zum Klassifizieren von Lichtdetektions- und Abstands-(LIDAR)-Sensordaten vorgesehen. Das Verfahren beinhaltet: Transformieren von Sensordaten des LIDAR in Punktwolkendaten, Auswählen einer Zelle mit einer Teilmenge der Punktwolkendaten, Unterteilen der ausgewählten Zelle in eine Vielzahl von Voxeln, Berechnen einer Differenz von Gradienten für die Vielzahl von Voxeln, Durchführen eines ersten Durchlaufs der Vielzahl von Voxeln, um Voxel zu identifizieren, die ein Objekt basierend auf der Differenz von Gradienten beinhalten, Durchführen eines zweiten Durchlaufs der Vielzahl von Voxeln, um Voxel zu identifizieren, die das Objekt beinhalten, durch Einstellen eines Voxels mit mindestens einem aus einem Jitterparameter und einem Rotationsparameter, und Ausgeben eines Durchschnitts der Voxel, die das Objekt beinhalten.
  • Die Punktwolkendaten können mindestens eines aus dem LASer-(LAS)-Datenformat und dem Punktwolkendaten-(PCD)-Datenformat beinhalten.
  • Die Punktwolkendaten können x-Koordinatendaten, y-Koordinatendaten, z-Koordinatendaten und einen reflektierenden Intensitätswert beinhalten.
  • Das Durchführen des zweiten Durchlaufs der Vielzahl von Voxeln zum Identifizieren von Voxeln, die das Objekt beinhalten, kann das Einstellen eines Voxels mit dem Rotationsparameter durch Drehen von Punkten des Voxels, das Vergleichen des eingestellten Voxels mit gebündelten Daten und das Ausgeben eines Durchschnitts des eingestellten Voxels, der das Objekt beinhaltet, umfassen, wenn der Vergleich anzeigt, dass das eingestellte Voxel das Objekt beinhaltet.
  • Das Durchführen des zweiten Durchlaufs der Vielzahl von Voxeln zum Identifizieren von Voxeln, die das Objekt beinhalten, kann das Einstellen eines Voxels mit dem Jitterparameter durch Verschieben von Punkten des Voxels, das Vergleichen des eingestellten Voxels mit gebündelten Daten und das Ausgeben eines Durchschnitts des eingestellten Voxels, der das Objekt beinhaltet, umfassen, wenn der Vergleich anzeigt, dass das eingestellte Voxel das Objekt beinhaltet.
  • Das Objekt beinhaltet mindestens eines aus einer Verkehrssteuerungsvorrichtung, ein Verkehrskontrollschild und eine Ampelsteuerung.
  • Das Berechnen der Differenz der Gradienten der Vielzahl von Voxeln beinhaltet das Berechnen einer Differenz zwischen einem mittleren Voxel der Zelle und allen anderen Voxeln in der Zelle.
  • Das Verfahren kann ferner das Empfangen der Sensordaten von einem LIDAR-Sensor beinhalten.
  • Das Verfahren kann ferner das Unterteilen der Punktwolkendaten in eine Vielzahl von Zellen beinhalten, und das Auswählen der Zelle kann das Auswählen einer Zelle aus der Vielzahl von Zellen beinhalten.
  • Gemäß einer exemplarischen Ausführungsform ist eine Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstands-(LIDAR)-Sensordaten vorgesehen. Die Vorrichtung beinhaltet mindestens einen Prozessor, der computerausführbare Anweisungen beinhaltet; und mindestens einen Prozessor, der dazu konfiguriert ist, die computerausführbaren Anweisungen auszuführen. Die computerausführbaren Anweisungen veranlassen den mindestens einen Prozessor, Sensordaten des LIDAR in Punktwolkendaten zu transformieren, eine Zelle mit einer Teilmenge der Punktwolkendaten auszuwählen, die ausgewählte Zelle in eine Vielzahl von Voxeln zu unterteilen, eine Differenz von Gradienten für die Vielzahl von Voxeln zu berechnen, Durchführen eines ersten Durchlaufs auf der Vielzahl von Voxeln, um Voxel zu identifizieren, die ein Objekt basierend auf der Differenz von Gradienten beinhalten, Durchführen eines zweiten Durchlaufs auf der Vielzahl von Voxeln, um Voxel zu identifizieren, die das Objekt beinhalten, durch Einstellen eines Voxels mit mindestens einem aus einem Jitterparameter und einem Rotationsparameter, und Ausgeben eines Mittelwerts der Voxel, die als das Objekt enthaltend identifiziert wurden.
  • Die Punktwolkendaten können mindestens eines aus dem LASer-(LAS)-Datenformat und dem Punktwolkendaten-(PCD)-Datenformat beinhalten.
  • Die Punktwolkendaten können x-Koordinatendaten, y-Koordinatendaten, z-Koordinatendaten und einen reflektierenden Intensitätswert beinhalten.
  • Die computerausführbaren Anweisungen veranlassen den mindestens einen Prozessor, den zweiten Durchlauf auf der Vielzahl von Voxeln durchzuführen, um Voxel zu identifizieren, die das Objekt beinhalten, durch Einstellen eines Voxels mit dem Rotationsparameter durch Drehen von Punkten des Voxels, Vergleichen des eingestellten Voxels mit gebündelten Daten und Ausgeben eines Mittelwerts des eingestellten Voxels, der das Objekt beinhaltet, wenn durch das Vergleichen angezeigt wird, dass das eingestellte Voxel das Objekt beinhaltet.
  • Die computerausführbaren Anweisungen veranlassen den mindestens einen Prozessor ferner dazu, den zweiten Durchlauf auf der Vielzahl von Voxeln durchzuführen, um Voxel zu identifizieren, die das Objekt beinhalten, durch Einstellen eines Voxels mit dem Jitterparameter durch Verschieben von Punkten des Voxels, Vergleichen des eingestellten Voxels mit gebündelten Daten und Ausgeben eines Mittelwerts des eingestellten Voxels, der das Objekt beinhaltet, wenn durch das Vergleichen angezeigt wird, dass das eingestellte Voxel das Objekt beinhaltet.
  • Das Objekt kann mindestens eines aus einer Verkehrssteuerungsvorrichtung, eines Verkehrskontrollschildes und einer Ampelsteuerung beinhalten.
  • Die computerausführbaren Anweisungen können den mindestens einen Prozessor ferner veranlassen, die Differenz der Gradienten der Vielzahl von Voxeln durch Berechnen einer Differenz zwischen einem mittleren Voxel der Zelle und allen anderen Voxeln in der Zelle zu berechnen.
  • Die Vorrichtung kann ferner einen LIDAR-Sensor beinhalten. Die computerausführbaren Anweisungen können den mindestens einen Prozessor ferner veranlassen, die Sensordaten von einem LIDAR-Sensor zu empfangen.
  • Die computerausführbaren Anweisungen können den mindestens einen Prozessor ferner veranlassen, die Punktwolkendaten in eine Vielzahl von Zellen zu unterteilen und die Zelle durch Auswählen einer Zelle aus der Vielzahl von Zellen auszuwählen.
  • Die computerausführbaren Anweisungen können den mindestens einen Prozessor ferner veranlassen, die Punktwolkendaten in eine Vielzahl von Zellen basierend auf Merkmalen der Punktwolkendaten zu unterteilen.
  • Weitere Zwecke, Vorteile und neuartige Merkmale der Ausführungsbeispiele ergeben sich aus der nachfolgenden detaillierten Beschreibung der Ausführungsbeispiele und den beigefügten Zeichnungen.
  • Figurenliste
    • 1 stellt ein Blockdiagramm einer Vorrichtung dar, die Lichtdetektions- und Abstandssensordaten gemäß einer exemplarischen Ausführungsform klassifiziert;
    • 2 stellt ein Flussdiagramm für ein Verfahren zum Klassifizieren von Lichtdetektions- und Abstandssensordaten gemäß einer exemplarischen Ausführungsform dar; und
    • 3 zeigt Darstellungen von Objekten, die unter Verwendung der Lichtdetektions- und Abstandssenordaten gemäß einem Aspekt einer exemplarischen Ausführungsform identifiziert wurden.
  • AUSFÜHRLICHE BESCHREIBUNG VON EXEMPLARISCHEN AUSFÜHRUNGSFORMEN
  • Eine Vorrichtung und ein Verfahren zum Klassifizieren von Lichtdetektions- und Abstandsinformationen wird nun unter Bezugnahme auf die 1-3 der beigefügten Zeichnungen ausführlich beschrieben, in denen sich gleiche Bezugszeichen auf gleiche Elemente beziehen.
  • Die folgende Offenbarung ermöglicht es Fachleuten Erfindungsgedanken auszuüben. Jedoch sind die hierin offenbarten Ausführungsbeispiele lediglich exemplarisch und beschränken nicht den Erfindungsgedanken der hierin beschriebenen Ausführungsbeispiele. Außerdem sollten Beschreibungen der Merkmale oder Aspekte jedes Ausführungsbeispiels normalerweise als verfügbar für Aspekte von anderen Ausführungsbeispielen berücksichtigt werden.
  • Es versteht sich auch, dass dort, wo es hierin angegeben ist, ein erstes Element mit einem zweiten Element „verbunden mit“, „gebildet auf“ oder „angelegt“ ist, das erste Element direkt verbunden mit, direkt gebildet auf oder direkt auf dem zweiten Element angeordnet sein kann, dass Zwischenelemente zwischen dem ersten Element und dem zweiten Element vorhanden sein können, es sei denn, es wird angegeben, dass ein erstes Element „direkt“ mit dem zweiten Element verbunden, daran befestigt, darauf ausgebildet oder auf diesem angeordnet ist. Wenn darüber hinaus ein erstes Element dazu konfiguriert ist, Informationen von einem zweiten Element zu „senden“ oder auf diesem zu „empfangen“, kann das erste Element die Informationen direkt zu dem zweiten Element senden oder von diesem empfangen, die Informationen über einen Bus senden oder von diesem empfangen, die Informationen über ein Netzwerk senden oder empfangen, oder die Information über Zwischenelemente senden oder empfangen, es sei denn, das erste Element wird angezeigt, um Informationen „direkt“ zu dem zweiten Element zu senden oder von diesem zu empfangen.
  • In der gesamten Offenbarung können eines oder mehrere der offenbarten Elemente zu einer einzigen Vorrichtung kombiniert oder zu einer oder mehreren Vorrichtungen kombiniert werden. Zusätzlich können einzelne Elemente auf separaten Vorrichtungen vorgesehen sein.
  • Fahrzeuge werden mit Sensoren ausgestattet, die in der Lage sind, die Bedingungen oder Objekte der Umgebung eines Fahrzeugs zu erfassen. Die Sensoren liefern Informationen über die Bedingungen oder Objekte in der Umgebung und diese Informationen können zum Steuern des Fahrzeugs oder zur Unterstützung eines Fahrzeugführers verwendet werden. Ein derartiger Sensor, z. B. ein LIDAR, kann konfiguriert werden, um Lichtdetektions- und Abstandsinformationen bereitzustellen. Die Lichtdetektions- und Abstandsinformationen können verwendet werden, um ein Objekt, wie beispielsweise eine Verkehrssteuerungsvorrichtung oder eine Ampel, zu erfassen. Jedoch müssen Lichtdetektions- und Abstandsinformationen effizient verarbeitet und klassifiziert werden, um ein Objekt anhand der Informationen zu identifizieren.
  • Um das vorgenannte Problem zu lösen, können Lichtdetektions- und Abstandsinformationen geteilt und Informationen zu einer effizienten Identifizierung der Merkmale können gebündelt werden. Darüber hinaus können die Informationen durch das Berücksichtigen von Jitter- und Rotationsparametern beim Verarbeiten der Lichtdetektions- und Abstandsinformationen angepasst werden, um Umwelteinflüssen, wie beispielsweise Wind, entgegenzuwirken.
  • 1 zeigt ein Blockdiagramm einer Vorrichtung, die gemäß einer exemplarischen Ausführungsform Lichtdetektions- und Abstandsinformationen 100 klassifiziert. Wie in 1 dargestellt, beinhaltet die Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 gemäß einer exemplarischen Ausführungsform eine Steuerung 101, eine Stromversorgung 102, einen Speicher 103, eine Ausgabe 104, eine Fahrzeugantriebssteuerung 105, eine Benutzereingabe 106, einen Objekterkennungssensor 107 und eine Kommunikationsvorrichtung 108. Jedoch ist die Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 nicht auf die vorstehend erwähnte Konfiguration beschränkt und kann so konfiguriert sein, dass sie zusätzliche Elemente beinhaltet und/oder ein oder mehrere der vorgenannten Elemente weglässt. Die Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 kann als Teil eines Fahrzeugs, als eigenständige Komponente, als Hybrid zwischen einer Fahrzeug- und einer nicht Fahrzeugvorrichtung oder einem anderen Computergerät implementiert sein.
  • Die Steuerung 101 steuert den Gesamtbetrieb und die Funktion der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100. Die Steuerung 101 kann einen oder mehrere Speicher 103, eine Ausgabe 104, eine Fahrzeugantriebssteuerung 105, eine Benutzereingabe 106, einen Objekterkennungssensor 107 und eine Kommunikationsvorrichtung 108 der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 steuern. Die Steuerung 101 kann einen oder mehrere aus einem Prozessor, einem Mikroprozessor, einer zentralen Verarbeitungseinheit (CPU), einem Grafikprozessor, anwendungsspezifischen integrierten Schaltungen (ASICs), feldprogrammierbaren Gate-Arrays (FPGAs), Zustandsmaschinen, Schaltungen und einer Kombination von Hardware-, Software- und Firmware-Komponenten beinhalten.
  • Die Steuerung 101 ist konfiguriert, um Informationen von einem oder mehreren der Speicher 103, dem Ausgang 104, der Fahrzeugantriebssteuerung 105, der Benutzereingabe 106, dem Objekterkennungssensor 107 und der Kommunikationsvorrichtung 108 der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 zu senden und/oder zu empfangen. Die Informationen können über einen Bus oder ein Netzwerk gesendet und empfangen werden oder können direkt von einem oder mehreren von dem Speicher 103, dem Ausgang 104, der Benutzereingabe 106, dem Objektsensor 107 und der Kommunikationsvorrichtung 108 der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 gelesen oder geschrieben werden. Beispiele geeigneter Netzwerkverbindungen beinhalten ein Controller Area Network (CAN), einen medienorientierten Systemtransfer (MOST), ein lokales Kopplungsstrukturnetzwerk (LIN), ein lokales Netzwerk (LAN), Drahtlosnetzwerke, wie beispielsweise Bluetooth und 802.11, und andere geeignete Verbindungen, wie z. B. Ethernet.
  • Die Stromversorgung 102 liefert Leistung an eine oder mehrere der Steuerungen 101, den Speicher 103, dem Ausgang 104, der Fahrzeugantriebssteuerung 105, der Benutzereingabe 106, dem Objekterkennungssensor 107 und der Kommunikationsvorrichtung 108 der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100. Die Stromversorgung 102 kann eine oder mehrere aus einer Batterie, einem Auslass, einem Kondensator, einer Solarenergiezelle, einem Generator, einer Windenergievorrichtung, einem Wechselstromgenerator usw. beinhalten.
  • Der Speicher 103 ist zum Speichern von Informationen und zum Wiedergewinnen von Informationen konfiguriert, die von der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 verwendet werden. Der Speicher 103 kann durch die Steuerung 101 gesteuert werden, um von der Steuerung 101, dem Objekterkennungssensor 107 und/oder der Kommunikationsvorrichtung 108 empfangene Informationen zu speichern und abzurufen. Die Informationen können Lichtdetektions- und Abstandsinformationen einschließlich dreidimensionaler (x, y, z) Koordinaten und reflektierender Intensitätswerte oder Reflektivitätswerte beinhalten. Die Lichtdetektions- und Abstandsinformationen können in einem LASer-(LAS)-Dateiformat oder einem Punktwolkendaten-(PCD)-Dateiformat bereitgestellt werden. Der Speicher 103 kann auch konfiguriert sein, um gebündelte Trainingsdaten und menschliche Kennzeichnungen der gebündelten Trainingsdaten aus einer Reihe von Merkmalen zu speichern, die aus den Sensordaten berechnet werden. Der Speicher 103 kann auch die Computeranweisungen beinhalten, die zum Ausführen durch einen Prozessor konfiguriert sind, um die Funktionen der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 auszuführen.
  • Der Speicher 103 kann ein oder mehrere aus Disketten, optischen Platten, CD-ROMs (Compact Disc-Read Only Memories), magnetooptischen Platten, ROMs (Read Only Memories), RAMs (Random Access Memories), EPROMs (löschbare programmierbare Nur-Lese-Speicher), EEPROMs (elektrisch löschbare programmierbare Nur-Lese-Speicher), magnetische oder optische Karten, Flash-Speicher, Cache-Speicher und andere Arten von Medien/maschinenlesbaren Medien beinhalten, die zum Speichern von maschinenausführbaren Anweisungen geeignet sind.
  • Der Ausgang 104 gibt Informationen in einer oder mehreren Formen aus, einschließlich: visuell, hörbar und/oder haptisch. Der Ausgang 104 kann über die Steuerung 101 gesteuert werden, um dem Benutzer der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 Ausgänge zu liefern. Der Ausgang 104 kann einen oder mehrere aus einem Lautsprecher, einer Audiovorrichtung, einer Anzeige, einer zentral gelegenen Anzeige, einem Head-Up-Display, einer Windschutzscheibenanzeige, einer haptischen Rückmeldungsvorrichtung, einer Schwingungsvorrichtung, einer taktilen Rückmeldungsvorrichtung, einer Tap-Rückmeldungsvorrichtung, einer holografischen Anzeige, einer Instrumentenleuchte, einer Kontrollleuchte usw. beinhalten.
  • Der Ausgang 104 kann eine Benachrichtigung und/oder Informationen ausgeben, die eine oder mehrere aus einer hörbaren Benachrichtigung, einer Lichtbenachrichtigung und einer Anzeigebenachrichtigung beinhalten. Die Benachrichtigungen und/oder Informationen können den Status der Verkehrssteuerungsvorrichtung anzeigen und/oder angeben, ob die Verkehrssteuerungsvorrichtung erkannt wird. In einem Beispiel kann die Ausgabe 104 einen Durchschnitt von Voxeln ausgeben, die das Objekt, eine Grafik mit dem identifizierten Objekt oder eine Karte und einen Indikator um das identifizierte Objekt herum beinhalten.
  • Die Fahrzeugantriebssteuerung 105 kann konfiguriert sein, um eine oder mehrere von einer Trajektorie eines Fahrzeugs, einer Geschwindigkeit eines Fahrzeugs, einer Beschleunigung/Verzögerung eines Fahrzeugs zu steuern. So kann beispielsweise die Fahrzeugsteuerung 105 dazu konfiguriert sein, das Gaspedal einzustellen, die Leistung eines Motors einzustellen, den Kraftstoff, der in eine Brennkammer eingespritzt wird, einzustellen und/oder eine Bremse zu aktivieren, um die Geschwindigkeit eines Fahrzeugs zu steuern. In einem anderen Beispiel kann die Fahrzeugsteuerung 105 konfiguriert werden, um die Trajektorie des Fahrzeugs durch Steuern des Lenkrads oder der Räder eines Fahrzeugs zu ändern. Die Fahrzeugantriebssteuerung 105 kann ein Fahrzeug gemäß dem erfassten Objekttyp oder gemäß einem Signal oder Licht, das von dem erfassten Objekt ausgesendet wird, steuern.
  • Die Benutzereingabe 106 ist konfiguriert, um Informationen und Befehle an die Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 zu liefern. Die Benutzereingabe 106 kann verwendet werden, um Benutzereingaben usw. für die Steuerung 101 bereitzustellen. Die Benutzereingabe 106 kann einen oder mehrere aus einem Touchscreen, einer Tastatur, einer Softtastatur, einer Schaltfläche, einem Bewegungsdetektor, einem Spracheingabedetektor, einem Mikrofon, einer Kamera, einem Trackpad, einem Lenkrad, einem Touchpad usw. beinhalten. Die Benutzereingabe 106 kann dazu konfiguriert sein, eine Benutzereingabe zu empfangen und damit die Benachrichtigung durch den Ausgang 104 zu bestätigen oder zu verwerfen. Die Benutzereingabe 106 kann auch konfiguriert werden, um eine Benutzereingabe zum Kennzeichnen von Trainingsdaten von einem Bediener der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 zu empfangen.
  • Der Objekterkennungssensor 107 kann einen oder mehrere aus einer Vielzahl von Sensoren beinhalten, die eine Kamera, einen Lasersensor, einen Ultraschallsensor, eine Infrarotkamera, einen LIDAR, einen Radarsensor, einen Ultrakurzstrecken-Radarsensor, einen Ultrabreitband-Radarsensor und einen Mikrowellensensor beinhalten. Der Objekterkennungssensor 107 kann dazu konfiguriert sein, einen Bereich um ein Fahrzeug zum Erkennen eines Objekts, wie beispielsweise einer Verkehrssteuerungsvorrichtung, abzutasten. Der Objekterkennungssensor 107 kann konfiguriert werden, um Lichtdetektions- und Abstandsinformationen bereitzustellen. Die Lichtdetektions- und Abstandsinformationen können eine dreidimensionale (x, y, z) Koordinaten und reflektierende Intensitätswerte oder Reflektivitätswerte beinhalten. Die Lichtdetektions- und Abstandsinformationen können in einem LASer-(LAS)-Dateiformat oder einem Punktwolkendaten-(PCD)-Dateiformat bereitgestellt werden.
  • Die Kommunikationsvorrichtung 108 kann durch die Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 verwendet werden, um mit verschiedenen Arten von externen Vorrichtungen gemäß verschiedenen Kommunikationsverfahren zu kommunizieren. Die Kommunikationsvorrichtung 108 kann zum Senden/Empfangen von Informationen, inklusive Lichtdetektion und Abstandsinformationen, einschließlich dreidimensionaler (x, y, z) Koordinaten und reflektierender Intensitätswerte oder Reflektivitätswerte, verwendet werden. Die Lichtdetektions- und Abstandsinformationen können in einem LASer-(LAS)-Dateiformat oder einem Punktwolkendaten-(PCD)-Dateiformat bereitgestellt werden. Die Kommunikationsvorrichtung 108 kann auch verwendet werden, um gebündelte Trainingsdaten und menschliche Kennzeichnungen der gebündelten Trainingsdaten von Merkmalsvektoren aus einer Reihe von Merkmalen zu empfangen, die aus den Sensordaten berechnet werden.
  • Die Kommunikationsvorrichtung 108 kann verschiedene Kommunikationsmodule beinhalten, wie etwa ein oder mehrere Rundfunkempfangsmodule, ein Nahbereichskommunikations-(NFC)-Modul, ein GPS-Modul und ein Drahtloskommunikationsmodul. Das Rundfunkempfangsmodul kann ein terrestrisches Rundfunkempfangsmodul beinhalten, welches eine Antenne beinhaltet, um ein terrestrisches Rundfunksignal, einen Demodulator und einen Entzerrer usw. zu empfangen. Das NFC-Modul ist ein Modul, das mit einer externen Vorrichtung kommuniziert, die sich in einer nahe gelegenen Entfernung gemäß einem NFC-Verfahren befindet. Der GPS-Empfänger ist ein Modul, das ein GPS-Signal von einem GPS-Satelliten empfängt und einen aktuellen Standort erkennt. Das drahtgebundene Kommunikationsmodul kann ein Modul sein, das Informationen über ein drahtgebundenes Netzwerk, wie etwa ein lokales Netzwerk, ein Controller Area Network (CAN) oder ein externes Netzwerk, empfängt. Das drahtlose Kommunikationsmodul ist ein Modul, das über ein drahtloses Kommunikationsprotokoll, wie beispielsweise ein IEEE 802.11-Protokoll, WiMAX-, WLAN- oder IEEE-Kommunikationsprotokoll mit einem externen Netzwerk verbunden ist und mit dem externen Netzwerk kommuniziert. Das Drahtloskommunikationsmodul kann ferner ein Mobilkommunikationsmodul beinhalten, das auf ein Mobilkommunikationsnetzwerk zugreift und eine Kommunikation gemäß verschiedenen Mobilkommunikationsstandards, wie etwa 3.Generation (3G), 3.Generation Partnerschaftsprojekt (3GPP), Langzeitentwicklung (LTE), Bluetooth, EVDO, CDMA, GPRS, EDGE oder ZigBee, beinhalten.
  • Gemäß einer weiteren exemplarischen Ausführungsform kann die Steuerung 101 der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 konfiguriert werden, um Sensordaten des LIDAR in Punktwolkendaten zu transformieren, eine Differenz von Gradienten für die Vielzahl von Voxeln zu berechnen, einen ersten Durchlauf auf der Vielzahl von Voxeln durchführen, um Voxel zu identifizieren, die ein Objekt basierend auf der Differenz von Gradienten beinhalten, einen zweiten Durchlauf auf der Vielzahl von Voxeln durchführen, um Voxel zu identifizieren, die das Objekt beinhalten, durch Einstellen eines Voxels mit mindestens einem aus einem Jitterparameter und einem Rotationsparameter, und Ausgeben eines Mittelwerts der Voxel, die als das Objekt enthaltend identifiziert wurden.
  • Die Steuerung 101 der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 kann konfiguriert werden, um den zweiten Durchgang auf der Vielzahl von Voxeln zum Identifizieren von Voxeln, die das Objekt beinhalten, durchzuführen, indem ein Voxel mit dem Rotationsparameter durch Drehen von Punkten des Voxels eingestellt wird, wobei das eingestellte Voxel mit gebündelten Daten verglichen wird und ein Mittelwert des eingestellten Voxels ausgegeben wird, der als das Objekt enthaltend identifiziert wurde, wenn durch das Vergleichen angezeigt wird, dass das eingestellte Voxel das Objekt beinhaltet.
  • Die Steuerung 101 der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 kann konfiguriert werden, um den zweiten Durchgang auf der Vielzahl von Voxeln zum Identifizieren von Voxeln, die das Objekt beinhalten, durchzuführen, indem ein Voxel mit dem Jitterparameter durch Verschieben von Punkten des Voxels eingestellt wird, wobei das eingestellte Voxel mit gebündelten Daten verglichen wird und ein Mittelwert des eingestellten Voxels ausgegeben wird, der als das Objekt enthaltend identifiziert wurde, wenn durch das Vergleichen angezeigt wird, dass das eingestellte Voxel das Objekt beinhaltet.
  • Die Steuerung 101 der Vorrichtung zum Klassifizieren der Lichtdetektions- und Abstandsinformationen 100 kann konfiguriert werden, um die Differenz der Gradienten der Vielzahl von Voxeln durch Berechnen einer Differenz zwischen einem mittleren Voxel der Zelle und allen anderen Voxeln in der Zelle zu berechnen. Darüber hinaus kann die Steuerung 101 der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 konfiguriert werden, um die Sensordaten von einem LIDAR-Sensor zu empfangen.
  • Die Steuerung 101 der Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 kann konfiguriert werden, um die Punktwolkendaten in eine Vielzahl von Zellen zu unterteilen und die Zelle durch Auswählen einer Zelle aus der Vielzahl von Zellen auszuwählen. Die Steuerung 101 kann die Punktwolkendaten basierend auf den Merkmalen der Punktwolkendaten in eine Vielzahl von Zellen unterteilen.
  • 2 stellt ein Flussdiagramm zum Klassifizieren von Lichtdetektions- und Abstandssensordaten gemäß einer exemplarischen Ausführungsform dar. Das Verfahren von 2 kann durch die Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstandsinformationen 100 durchgeführt werden oder kann in ein computerlesbares Medium als Anweisungen codiert werden, die von einem Computer ausführbar sind, um das Verfahren durchzuführen.
  • Unter Bezugnahme auf 2 werden die Sensordaten eines LIDAR im Betrieb S210 in Punktwolkendaten transformiert. Im Betrieb S220 wird eine Zelle mit einer Teilmenge der Punktwolkendaten ausgewählt. Die ausgewählte Zelle wird im Betrieb S230 in eine Vielzahl von Voxeln unterteilt. Anschließend wird im Betrieb S240 eine Differenz des Gradienten der Vielzahl von Voxeln berechnet.
  • Basierend auf der berechneten Differenz der Gradienten wird ein erster Durchlauf auf der Vielzahl der Voxel durchgeführt, um Voxel zu identifizieren, die ein Objekt im Betrieb S250 beinhalten. Anschließend wird ein zweiter Durchlauf auf der Vielzahl von Voxeln durch Einstellen eines Voxels mit einem Jitterparameter und einem Rotationsparameter durchgeführt, um einen eingestellten Voxel zu identifizieren, der das Objekt im Betrieb S260 beinhaltet. Im Betrieb S270 wird ein Mittelwert der Voxel, die das Objekt beinhalten, ausgegeben.
  • 3 zeigt Darstellungen von Objekten, die unter Verwendung der Lichtdetektions- und Abstandssensordaten gemäß einem Aspekt einer exemplarischen Ausführungsform identifiziert wurden. Unter Bezugnahme auf 3 wird ein Bild 400 eines Bereichs dargestellt, der von einem Sensor abgetastet wurde. Das Bild 400 beinhaltet Datenpunkte 401 der durch den LIDAR-Sensor erfassten Sensordaten. Wie in den Feldern 402 dargestellt, können Objekte, wie beispielsweise Ampeln und Schilder, aus den Sensordaten durch die Verwendung der Vorrichtung und des Verfahrens zum Klassifizieren von Lichtdetektions- und Abstandssensordaten 100 identifiziert werden.
  • Die hierin offenbarten Prozesse, Verfahren oder Algorithmen können von einer Verarbeitungsvorrichtung, einer Steuerung oder einem Computer, die jede vorhandene programmierbare elektronische Steuervorrichtung oder eine dedizierte elektronische Steuervorrichtung beinhalten können, geliefert/implementiert werden.
  • Desgleichen können die Prozesse, Verfahren oder Algorithmen als Daten oder ausführbare Anweisungen durch eine Steuerung oder einen Computer in vielfältiger Weise gespeichert werden, darunter ohne Einschränkung die dauerhafte Speicherung auf nicht beschreibbaren Speichermedien, wie einem ROM, und als änderbare Information auf beschreibbaren Speichermedien wie Disketten, Magnetbändern, CDs, RAM sowie anderen magnetischen und optischen Medien. Die Prozesse, Verfahren oder Algorithmen können auch in einem softwareausführbaren Objekt implementiert werden. Alternativ können die Prozesse, Verfahren oder Algorithmen ganz oder teilweise mit geeigneten Hardwarekomponenten, wie beispielsweise anwendungsspezifischen integrierten Schaltungen (ASICs), feldprogrammierbaren Gate Arrays (FPGAs), Zustandsmaschinen, Steuerungen oder anderen Hardwarekomponenten oder Vorrichtungen oder einer Kombination von Hardware, Software und Firmwarekomponenten verkörpert werden.
  • Es wurden oben ein oder mehrere exemplarische Ausführungsformen anhand der Zeichnungen beschrieben. Die oben beschriebenen exemplarischen Ausführungsformen sollten nur im beschreibenden Sinne betrachtet werden und nicht der Begrenzung dienen. Außerdem können die exemplarischen Ausführungsformen ohne Abweichen vom Geist und Schutzumfang des Erfindungsgedankens modifiziert werden, was in den folgenden Ansprüchen definiert ist.

Claims (10)

  1. Vorrichtung zum Klassifizieren von Lichtdetektions- und Abstands-(LIDAR)-Sensordaten, wobei die Vorrichtung umfasst: mindestens einen Speicher, umfassend computerausführbare Anweisungen; und mindestens einen Prozessor, der dazu konfiguriert ist, die computerausführbaren Anweisungen zu lesen und auszuführen, wobei die computerausführbaren Anweisungen den mindestens einen Prozessor veranlassen zum: Transformieren von Sensordaten des LIDAR in Punktwolkendaten; Auswählen einer Zelle mit einer Teilmenge der Punktwolkendaten; Unterteilen der ausgewählten Zelle in eine Vielzahl von Voxeln; Berechnen einer Differenz von Gradienten für die Vielzahl von Voxeln; Durchführen eines ersten Durchlaufs der Vielzahl von Voxeln, um Voxel zu identifizieren, die ein Objekt basierend auf der Differenz der Gradienten beinhalten; Durchführen eines zweiten Durchlaufs der Vielzahl von Voxeln, um Voxel zu identifizieren, die das Objekt beinhalten, durch Einstellen eines Voxels mit mindestens einem aus einem Jitterparameter und einem Rotationsparameter; und Ausgeben eines Mittelwerts der Voxel, die als das Objekt beinhaltend identifiziert wurden.
  2. Vorrichtung nach Anspruch 1, worin die Punktwolkendaten mindestens eines aus dem LASer-(LAS)-Dateiformat und dem Punktwolkendaten-(PCD)-Dateiformat umfassen.
  3. Vorrichtung nach Anspruch 1, worin die Punktwolkendaten x-Koordinatendaten, y-Koordinatendaten, z-Koordinatendaten und einen reflektierenden Intensitätswert umfassen.
  4. Vorrichtung nach Anspruch 1, worin die computerausführbaren Anweisungen den mindestens einen Prozessor veranlassen, den zweiten Durchlauf auf der Vielzahl von Voxeln durchzuführen, um Voxel zu identifizieren, die das Objekt beinhalten durch: Einstellen eines Voxels mit dem Rotationsparameter durch Drehen von Punkten der Voxel; Vergleichen des eingestellten Voxels mit gebündelten Daten; und Ausgeben eines Mittelwerts des eingestellten Voxels, der das Objekt beinhaltet, wenn durch das Vergleichen angezeigt wird, dass das eingestellte Voxel das Objekt beinhaltet.
  5. Vorrichtung nach Anspruch 1, worin die computerausführbaren Anweisungen den mindestens einen Prozessor ferner veranlassen, den zweiten Durchlauf auf der Vielzahl von Voxeln durchzuführen, um Voxel zu identifizieren, die das Objekt beinhalten durch: Einstellen eines Voxels mit dem Jitterparameter durch Verschieben von Punkten des Voxels; Vergleichen des eingestellten Voxels mit gebündelten Daten; und Ausgeben eines Mittelwerts des eingestellten Voxels, der das Objekt beinhaltet, wenn durch das Vergleichen angezeigt wird, dass das eingestellte Voxel das Objekt beinhaltet.
  6. Vorrichtung nach Anspruch 1, worin das Objekt mindestens eines aus einer Verkehrssteuerungsvorrichtung, eines Verkehrskontrollschildes und einer Ampelsteuerung beinhaltet.
  7. Vorrichtung nach Anspruch 1, worin die computerausführbaren Anweisungen den mindestens einen Prozessor ferner veranlassen, die Differenz der Gradienten der Vielzahl von Voxeln durch Berechnen einer Differenz zwischen einem mittleren Voxel der Zelle und allen anderen Voxeln in der Zelle zu berechnen.
  8. Vorrichtung nach Anspruch 1, ferner umfassend einen LIDAR-Sensor, worin die computerausführbaren Anweisungen den mindestens einen Prozessor ferner veranlassen, die Sensordaten von einem LIDAR-Sensor zu empfangen.
  9. Vorrichtung nach Anspruch 1, worin die computerausführbaren Anweisungen den mindestens einen Prozessor ferner veranlassen, die Punktwolkendaten in eine Vielzahl von Zellen zu unterteilen und die Zelle durch Auswählen einer Zelle aus der Vielzahl von Zellen auszuwählen.
  10. Vorrichtung nach Anspruch 1, worin die computerausführbaren Anweisungen den mindestens einen Prozessor ferner veranlassen, die Punktwolkendaten in eine Vielzahl von Zellen basierend auf Merkmalen der Punktwolkendaten zu unterteilen.
DE102018112151.2A 2017-05-25 2018-05-21 Verfahren und vorrichtung zum klassifizieren von lidardaten zur objekterkennung Pending DE102018112151A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/605,275 2017-05-25
US15/605,275 US10346695B2 (en) 2017-05-25 2017-05-25 Method and apparatus for classifying LIDAR data for object detection

Publications (1)

Publication Number Publication Date
DE102018112151A1 true DE102018112151A1 (de) 2018-11-29

Family

ID=64109348

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018112151.2A Pending DE102018112151A1 (de) 2017-05-25 2018-05-21 Verfahren und vorrichtung zum klassifizieren von lidardaten zur objekterkennung

Country Status (3)

Country Link
US (1) US10346695B2 (de)
CN (1) CN109086786B (de)
DE (1) DE102018112151A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115356747A (zh) * 2022-10-19 2022-11-18 成都朴为科技有限公司 一种多线激光雷达障碍物识别方法和装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10510154B2 (en) * 2017-12-21 2019-12-17 Intel Corporation Adaptive processing of spatial imaging data
US11747444B2 (en) 2018-08-14 2023-09-05 Intel Corporation LiDAR-based object detection and classification
DK180562B1 (en) * 2019-01-31 2021-06-28 Motional Ad Llc Merging data from multiple lidar devices
US11556745B2 (en) 2019-03-22 2023-01-17 Huawei Technologies Co., Ltd. System and method for ordered representation and feature extraction for point clouds obtained by detection and ranging sensor
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
CN111220993B (zh) * 2020-01-14 2020-07-28 长沙智能驾驶研究院有限公司 目标场景定位方法、装置、计算机设备和存储介质
CN111340935A (zh) * 2020-01-23 2020-06-26 北京市商汤科技开发有限公司 点云数据处理方法、智能行驶方法及相关装置、电子设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8379020B2 (en) * 2008-08-25 2013-02-19 Harris Corporation Image processing device using selective neighboring voxel removal and related methods
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US9110163B2 (en) * 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement
GB2532948B (en) * 2014-12-02 2021-04-14 Vivo Mobile Communication Co Ltd Object Recognition in a 3D scene
CN104992074A (zh) * 2015-07-29 2015-10-21 华南理工大学 机载激光扫描系统航带拼接方法与装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115356747A (zh) * 2022-10-19 2022-11-18 成都朴为科技有限公司 一种多线激光雷达障碍物识别方法和装置
CN115356747B (zh) * 2022-10-19 2023-01-24 成都朴为科技有限公司 一种多线激光雷达障碍物识别方法和装置

Also Published As

Publication number Publication date
CN109086786B (zh) 2022-04-26
CN109086786A (zh) 2018-12-25
US10346695B2 (en) 2019-07-09
US20180365506A1 (en) 2018-12-20

Similar Documents

Publication Publication Date Title
DE102018112151A1 (de) Verfahren und vorrichtung zum klassifizieren von lidardaten zur objekterkennung
DE102018121595B4 (de) Unbeaufsichtigtes anlernen von agenten für autonome fahranwendungen
DE102017119582A1 (de) Verfahren und vorrichtung zur erfassung eines status einer elektrischen verbindung mit einem objekt
DE112019000279T5 (de) Steuern autonomer fahrzeuge anhand sicherer ankunftszeiten
DE102018107196A1 (de) Verfahren und vorrichtung zur bereitstellung von anhängerinformationen
DE102019109671B4 (de) Vorrichtung zum Erfassen eines Radeinstellungszustands
DE102018108366B4 (de) Verfahren und vorrichtung zum optimieren der erkennung von verkehrsregelungseinrichtungen
DE102018114730A1 (de) Verfahren und Vorrichtung zum Schätzen eines Gelenkwinkels
DE112019004554T5 (de) System und verfahren zur warnung vor vorhergesagten fahrzeugvorfällen und zum ausweichen
DE102018110430A1 (de) Verfahren und vorrichtung zur erkennung und klassifizierung von objekten in verbindung mit einem fahrzeug
DE102020124591B4 (de) Vorrichtung zum neu Formatieren eines Augenraums
DE102017113324A1 (de) Vorrichtung und Verfahren zum Vorhersagen von Zielen der visuellen Aufmerksamkeit
DE102019114900A1 (de) Vorrichtung und verfahren zur regelung der sensormodul-temperatur
DE102018128278A1 (de) Leitfahrzeugüberwachung für eine adaptive geschwindigkeitsregelung
DE102018117307A1 (de) Verfahren und Vorrichtung zur Benachrichtigung von Objekten
DE102018106842B4 (de) Vorrichtung zum Auslösen einer Kupplungsansicht
DE102017122783A1 (de) Verfahren und Vorrichtung zur Steuerung eines Fahrzeugs
DE102018114190A1 (de) Verfahren und Vorrichtung zur Positionsfehlererfassung
DE102018105237A1 (de) Verfahren und vorrichtung zur verbesserung der draufsicht
DE102018119669A1 (de) Verfahren und Vorrichtung für Bremswegauswahl
DE102019100222A1 (de) Verfahren und Vorrichtung zum Erkennen einer Fahrereingabe in eine berührungsempfindliche Anzeige
DE102017113325A1 (de) Vorrichtung und Verfahren zum Bestimmen einer benutzerbasierten Blickinformation
DE112017005228T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
DE102017125470A1 (de) Verfahren und vorrichtung zur warnung vor objekten
DE102018101613A1 (de) Verfahren und Vorrichtung zur Steuerung der Heckklappenbewegung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: LKGLOBAL ] LORENZ & KOPF PARTG MBB PATENTANWAE, DE