DE102021204985A1 - Verfahren und Vorrichtung zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke - Google Patents

Verfahren und Vorrichtung zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke Download PDF

Info

Publication number
DE102021204985A1
DE102021204985A1 DE102021204985.0A DE102021204985A DE102021204985A1 DE 102021204985 A1 DE102021204985 A1 DE 102021204985A1 DE 102021204985 A DE102021204985 A DE 102021204985A DE 102021204985 A1 DE102021204985 A1 DE 102021204985A1
Authority
DE
Germany
Prior art keywords
cell
points
cells
candidate
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021204985.0A
Other languages
English (en)
Inventor
Chengxuan Fu
Ricardo Martins Costa
Jasmine Richter
Dennis Hardenacke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021204985.0A priority Critical patent/DE102021204985A1/de
Priority to US17/744,090 priority patent/US20220375229A1/en
Priority to CN202210547915.9A priority patent/CN115372973A/zh
Publication of DE102021204985A1 publication Critical patent/DE102021204985A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C7/00Tracing profiles
    • G01C7/02Tracing profiles of land surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke (20), welche von einem Sensor (10) erzeugt wird. Auf Basis ermittelter Startbodenpunkte (22) innerhalb der 3D-Punktwolke (20), welche wenigstens ein vordefiniertes Bodenpunktkriterium bezüglich einer in Zellen (50) unterteilten Referenzebene (40) erfüllen, werden zunächst Startzellen (52) identifiziert. Anschließend werden für die jeweiligen Startzellen (52) der Referenzebene (40) Zellebenen (54) ermittelt. Auf Basis der Zellebenen (54) der Startzellen (52) werden nachfolgend geschätzte Zellebenen (62) und Bodenpunkte (24) für von den Startzellen (52) abweichende Kandidatenzellen (60) ermittelt, welche anschließend in endgültige Zellebenen (54) überführt werden. Durch ein solches von den Startzellen (52) ausgehendes Zellwachstum, werden die Zellen (50) der Referenzebene (40) iterativ durchlaufen und verarbeitet, so dass die 3D-Punktwolke (20) auf Basis dieses Verfahrens zuverlässig in Bodenpunkte (24) und Objektpunkte (26) klassifizierbar ist.

Description

  • Stand der Technik
  • Die vorliegende Erfindung betrifft ein Verfahren und Vorrichtung zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke.
  • Aus dem Stand der Technik sind Sensoren bekannt, beispielsweise Lidar-Sensoren oder Radarsensoren, die im Zusammenhang mit Fahrzeugen eingesetzt werden, um eine automatische Erfassung eines Umfeldes durchzuführen. Eine solche Umfelderfassung wird beispielsweise durch Systeme für einen autonomen oder teilautonomen Fahrbetrieb solcher Fahrzeuge verwendet. Durch diese Sensoren erzeugte Umfeldinformationen liegen häufig in Form von 3D-Punktwolken vor, welche anschließend durch Umfelderkennungssysteme ausgewertet werden können. Ein in diesem Zusammengang wichtiger Verarbeitungsschritt zielt auf eine Unterscheidung von Punkten innerhalb der 3D-Punktwolke ab, die einer Bodenfläche zuzuordnen sind und die Objekten im Umfeld zuzuordnen sind.
  • DE 102011100927 B4 beschreibt ein Verfahren und ein System zum Detektieren und Verfolgen von Objekten in der Nähe eines Fahrzeugs, wobei das Verfahren umfasst, dass mehrere Abtastpunkte von einem Laserentfernungsmesser bereitgestellt werden, wobei die Abtastpunkte und Fahrzeugdynamikdaten verwendet werden, um einen Ort einer Bodenebene festzulegen. Ein Algorithmus schätzt zuerst den Ort einer Bodenebene auf der Grundlage eines vorherigen Bodenebenenorts auf Basis von Daten von Chassis-Dynamiksensoren und einer auf die Punktwolkendaten angewandten Eigenvektorberechnung.
  • DE 102015010514 B4 beschreibt ein Verfahren zum Ermitteln von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung, wobei wenigstens ein Teil der Navigationsumgebung durch Aufnahme eines 3D-Messdatensatzes, insbesondere einer 3D-Punktewolke, mit einer dreidimensionalen Messeinrichtung vermessen wird. Es wird zudem vorgeschlagen, die Punkte der 3D-Punktwolke auf ein zweidimensionales Raster in der Bodenebene zu projizieren. Anschließend wird ausgewertet, wie viele Punkte in jede Zelle des Rasters, also jedes Rasterelement fallen, so dass ein Histogrammdatensatz entsteht, auf dessen Basis vertikale Strukturen erkannt und klassifiziert werden können.
  • Offenbarung der Erfindung
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein Verfahren zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke vorgeschlagen.
  • In einem ersten Schritt des erfindungsgemäßen Verfahrens wird eine 3D-Punktwolke empfangen, welche auf Basis eines Sensors, insbesondere eine Umfeldsensors eines Fahrzeugs ermittelt wurde. Der Sensor ist vorzugsweise ein aktiver Sensor wie ein Lidar-, ein Radar-, ein Ultraschall- oder ein davon abweichender Sensor. Es ist möglich, dass die Punkte der 3D-Punktwolke an festen Rasterpositionen und/oder beliebigen Positionen innerhalb der 3D-Punktwolke vorliegen.
  • In einem zweiten Schritt des erfindungsgemäßen Verfahrens werden Startbodenpunkte innerhalb der 3D-Punktwolke ermittelt, wobei diejenigen Punkte der 3D-Punktwolke als Startbodenpunkte klassifiziert werden, die sich innerhalb eines ersten vordefinierten Abstandes zum Sensor befinden und wenigstens ein vordefiniertes Bodenpunktkriterium bezüglich einer Referenzebene erfüllen, wobei die Referenzebene eine bezüglich des Sensors vordefinierte Ebene ist und insbesondere eine Ebene ist, die eine Bodenfläche repräsentiert. Im Falle einer Verwendung des erfindungsgemäßen Verfahrens im Zusammenhang mit einer Umfelderfassung eines Fahrzeugs repräsentiert die Referenzebene vorzugsweise eine Fahrbahnoberfläche im unmittelbaren Umfeld des Sensors. Der erste vordefinierte Abstand ist beispielsweise der kürzeste Abstand zwischen einem jeweiligen Punkt und dem Sensor (d. h., zwischen einem jeweiligen Punkt und einer Bezugsposition des Sensors, welche z. B. im Bereich einer Ein-/Austrittsöffnung des Sensors liegt) oder ein kürzester Abstand zwischen einem Normalenvektor der Referenzebene, welcher den jeweiligen Punkt durchläuft und einem Normalenvektor der Referenzebene, welcher die Bezugsposition des Sensors durchläuft. Der erste vordefinierte Abstand entspricht beispielsweise einem Wert im Bereich von 10 m bis 30 m oder einem davon abweichenden Wert. Der erste vordefinierte Abstand wird vorzugsweise derart gewählt, dass sichergestellt ist, dass potentielle Krümmungen der Bodenfläche bzw. der Fahrbahnoberfläche innerhalb dieses Abstandes nur geringe Abweichungen zur Referenzebene aufweisen, so dass evtl. vorhandene Bodenpunkte innerhalb der 3D-Punktwolke mit hoher Zuverlässigkeit als solche identifizierbar sind. Dementsprechend kann es sinnvoll sein, den vordefinierten ersten Abstand jeweils in Abhängigkeit eines aktuellen Umfeldes (z. B. hügelig oder flach) aus einer Vielzahl vordefinierter erster Abstände auszuwählen. Mittels des vordefinierten Bodenpunktkriteriums wird sichergestellt, dass ein dieses Kriterium erfüllender Punkt mit hoher Wahrscheinlichkeit ein Punkt der 3D-Punktwolke ist, der einen Bodenpunkt im Umfeld des Sensors repräsentiert.
  • In einem dritten Schritt des erfindungsgemäßen Verfahrens wird zumindest ein Teilbereich der Referenzebene in eine Vielzahl von Zellen unterteilt. Bevorzugt wird zumindest jener Bereich der Referenzebene in Zellen unterteilt, in welchem in einer senkrechten Projektion der 3D-Punktwolke auf die Referenzebene Punkte der 3D-Punktwolke vorhanden sind. Zudem werden in diesem Schritt Punkte der 3D-Punktwolke ermittelt, die mit jeder der Zellen korrespondieren, wobei mit einer jeweiligen Zelle korrespondierende Punkte diejenigen Punkte sind, die in der senkrechten Projektion auf die Referenzebene durch die jeweilige Zelle eingeschlossen sind.
  • In einem vierten Schritt des erfindungsgemäßen Verfahrens werden diejenigen Zellen als Startzellen festgelegt, die eine erste vordefinierte Mindestanzahl korrespondierender Startbodenpunkte, insbesondere mindestens drei Startbodenpunkte aufweisen.
  • In einem fünften Schritt des erfindungsgemäßen Verfahrens wird eine Zellebene für jede Startzelle ermittelt, wobei die Zellebene derart ermittelt wird, dass sie gemäß einer vordefinierten Berechnungsvorschrift an die Lage der Startbodenpunkte der jeweiligen Startzelle angenähert ist. Als Berechnungsvorschrift wird beispielsweise ein Ausgleichsrechnungsverfahren angewendet, wobei auch davon abweichenden Verfahren einsetzbar sind, welche dazu führen, dass sich die Ebene möglichst nahe an die Lage der jeweiligen Startbodenpunkte annähert.
  • In einem sechsten Schritt des erfindungsgemäßen Verfahrens werden Kandidatenzellen innerhalb der Referenzebene ermittelt, wobei eine Kandidatenzelle eine Zelle ist, für die noch keine Zellebene ermittelt wurde, welche an wenigstens eine weitere Zelle (d. h., eine Startzelle oder eine Kandidatenzelle) angrenzt, für die bereits eine Zellebene ermittelt wurde und welche eine zweite vordefinierte Mindestanzahl korrespondierender Punkte der 3D-Punktwolke aufweist. Die Mindestanzahl korrespondierender Punkte entspricht vorzugsweise einem Wert von eins oder einem höheren Wert. Darüber hinaus ist es aber auch möglich, dass die Mindestzahl einem Wert von null entspricht.
  • In einem siebten Schritt des erfindungsgemäßen Verfahrens wird eine geschätzte Zellebene für jede Kandidatenzelle aus sämtlichen Zellebenen berechnet (z. B. eine Durchschnittsebene), die in unmittelbar an die jeweilige Kandidatenzelle angrenzenden Zellen (d. h., eine Startzelle oder eine Kandidatenzelle) vorliegen.
  • In einem achten Schritt des erfindungsgemäßen Verfahrens werden Zellebenenkandidatenpunkte für jede Kandidatenzelle ermittelt, wobei bevorzugt wenigstens diejenigen Punkte der 3D-Punktwolke berücksichtigt werden, die zuvor noch nicht klassifiziert wurden und wobei ein Punkt der 3D-Punktwolke dann als Zellebenenkandidatenpunkt ermittelt wird, wenn dieser mit der aktuell betrachteten Kandidatenzelle korrespondiert und dessen kleinster Abstand zur geschätzten Zellebene der Kandidatenzelle und/oder zur Referenzebene einen zweiten vordefinierten Abstand nicht überschreitet.
  • In einem neunten Schritt des erfindungsgemäßen Verfahrens wird eine Zellebene für jede Kandidatenzelle ermittelt, wobei die Zellebene derart ermittelt wird, dass sie gemäß der vordefinierten Berechnungsvorschrift (siehe oben) an die Lage der Zellebenenkandidatenpunkte der jeweiligen Kandidatenzelle angenähert ist.
  • Zusammenfassend können die ermittelten Startzellen allgemein als Keimzellen betrachtet werden, von welchen im Anschluss ein Zellwachstum durch Ermitteln und Verarbeiten von Kandidatenzellen über den zu betrachtenden Bereich der Referenzebene ausgeht.
  • Es sei darauf hingewiesen, dass sämtliche Schritte, welche jeweilige Kandidatenzellen betreffen, vorzugsweise so lange wiederholt werden, bis sämtliche zu berücksichtigende Zellen der Referenzebene verarbeitetet wurden. Auf diese Weise wird erreicht, dass ein Umfeld des Sensors, welches durch die 3D-Punktwolke repräsentiert wird, ausgehend von den Startzellen iterativ hinsichtlich vorhandener Bodenpunkte verarbeitet wird. Die daraus ermittelten Zellebenen für sämtliche zu berücksichtigende Zellen der Referenzebene, bilden anschließend in ihrer Gesamtheit ein Bodenprofil im Umfeld des Sensors ab. Zudem ist das Verfahren besonders geeignet, unterschiedliche Bodenprofile, insbesondere auch vorausliegende Steigungen und Gefälle, mit einer hohen Genauigkeit und Zuverlässigkeit abzubilden.
  • Ein weiterer Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass es aufgrund relativ geringer Anforderungen an eine Rechenleistung auch durch Rechner mit eingeschränkten Leistungsressourcen und somit beispielsweise auch durch Embedded-Systeme ausführbar ist.
  • Zur Anpassung an eine jeweils vorhandene Rechenleistung und/oder an ein vorhandenes Speichervolumen ist es möglich, einzelne Schritte des erfindungsgemäßen Verfahrens zunächst für sämtliche zu berücksichtigende Zellen durchzuführen, bevor mit einem nachfolgenden Schritt begonnen wird. Alternativ ist es auch möglich, einzelne Schritte zunächst nur für eine Zelle und für ggf. an diese Zelle angrenzenden Zellen durchzuführen.
  • Es sei zudem darauf hingewiesen, dass sämtliche Punkte, welche durch das erfindungsgemäße Verfahren nicht als Bodenpunkte klassifiziert wurden, als Objektpunkte betrachtet werden können. Darüber hinaus ist es auch möglich, Punkte, welche weder eine Voraussetzung zur Klassifizierung als Bodenpunkte, noch als Objektpunkte erfüllen, als nicht klassifizierte Punkte zu betrachten (welche z. B. durch Messrauschen usw. erzeugt werden) und diese in einer nachgelagerten Verarbeitung vorzugsweise nicht zu berücksichtigen. Durch die gezielte Unterteilung in Bodenpunkte und in Objektpunkte ist es entsprechend möglich, eine nachgelagerte Verarbeitung der 3D-Punktwolke, zum Beispiel zur Erkennung von Objekten im Umfeld des Sensors, mit höherer Zuverlässigkeit durchzuführen, da Bodenpunkte nicht fälschlicherweise als Objektpunkte interpretiert werden, oder umgekehrt.
  • Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
  • In einer vorteilhaften Ausgestaltung der vorliegenden Erfindung grenzen die Zellen, welche die Referenzebene unterteilen, lückenlos aneinander und/oder sind die Zellen, welche die Referenzebene unterteilen als vieleckige, insbesondere als dreieckige oder als viereckige Zellen ausgebildet. Alternativ oder zusätzlich wird eine Form und/oder eine Ausdehnung der jeweiligen Zellen in Abhängigkeit einer maximalen Auflösung des Sensors und/oder vorliegender Randbedingungen angepasst. Als solche Randbedingungen kommen beispielsweise Wettereinflüsse in Frage, welche ggf. bei vorhandenem Niederschlag dazu führen, dass ein höherer Rauschanteil innerhalb der 3D-Punktwolke vorliegt. In einem solchen Fall kann es vorteilhaft sein, auf Kosten der örtlichen Auflösung eine Ausdehnung der jeweiligen Zellen zu erhöhen, um einen Einfluss dieses Rauschanteils auf das Ermitteln der Zellebenen und/oder der Bodenpunkte zu minimieren. Darüber hinaus ist es auch denkbar, jeweilige Ausdehnungen der Zellen und/oder jeweils verwendete Zellformen innerhalb derselben 3D-Punktwolke zu variieren, um zum Beispiel umfeldabhängig bestimmte Bereiche der 3D-Punktwolke mit unterschiedlicher Genauigkeit oder Effizienz verarbeiten zu können.
  • In einer weiteren vorteilhaften Ausgestaltung ist das wenigstens eine vordefinierte Bodenpunktkriterium erfüllt, wenn ein kürzester Abstand zwischen jeweiligen Punkten der 3D-Punktwolke und der Referenzebene einen dritten vordefinierten Abstand (welcher beispielsweise dem zweiten vordefinierten Abstand oder einem davon abweichenden Wert entspricht) nicht überschreitet und/oder sämtliche Vektorprodukte, die sich aus möglichen Kombinationen von Vektoren zwischen einem jeweils zu betrachtenden Punkt der 3D-Punktwolke und wenigstens zwei zu diesem Punkt unmittelbar benachbarten Punkten ergeben, eine maximal zulässige erste Winkelabweichung bezüglich einer Normalen der Referenzebene aufweisen und/oder ein aus den Vektorprodukten zu jedem betrachteten Punkt ermittelter Durchschnittsvektor eine maximal zulässige zweite Winkelabweichung zur Normalen der Referenzebene aufweist. Es sei darauf hingewiesen, dass ein oder mehrere der vorstehenden Bodenpunktkriterien auch für eine Plausibilisierung final ermittelter Bodenpunkte in den jeweiligen Kandidatenzellen verwendbar sind.
  • Weiter vorteilhaft werden diejenigen Punkte der 3D-Punktwolke als Objektpunkte klassifiziert, die sich innerhalb des ersten vordefinierten Abstandes zum Sensor befinden, deren kleinster Abstand zur Referenzebene oder zur geschätzten Zellebene oder zur Zellebene einen vordefinierten Objektmindestabstand überschreitet und deren Vektorprodukte mit unmittelbar benachbarten Punkten eine dritte vordefinierte Winkelabweichung bezüglich der jeweils verwendeten Bezugsebene überschreiten. Auf diese Weise ist es möglich, offensichtliche Objektpunkte mit hoher Zuverlässigkeit zu identifizieren und diese beispielsweise von einer nachgelagerten Verarbeitung zur Klassifizierung von Punkten der 3D-Punktwolke in Bodenpunkte und Objektpunkte auszunehmen, so dass eine erforderliche Rechenleistung reduzierbar ist.
  • Vorzugsweise wird eine Teilmenge oder sämtliche Punkte der 3D-Punktwolke, unabhängig von einer bereits erfolgten Klassifizierung als Bodenpunkte, als Objektpunkte klassifiziert, wenn deren nächstliegend benachbarter Punkt als Objektpunkt klassifiziert wurde, ein kürzester Abstand zu diesem nächstliegend benachbarten Punkt einen vierten vordefinierten Abstand nicht überschreitet und ein Abstand zwischen den beiden Punkten bezüglich der Referenzebene einen fünften vordefinierten Abstand nicht überschreitet. Dadurch lassen sich insbesondere falsch-positiv klassifizierte Bodenpunkte vermeiden, wodurch eine Zuverlässigkeit des erfindungsgemäßen Verfahrens erhöht wird.
  • Besonders vorteilhaft bewirkt die Berechnungsvorschrift eine Minimierung der Summe der quadratischen Abweichungen zwischen der Zellebene und den korrespondierenden Startbodenpunkten und/oder Zellebenenkandidatenpunkten.
  • In einer weiteren vorteilhaften Ausgestaltung wird eine Zellebene nur dann für eine jeweilige Zelle ermittelt oder in einem nachgelagerten Verarbeitungsschritt verwendet, wenn ein Wert für eine Verteilung von Startbodenpunkten oder Zellebenenkandidatenpunkten innerhalb einer jeweiligen Zelle einen vordefinierten Mindestverteilungswert erreicht, wobei der Wert für die Verteilung umso größer ist, je weiter die Punkte einer Zelle, die jeweils den größten Abstand zu einem Mittelpunkt der Zelle aufweisen, von diesem Mittelpunkt entfernt sind und je gleichmäßiger diese Punkte innerhalb der Zelle verteilt sind. Als eine effiziente Möglichkeit zum Berechnen eines jeweiligen Wertes für eine Verteilung von Startbodenpunkten oder Zellebenenkandidatenpunkten innerhalb einer Zelle wird folgende Rechenvorschrift vorgeschlagen: V = ( max ( x y ) min ( x y ) ) * ( max ( x + y ) min ( x + y ) ) ,
    Figure DE102021204985A1_0001
    wobei V den Verteilungswert und x und y jeweils die lokalen bzw. relativen Koordinaten der Punkte innerhalb einer betrachteten Zelle repräsentieren, welche jeweils den größten Abstand zum Mittelpunkt aufweisen. Alternativ oder zusätzlich wird eine Zellebene nur dann für eine jeweilige Zelle ermittelt oder in einem nachgelagerten Verarbeitungsschritt verwendet, wenn die Zellebene einen maximal zulässigen Neigungswinkel bezüglich der Referenzebene nicht überschreitet. Hier liegt die Annahme zugrunde, dass eine Bodenfläche stets nur ein gewisses maximales Gefälle aufweist. In einem Fall, in dem eine oder mehrere der vorstehenden Bedingungen nicht erfüllt sind, ist es denkbar, eine Zelle bzw. deren Inhalt ohne eine zugewiesene Zellebene in einer nachgelagerten Verarbeitung weiterzuverwenden. Alternativ ist es auch möglich, die Zellebene für eine solchermaßen betroffene Zelle in einem späteren Iterationsschritt zu ermitteln, wenn in der Zwischenzeit beispielsweise zusätzliche Zellebenen aus benachbarten Zellen zur Verfügung stehen, welche ein Ergebnis des Ermittelns der Zellebene in der betroffenen Zelle positiv beeinflussen. Weiter alternativ ist es möglich, eine geschätzte Zellebene, welche aus einer oder mehreren Zellebenen benachbarter Zellen gebildet wird, ohne weitere Verarbeitung als Zellebene für die betroffene Zelle zu verwenden.
  • Vorteilhaft erfolgt beim Berechnen der geschätzten Zellebene zunächst eine individuelle Gewichtung (z. B. mittels eines Konfidenzmaßes) der Zellebenen der benachbarten Zellen, wobei die individuelle Gewichtung umso höher ist, je höher ein Wert für die Verteilung von Startbodenpunkten und/oder Zellebenenkandidatenpunkten in der jeweils benachbarten Zelle ist und/oder je geringer eine Summe quadratischer Abweichungen zwischen der Zellebene und korrespondierenden Startbodenpunkten und/oder Zellebenenkandidatenpunkten in der jeweils benachbarten Zelle ist.
  • Vorzugsweise werden alle Punkte der 3D-Punktwolke innerhalb einer Zelle mit einer ermittelten Zellebene, welche noch nicht als Bodenpunkte oder als Objektpunkte klassifiziert wurden, als Bodenpunkte klassifiziert, wenn deren kleinster Abstand zur Zellebene der Zelle den zweiten vordefinierten Abstand nicht überschreitet.
  • In einer weiteren vorteilhaften Ausgestaltung der vorliegenden Erfindung wird auf Basis der ermittelten Zellebenen (in Startzellen und/oder Kandidatenzellen) und/oder auf Basis der ermittelten Bodenpunkte (in Startzellen und/oder Kandidatenzellen) und/oder auf Basis der ermittelten Objektpunkte (in Startzellen und/oder Kandidatenzellen) eine Umfelderkennung in einem Umfelderkennungssystem durchgeführt.
  • In einer weiteren vorteilhaften Ausgestaltung der vorliegenden Erfindung ist der Sensor ein Lidar-Sensor (z. B. ein Punktscanner, ein Linienscanner oder ein Flash-Lidar) und insbesondere ein Lidar-Sensor eines Fortbewegungsmittels, wobei das Fortbewegungsmittel vorzugsweise ein Straßenfahrzeug wie ein PKW, ein LKW, ein Bus, ein Zweirad oder ein davon abweichendes Straßenfahrzeug ist.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Vorrichtung (z. B. ein Steuergerät eines Fahrzeugs) zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke vorgeschlagen, wobei die Vorrichtung eine Auswerteeinheit aufweist, die eingerichtet ist, ein Verfahren nach vorstehender Beschreibung auszuführen. Die Auswerteeinheit ist beispielsweise als ASIC, FPGA, Prozessor, digitaler Signalprozessor, Mikrocontroller, o. ä., ausgestaltet und vorzugsweise mit einer internen und/oder extern angebundenen Speichereinheit informationstechnisch verbunden, in welcher beispielsweise während der Ausführung des erfindungsgemäßen Verfahrens empfangene und/oder berechnete Daten abgelegt werden. Die Merkmale, Merkmalskombinationen sowie die sich aus diesen ergebenden Vorteile entsprechen den in Verbindung mit dem erstgenannten Erfindungsaspekt ausgeführten derart ersichtlich, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
  • Figurenliste
  • Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitende Zeichnung im Detail beschrieben. Dabei zeigen:
    • 1 ein Beispiel für eine auf Basis eines erfindungsgemäßen Verfahrens verarbeitete 3D-Punktwolke;
    • 2 ein Beispiel für eine Kandidatenzelle und mit der Kandidatenzelle korrespondierende Punkte der 3D-Punktwolke; und
    • 3 ein Beispiel für ein erfindungsgemäßes iteratives Zellwachstum entlang einer Bodenfläche.
  • 1 zeigt ein Beispiel für eine auf Basis eines erfindungsgemäßen Verfahrens verarbeitete 3D-Punktwolke 20, welche mittels eines Lidar-Sensors 10 eines Straßenfahrzeugs erfasst wird. Die Punkte der 3D-Punktwolke 20 sind auf eine Referenzebene 40 projiziert, deren Ausrichtung im Wesentlichen einer Ausrichtung einer Fahrbahnoberfläche im unmittelbaren Umfeld des Lidar-Sensors 10 entspricht. Die Darstellung in 1 entspricht einer Draufsicht auf die Referenzebene 40. Der Lidar-Sensor 10 ist informationstechnisch mit einer Auswerteeinheit 92, welche hier ein Mikrocontroller ist, eines Steuergerätes 90 des Straßenfahrzeugs informationstechnisch verbunden. Die Auswerteeinheit 92 ist eingerichtet, die durch den Lidar-Sensor 10 erfasste 3D-Punktwolke zu empfangen und gemäß dem erfindungsgemäßen Verfahren zu verarbeiten. Ein Ergebnis der Verarbeitung durch die Auswerteeinheit 92 wird beispielsweise an ein Umfelderkennungssystem übertragen, welches ebenfalls ein Bestandteil des Steuergerätes 90 sein kann.
  • Es sei allgemein darauf hingewiesen, dass aus Gründen einer vereinfachten Darstellung stellvertretend nur einzelne Elemente in 1 mittels Bezugszeichen gekennzeichnet sind. Entsprechend gelten diese Bezugszeichen implizit auch für identisch dargestellte, weitere Elemente in 1.
  • Mittels der Auswerteeinheit 92 wird die 3D-Punktwolke 20 zunächst in eine Vielzahl lückenlos aneinandergrenzender quadratischer Zellen 50 unterteilt. Anschließend werden diejenigen Punkte der 3D-Punktwolke 20 betrachtet, die sich innerhalb eines ersten vordefinierten Abstandes 30 in Höhe von 15 m zum Lidar-Sensor 10 befinden. Für sämtliche Punkte innerhalb des ersten Abstandes 30 wird jeweils überprüft, ob ein kürzester Abstand dieser Punkte zur Referenzebene 40 einen dritten vordefinierten Abstand in Höhe von 0,3 m nicht überschreitet. Für den Fall, dass für einen jeweiligen Punkt keine Überschreitung des dritten Abstandes vorliegt, wird der jeweilige Punkt als Startbodenpunkt 22 festgelegt. Sämtliche als Startbodenpunkte 22 festgelegte Bodenpunkte 24 sind hier durch einen einzelnen Ring kenntlich gemacht, welcher die Startbodenpunkte 22 umgibt.
  • Zudem werden mittels der Auswerteinheit 92 Punkte der 3D-Punktwolke 10 als offensichtliche Objektpunkte 26 identifiziert (d. h., Punkte, die offensichtlich durch ein Objekt im Umfeld hervorgerufen wurden), die innerhalb des ersten Abstandes 30 liegen und deren kleinster Abstand zur Referenzebene 40 oberhalb eines vordefinierten Objektmindestabstandes in Höhe von 0,3 m liegen und deren Vektorprodukte 72 mit unmittelbar benachbarten Punkten jeweils eine dritte vordefinierte Winkelabweichung in Höhe von 45° bezüglich einer Normalen 45 der Referenzebene 40 überschreiten. Diese offensichtlichen Objektpunkte 26 sind jeweils durch zwei konzentrische Ringe gekennzeichnet, welche die offensichtlichen Objektpunkte 26 umgeben.
  • Im Anschluss werden diejenigen Zellen 50 innerhalb des ersten Abstandes 30 als Startzellen 52 festgelegt, die eine erforderliche Mindestanzahl korrespondierender Startbodenpunkte 22 aufweisen, wobei die Mindestanzahl hier einem Wert von 5 entspricht.
  • Anschließend wird für jede Startzelle 52 eine Zellebene 54 ermittelt, wobei die Zellebene 54 derart an die Lage der Startbodenpunkte 22 in der jeweiligen Zelle 50 angenähert ist, dass eine Summe der quadratischen Abweichungen der kürzesten Abstände der Startbodenpunkte 22 der Zelle zur Zellebene 54 minimiert ist.
  • Daraufhin werden an die Startzellen 52 angrenzende Kandidatenzellen 60 ermittelt, welche hier jeweils eine Mindestanzahl von zwei Punkten aufweisen müssen, um als Kandidatenzellen 60 betrachtet zu werden. Für jede Kandidatenzelle 60 wird nun eine geschätzte Zellebene 62 aus den zuvor ermittelten Zellebenen 54 benachbarter Startzellen 52 ermittelt, indem eine Durchschnittsebene aus sämtlichen unmittelbar angrenzenden, benachbarten Zellebenen 54 ermittelt wird.
  • In jeder Kandidatenzelle 60 werden nun Zellebenenkandidatenpunkte 64 ermittelt, deren kleinster Abstand zur geschätzten Zellebene 62 einen zweiten vordefinierten Abstand in Höhe von 0,3 m nicht überschreitet.
  • Anschließend wird für jede Kandidatenzelle 60 eine Zellebene 54 ermittelt, wobei die Zellebene 54 derart an die Lage der Zellebenenkandidatenpunkte 64 in der jeweiligen Kandidatenzelle 60 angenähert ist, dass eine Summe der quadratischen Abweichungen der kürzesten Abstände der Zellebenenkandidatenpunkte 64 der Kandidatenzelle 60 zur Zellebene 54 minimiert ist.
  • Ausgehend von den zuvor verarbeiteten Kandidatenzellen 60 werden gemäß obiger Beschreibung an diese Kandidatenzellen 60 angrenzende, noch nicht verarbeitete Kandidatenzellen 60 identifiziert und vorstehend beschriebene Verfahrensschritte angewendet, um auch für diese Kandidatenzellen 60 Zellebenen 54 und mit diesen korrespondierende Bodenpunkte 24 zu ermitteln. Dies wird solange fortgesetzt, bis sämtliche Zellen 50 der Referenzebene 40 verarbeitet wurden.
  • Für den Fall, dass die Randbedingungen zum Ermitteln von Zellebenen 54 und Bodenpunkten 24 für die jeweiligen Zellen 50 (Startzellen 52 und Kandidatenzellen 60) nicht erfüllt sein sollten, wird eine geschätzte Zellebene 62 für diese Zellen 50 verwendet, welche aus sämtlichen vorhandenen Zellebenen 54 in benachbarten Zellen 50 (Startzellen 52 und Kandidatenzellen 60) ermittelt wird.
  • Anschließend werden diejenigen Punkte der 3D-Punktwolke 20 als Objektpunkte 26 klassifiziert, die sich innerhalb des ersten vordefinierten Abstandes 30 zum Sensor 10 befinden, deren kleinster Abstand zur Zellebene 54 einen vordefinierten Objektmindestabstand überschreitet und deren Vektorprodukte 72 mit unmittelbar benachbarten Punkten eine dritte vordefinierte Winkelabweichung in Höhe von 45° bezüglich einer Normalen der Zellebene 54 überschreiten.
  • 2 zeigt ein Beispiel für eine Kandidatenzelle 60 und mit der Kandidatenzelle 60 korrespondierende Punkte der 3D-Punktwolke 20. Dargestellt sind vier Punkte der 3D-Punktwolke 20, die in einer Projektion auf eine (nicht dargestellte) Referenzebene 40, welche eine Bodenfläche repräsentiert und welche in eine Vielzahl aneinandergrenzender Zellen 50 unterteilt ist, innerhalb derjenigen Zelle 50 der Referenzebene 40 liegen, welche der Kandidatenzelle 60 entspricht. Eine geschätzte Zellebene 62 der Kandidatenzelle 60 wurde auf Basis von Zellebenen 54 ermittelt, die in Zellen 50 vorliegen, die an die Kandidatenzelle 60 angrenzen. Es werden nun diejenigen Punkte der 3D-Punktwolke als Zellebenenkandidatenpunkte 64 identifiziert, deren Abstand zur geschätzten Zellebene 62 einen zweiten vordefinierten Abstand in Höhe von 0,2 m nicht überschreiten. Dies gilt sowohl für Punkte, die oberhalb, als auch unterhalb der geschätzten Zellebene 62 liegen. Drei dieser Punkte erfüllen hier dieses Abstandkriterium, während einer der Punkte dieses nicht erfüllt und dementsprechend als nicht klassifizierter Punkt 28 eingestuft wird. Auf Basis der als Zellebenenkandidatenpunkte 64 identifizierten Punkte wird anschließend eine endgültige, d. h., nicht geschätzte Zellebene 54 für diese Kandidatenzelle 60 ermittelt.
  • 3 zeigt ein Beispiel für ein erfindungsgemäßes iteratives Zellwachstum entlang einer Bodenfläche. 3 kann dabei als ein Ausschnitt aus 1 betrachtet werden, wobei hier im Vergleich zu 1 bereits weitere Zellen 50 der Referenzebene 40 verarbeitet wurden. Zur Vermeidung von Wiederholungen werden daher nachfolgend nur Unterschiede zu 1 beschrieben. Dargestellt sind eine Startzelle 50 und vier Kandidatenzellen 60, für welche jeweils eine Zellebene 54 ermittelt wurde. Für jede dieser Zellen 50, 60 wurde jeweils ein lokaler Normalenvektor 74 ermittelt, welcher ein Durchschnittsvektor ist, der auf Basis sämtlicher Vektorprodukte 72 zwischen Bodenpunkten innerhalb einer Zelle 50, 60 ermittelt wurden. Die lokalen Normalenvektoren 74 werden anschließend verwendet, um eine Winkelabweichung zwischen den jeweiligen lokalen Normalenvektoren 74 und einem Normalenvektor 45 der Referenzebene 40 zu ermitteln. Sofern die ermittelte Winkelabweichung größer ist, als eine vordefinierte zweite Winkelabweichung in Höhe von 15°, wird die jeweilige Zellebene 50, 60 in einer nachgelagerten Verarbeitung nicht berücksichtigt, da sie dann nicht als zuverlässige Bodenzelle angesehen wird. Zudem ist in 3 eine geschätzte Zellebene 62 einer aktuell zu verarbeitenden Kandidatenzelle 60 dargestellt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102011100927 B4 [0003]
    • DE 102015010514 B4 [0004]

Claims (12)

  1. Verfahren zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke aufweisend die Schritte: • Empfangen einer auf Basis eines Sensors (10) ermittelten 3D-Punktwolke (20), • Ermitteln von Startbodenpunkten (22) innerhalb der 3D-Punktwolke (20), wobei diejenigen Punkte der 3D-Punktwolke (20) als Startbodenpunkte (22) klassifiziert werden, die sich innerhalb eines ersten vordefinierten Abstandes (30) zum Sensor (10) befinden und wenigstens ein vordefiniertes Bodenpunktkriterium bezüglich einer Referenzebene (40) erfüllen, wobei die Referenzebene (40) eine bezüglich des Sensors (10) vordefinierte Ebene ist und insbesondere eine Ebene ist, die eine Bodenfläche repräsentiert, • Unterteilen zumindest eines Teilbereichs der Referenzebene (40) in eine Vielzahl von Zellen (50) und Ermitteln von Punkten der 3D-Punktwolke (20), die mit jeder der Zellen korrespondieren, wobei mit einer jeweiligen Zelle (50) korrespondierende Punkte diejenigen Punkte sind, die in einer senkrechten Projektion auf die Referenzebene (40) durch die jeweilige Zelle (50) eingeschlossen sind, • Festlegen derjenigen Zellen (50) als Startzellen (52), die eine erste vordefinierte Mindestanzahl korrespondierender Startbodenpunkte (22), insbesondere mindestens drei Startbodenpunkte (22) aufweisen, • Ermitteln einer Zellebene (54) für jede Startzelle (52), wobei die Zellebene (54) derart ermittelt wird, dass sie gemäß einer vordefinierten Berechnungsvorschrift an die Lage der Startbodenpunkte (22) der jeweiligen Startzelle (52) angenähert ist, • Ermitteln von Kandidatenzellen (60) innerhalb der Referenzebene (40), wobei eine Kandidatenzelle (60) ◯ eine Zelle (50) ist, für die noch keine Zellebene (54) ermittelt wurde, ◯ an wenigstens eine weitere Zelle (50) angrenzt, für welche bereits eine Zellebene (54) ermittelt wurde, und ◯ eine zweite vordefinierte Mindestanzahl korrespondierender Punkte der 3D-Punktwolke (20) aufweist, • Berechnen einer geschätzten Zellebene (62) für jede Kandidatenzelle (60) aus sämtlichen Zellebenen (54), die in unmittelbar an die jeweilige Kandidatenzelle (60) angrenzenden Zellen (50) vorliegen, • Ermitteln von Zellebenenkandidatenpunkten (64) für jede Kandidatenzelle (60), wobei ein Punkt der 3D-Punktwolke (20) dann als Zellebenenkandidatenpunkt (64) ermittelt wird, wenn ◯ dieser mit der aktuell betrachteten Kandidatenzelle (60) korrespondiert, und ◯ dessen kleinster Abstand zur geschätzten Zellebene (62) der Kandidatenzelle (60) und/oder zur Referenzebene (40) einen zweiten vordefinierten Abstand (66) nicht überschreitet, und • Ermitteln einer Zellebene (54) für jede Kandidatenzelle (60), wobei die Zellebene (54) derart ermittelt wird, dass sie gemäß der vordefinierten Berechnungsvorschrift an die Lage der Zellebenenkandidatenpunkte (64) der jeweiligen Kandidatenzelle (60) angenähert ist.
  2. Verfahren nach Anspruch 1, wobei • die Zellen (50), welche die Referenzebene (40) unterteilen, ◯ lückenlos aneinandergrenzen, und/oder ◯ als vieleckige, insbesondere als dreieckige oder als viereckige Zellen (50) ausgebildet sind, und/oder • eine Form und/oder eine Ausdehnung der jeweiligen Zellen (50) in Abhängigkeit ◯ einer maximalen Auflösung des Sensors (10), und/oder ◯ vorliegender Randbedingungen angepasst wird.
  3. Verfahren nach einem der vorstehenden Ansprüche, wobei das wenigstens eine vordefinierte Bodenpunktkriterium erfüllt ist, wenn • ein kürzester Abstand zwischen jeweiligen Punkten der 3D-Punktwolke (20) und der Referenzebene (40) einen dritten vordefinierten Abstand nicht überschreitet, und/oder • sämtliche Vektorprodukte (72), die sich aus möglichen Kombinationen von Vektoren (70) zwischen einem jeweils zu betrachtenden Punkt der 3D-Punktwolke (20) und wenigstens zwei zu diesem Punkt unmittelbar benachbarten Punkten ergeben, eine maximal zulässige erste Winkelabweichung bezüglich einer Normalen der Referenzebene (40) aufweisen, und/oder • ein aus den Vektorprodukten (72) zu jedem betrachteten Punkt ermittelter Durchschnittsvektor eine maximal zulässige zweite Winkelabweichung zur Normalen (45) der Referenzebene (20) aufweist.
  4. Verfahren nach einem der vorstehenden Ansprüche, wobei diejenigen Punkte der 3D-Punktwolke (20) als Objektpunkte (26) klassifiziert werden, • die sich innerhalb des ersten vordefinierten Abstandes (30) zum Sensor (10) befinden, • deren kleinster Abstand zur Referenzebene (40) oder zur geschätzten Zellebene (62) oder zur Zellebene (54) einen vordefinierten Objektmindestabstand überschreitet, und • deren Vektorprodukte (72) mit unmittelbar benachbarten Punkten eine dritte vordefinierte Winkelabweichung bezüglich einer Normalen der jeweils verwendeten Bezugsebene (40, 54, 62) überschreiten.
  5. Verfahren nach einem der vorstehenden Ansprüche, wobei eine Teilmenge oder sämtliche Punkte der 3D-Punktwolke (20), unabhängig von einer bereits erfolgten Klassifizierung als Bodenpunkte (22, 24), als Objektpunkte (26) klassifiziert werden, wenn • deren nächstliegend benachbarter Punkt als Objektpunkt (26) klassifiziert wurde, • ein kürzester Abstand zu diesem nächstliegend benachbarten Punkt einen vierten vordefinierten Abstand nicht überschreitet, und • ein Abstand zwischen den beiden Punkten bezüglich der Referenzebene (40) einen fünften vordefinierten Abstand nicht überschreitet.
  6. Verfahren nach einem der vorstehenden Ansprüche, wobei die Berechnungsvorschrift eine Minimierung der Summe der quadratischen Abweichungen zwischen der Zellebene (54) und den korrespondierenden Startbodenpunkten (22) und/oder Zellebenenkandidatenpunkten (64) bewirkt.
  7. Verfahren nach einem der vorstehenden Ansprüche, wobei eine Zellebene (54) nur dann für eine jeweilige Zelle (50) ermittelt oder in einem nachgelagerten Verarbeitungsschritt verwendet wird, wenn • ein Wert für eine Verteilung von Startbodenpunkten (22) oder Zellebenenkandidatenpunkten (64) innerhalb einer jeweiligen Zelle (50) einen vordefinierten Mindestverteilungswert erreicht, wobei der Wert für die Verteilung umso größer ist, je weiter die Punkte einer Zelle (50), welche jeweils den größten Abstand zu einem Mittelpunkt der Zelle (50) aufweisen, von diesem Mittelpunkt entfernt sind und je gleichmäßiger diese Punkte innerhalb der Zelle (50) verteilt sind, und/oder • die Zellebene (54) einen maximal zulässigen Neigungswinkel bezüglich der Referenzebene nicht überschreitet.
  8. Verfahren nach einem der vorstehenden Ansprüche, wobei beim Berechnen der geschätzten Zellebene (62) zunächst eine individuelle Gewichtung der Zellebenen (54) der benachbarten Zellen (50) erfolgt, wobei die individuelle Gewichtung umso höher ist, • je höher ein Wert für die Verteilung von Startbodenpunkten (22) und/oder Zellebenenkandidatenpunkten (64) in der jeweils benachbarten Zelle (50) ist, und/oder • je geringer eine Summe quadratischer Abweichungen zwischen der Zellebene (54) und korrespondierenden Startbodenpunkten (22) und/oder Zellebenenkandidatenpunkten (64) in der jeweils benachbarten Zelle (50) ist.
  9. Verfahren nach einem der vorstehenden Ansprüche, wobei alle Punkte der 3D-Punktwolke (20) innerhalb einer Zelle (50) mit einer ermittelten Zellebene (54), welche noch nicht als Bodenpunkte (22, 24) oder als Objektpunkte (26) klassifiziert wurden, als Bodenpunkte (22, 24) klassifiziert werden, wenn deren kleinster Abstand zur Zellebene (54) der Zelle (50) den zweiten vordefinierten Abstand (66) nicht überschreitet.
  10. Verfahren nach einem der vorstehenden Ansprüche, wobei auf Basis der ermittelten Zellebenen (54) und/oder der ermittelten Bodenpunkte (22, 24) und/oder der ermittelten Objektpunkte (26) eine Umfelderkennung in einem Umfelderkennungssystem durchgeführt wird.
  11. Verfahren nach einem der vorstehenden Ansprüche, wobei der Sensor (10) ein Lidar-Sensor und insbesondere ein Lidar-Sensor eines Fortbewegungsmittels ist.
  12. Vorrichtung (90) zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke aufweisend eine Auswerteeinheit (92), wobei die Auswerteeinheit (92) eingerichtet ist, ein Verfahren nach einem der vorstehenden Ansprüche auszuführen.
DE102021204985.0A 2021-05-18 2021-05-18 Verfahren und Vorrichtung zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke Pending DE102021204985A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102021204985.0A DE102021204985A1 (de) 2021-05-18 2021-05-18 Verfahren und Vorrichtung zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke
US17/744,090 US20220375229A1 (en) 2021-05-18 2022-05-13 Method and device for processing a 3d point cloud representing surroundings
CN202210547915.9A CN115372973A (zh) 2021-05-18 2022-05-18 用于处理代表环境的三维点云的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021204985.0A DE102021204985A1 (de) 2021-05-18 2021-05-18 Verfahren und Vorrichtung zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke

Publications (1)

Publication Number Publication Date
DE102021204985A1 true DE102021204985A1 (de) 2022-11-24

Family

ID=83898744

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021204985.0A Pending DE102021204985A1 (de) 2021-05-18 2021-05-18 Verfahren und Vorrichtung zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke

Country Status (3)

Country Link
US (1) US20220375229A1 (de)
CN (1) CN115372973A (de)
DE (1) DE102021204985A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011100927B4 (de) 2010-05-12 2014-08-28 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser
DE102015010514B4 (de) 2015-08-13 2019-06-13 Audi Ag Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung und Recheneinrichtung

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011100927B4 (de) 2010-05-12 2014-08-28 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser
DE102015010514B4 (de) 2015-08-13 2019-06-13 Audi Ag Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung und Recheneinrichtung

Also Published As

Publication number Publication date
CN115372973A (zh) 2022-11-22
US20220375229A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
DE102013113619B4 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
EP2561419B1 (de) Verfahren zur bestimmung des fahrbahnverlaufes für ein kraftfahrzeug
DE102011100927B4 (de) Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser
DE102011117585B4 (de) Systeme und Verfahren zum Verfolgen von Objekten
DE102017203344A1 (de) Erfassen von langen objekten durch sensorfusion
DE102013113570A1 (de) Bayes-Netz zum Nachführen von Objekten unter Verwendung von Absuchpunkten unter Verwendung mehrerer LiDAR-Sensoren
DE102013102153A1 (de) Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
EP3142913A1 (de) Umfeldkarte für fahrflächen mit beliebigem höhenverlauf
EP3637311A1 (de) Vorrichtung und verfahren zum ermitteln von höheninformationen eines objekts in einer umgebung eines fahrzeugs
DE102017221839A1 (de) Verfahren zur Positionsbestimmung für ein Fahrzeug, Steuergerät und Fahrzeug
DE102020118318A1 (de) Verfahren und Vorrichtung zur Erkennung eines Verkehrsknotenpunktes auf Basis von Trajektoriendaten
DE102021204985A1 (de) Verfahren und Vorrichtung zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke
DE102022111240A1 (de) Identifizierung planarer Punkte in einer Lidar-Punktwolke, die mit einem Fahrzeug-Lidar-System erhalten wird
DE102018119632A1 (de) Verfahren zur Bestimmung der Detektionsreichweite eines Umgebungssensors
DE102020209097A1 (de) Verfahren und Fahrerassistenzsystem zur Verarbeitung von Umfelddaten der Umgebung eines Fahrzeugs
DE102020206771A1 (de) Verfahren zum Schätzen einer Eigengeschwindigkeit
DE102006051091B4 (de) Verfahren zur Objekterkennung von Fahrzeugen mittels Nahbereichsdetektion
DE102019218059A1 (de) Erkennung länglicher Objekte
DE102019213927A1 (de) Grid-basierte Leitpfosten-Klassifizierung
DE102018117934A1 (de) Aspektverhältnis und EPW-Modulations basierte Erkennung von Landmarken aus digitalen Daten-Punktwolken
DE102018126506A1 (de) Regenerkennung mit einem Umgebungssensor zur punktweisen Erfassung einer Umgebung eines Fahrzeugs, insbesondere mit einem LiDAR-basierten Umgebungssensor
DE102012008780A1 (de) Verfahren und Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes und Kraftfahrzeug
DE102019218932B3 (de) Ermitteln einer Relativbewegung