DE102020107377A1 - Verfahren zur Verarbeitung einer dreidimensionalen Punktwolke - Google Patents

Verfahren zur Verarbeitung einer dreidimensionalen Punktwolke Download PDF

Info

Publication number
DE102020107377A1
DE102020107377A1 DE102020107377.1A DE102020107377A DE102020107377A1 DE 102020107377 A1 DE102020107377 A1 DE 102020107377A1 DE 102020107377 A DE102020107377 A DE 102020107377A DE 102020107377 A1 DE102020107377 A1 DE 102020107377A1
Authority
DE
Germany
Prior art keywords
vehicle
area
interest
point cloud
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020107377.1A
Other languages
English (en)
Inventor
Sambit Mohapatra
Senthil Kumar Yogamani
Heinrich Gotzig
Mostafa Sadik
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102020107377.1A priority Critical patent/DE102020107377A1/de
Publication of DE102020107377A1 publication Critical patent/DE102020107377A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Verfahren zur Verarbeitung einer dreidimensionalen Punktwolke, die durch mindestens einen LiDAR-Sensor (11) eines Fahrzeugs (10) erfasst wird, das die folgenden Schritte umfasst:- Emittieren von Lichtstrahlen (17) in einer Umgebung (15) des Fahrzeugs (10) mittels eines Emitters des mindestens einen LiDAR-Sensors (11),- Empfangen von Lichtstrahlen (32), die an mindestens einem Objekt (19) in der Umgebung (15) des Fahrzeugs reflektiert wurden, mittels eines Empfängers (13) des mindestens einen LiDAR-Sensors (11),- Berechnen der dreidimensionalen Punktwolke basierend auf den empfangenen Lichtstrahlen (32) in einer Verarbeitungseinheit (14), wobei jeder Punkt der Punktwolke einem empfangenen Lichtstrahl (32) entspricht,- Detektieren von Objekten (19) in der dreidimensionalen Punktwolke in der Verarbeitungseinheit (14), gekennzeichnet durchBestimmen eines Gebiets von Interesse (23) in der Umgebung (15) des Fahrzeugs (10) basierend auf einem Bewegungsparameter und/oder einem Positionsparameter des Fahrzeugs (10) in der Verarbeitungseinheit (14), wobei das Gebiet von Interesse (23) zumindest ein Teilgebiet der Umgebung (15) des Fahrzeugs (10) ist, undwobei das Detektieren von Objekten (19) Verwenden von Punkten der Punktwolke in dem Gebiet von Interesse (23) und Verwerfen von Punkten außerhalb des Gebiets von Interesse (23) umfasst.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Verarbeitung einer dreidimensionalen Punktwolke, die durch mindestens einen LiDAR-Sensor eines Fahrzeugs erfasst wird, das die folgenden Schritte umfasst:
    • - Emittieren von Lichtstrahlen in einer Umgebung des Fahrzeugs mittels eines Emitters des mindestens einen LiDAR-Sensors,
    • - Empfangen von Lichtstrahlen, die an mindestens einem Objekt in der Umgebung des Fahrzeugs reflektiert wurden, mittels eines Empfängers des mindestens einen LiDAR-Sensors,
    • - Berechnen der dreidimensionalen Punktwolke basierend auf den empfangenen Lichtstrahlen in einer Verarbeitungseinheit, wobei jeder Punkt der Punktwolke einem empfangenen Lichtstrahl entspricht,
    • - Detektieren von Objekten in der dreidimensionalen Punktwolke in der Verarbeitungseinheit.
  • Die Erfindung betrifft ferner eine Verarbeitungseinheit, ein Fahrassistenzsystem und ein Fahrzeug.
  • Messdaten von LiDAR-Sensoren können im Kontext von Kraftfahrzeuganwendungen verwendet werden, insbesondere zum Detektieren von Hindernissen oder zur Wegplanung für zumindest teilweise autonome Fahrzeuge. LiDAR-Sensoren scannen eine Umgebung eins Fahrzeugs durch Emittieren von Lichtstrahlen in der Umgebung und empfangen Lichtstrahlen, die an mindestens einem Objekt in der Umgebung des Fahrzeugs reflektiert wurden. Ein LiDAR-Sensor kann dazu ausgebildet sein, die gesamte Umgebung in einem Flash von Lichtstrahlen zu beleuchten oder sequenziell Lichtstrahlen in verschiedene Raumwinkel zu emittieren.
  • In bekannten LiDAR-Sensoren wird eine Umgebung des LiDAR-Sensors wiederholt während Messzyklen gescannt. Ein Messzyklus umfasst zumindest Emittieren von Lichtstrahlen, Empfangen von Lichtstrahlen und Verarbeiten der durch die empfangenen Lichtstrahlen erzeugten Signale. Jeder Messzyklus kann bis zu mehreren hunderten Millisekunden dauern. Daher wird die Verarbeitung der Messdaten in bekannten Systemen direkt mit einer Latenz von potenziell hunderten von Millisekunden beaufschlagt.
  • Andererseits resultiert jeder Messzyklus in einer Punktwolke von Messdaten oder Scanpunkten, die eine große zu bearbeitende Datenmenge umfassen kann. Die Latenz bei der Verarbeitung der Messdaten kann daher eine erhebliche Auswirkung auf Hindernisdetektionsaufgaben haben. Ein elektronisches Fahrzeugführungssystem eines teilweise oder vollständig autonomen Fahrzeugs kann ein Hindernis detektieren und/oder eine zukünftige Trajektorie des Fahrzeugs basierend auf den Messdaten des Sensorsystems planen und kann dadurch Brems- oder Lenkhandlungen durchführen. Demzufolge reduziert die Latenz die Sicherheit, insbesondere hinsichtlich städtischen Fahrszenen mit vielen Objekten, die plötzlich in rascher Abfolge erscheinen können.
  • Außerdem leiden andere Aufgaben mit computergestütztem Sehen wie etwa Objektdetektions- oder Klassifikationsaufgaben unter der Latenz. Beispielsweise kann die Klasse eines Objekts auch zur Wegplanung verwendet werden, was direkt durch die Latenz beeinträchtigt wird.
  • DE 101 480 69 A1 offenbart ein Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung eines Laserscanners. Detektierte Objekte werden priorisiert, um die Datenverarbeitung zu verbessern.
  • Es ist daher ein Ziel der vorliegenden Erfindung, ein verbessertes Konzept zur Verarbeitung von Messdaten eines LiDAR-Sensors bereitzustellen, das die Latenz und/oder ihre negativen Effekte verringert.
  • Dieses Problem wird durch Bestimmen eines Gebiets von Interesse in der Umgebung des Fahrzeugs basierend auf einem Bewegungsparameter und/oder einem Positionsparameter des Fahrzeugs in der Verarbeitungseinheit gelöst, wobei das Gebiet von Interesse zumindest ein Teilgebiet der Umgebung des Fahrzeugs ist und wobei das Detektieren von Objekten Verwenden von Punkten der Punktwolke in dem Gebiet von Interesse und Verwerfen von Punkten außerhalb des Gebiets von Interesse umfasst.
  • Die Erfindung basiert auf der Idee, dass für einen gegebenen Bewegungsparameter und/oder Positionsparameter des Fahrzeugs nur ein spezifisches Gebiet von Interesse in der Umgebung des Fahrzeugs zum Detektieren von Objekten relevant ist. In Abhängigkeit von einer Fahrsituation kann es wichtiger sein, Objekte nahe des Fahrzeugs zu detektieren, als weit entfernte Objekte zu detektieren. Dies kann beispielsweise in einem städtischen Fahrszenario der Fall sein. In einem städtischen Fahrszenario fahren das Fahrzeug und auch andere Fahrzeuge in der Umgebung mit niedriger Geschwindigkeit. Daher ist es unwahrscheinlich, dass Objekte in einem Fernfeld des LiDAR-Sensors eine unmittelbare Gefahr darstellen. Ein anderes Fahrszenario kann ein Autobahnszenario sein. In einem Autobahnszenario fahren das Fahrzeug und andere Fahrzeuge mit hoher Geschwindigkeit, aber da ein Fahrzeug in einer benachbarten Spur in dieselbe Richtung fährt, müssen nur andere Fahrzeuge in derselben oder der benachbarten Spur des Fahrzeugs detektiert werden. Um sich an die hohe Geschwindigkeit des Fahrzeugs anzupassen, müssen Objekte nicht nur im Nahfeld, sondern auch im Fernfeld des LiDAR-Sensors detektiert werden.
  • Ein LiDAR-Sensor umfasst eine Lichtquelle zum Emittieren von Licht bzw. Lichtimpulsen. Beispielsweise kann die Lichtquelle als ein Laser implementiert werden, insbesondere als ein Infrarotlaser. Ferner umfasst ein LiDAR-Sensor mindestens einen optischen Detektor zum Detektieren reflektierter Teile des emittierten Lichts, die an einem Objekt reflektiert werden. Insbesondere ist der LiDAR-Sensor dazu ausgelegt, ein oder mehrere Sensorsignale basierend auf den detektierten Anteilen des Lichts zu erzeugen und die Sensorsignale zu verarbeiten und/oder auszugeben. Die Messdaten können zum Beispiel als die Sensorsignale verstanden werden, die basierend auf den detektierten Anteilen reflektierter Lichter erzeugt werden.
  • Hier und im Folgenden kann „Licht“ derart verstanden werden, dass es elektromagnetische Wellen im sichtbaren Bereich, im Infrarotbereich und/oder im Ultraviolettbereich umfasst.
  • Insbesondere wird die Umgebung durch einen Bereich eines ersten Detektionswinkels und einen Bereich eines zweiten Detektionswinkels definiert. Der erste und der zweite Detektionswinkel können beispielsweise einem horizontalen bzw. vertikalen Scanwinkel entsprechen. Darin kann der horizontale Winkel einem Winkel entsprechen, den eine Projektion eines einfallendes Strahls von reflektiertem Licht in eine vordefinierte Ebene mit einer vordefinierten Längsachse einschließt. Er kann daher als ein Azimutwinkel verstanden werden. Der vertikale Winkel kann zum Beispiel als ein Winkel verstanden werden, den der Lichtstrahl mit der vordefinierten Ebene einschließt. Der horizontale Bereich kann bis zu 360° betragen und der vertikale Bereich kann bis zu 180° betragen.
  • Darin kann die Ebene beispielsweise eine Ebene sein, die parallel zu einer Oberfläche einer Straße, auf der das Fahrzeug positioniert ist, oder ungefähr parallel zu der Straßenoberfläche ist. Die Ebene kann zum Beispiel einer Emissionsebene des LiDAR-Sensors entsprechen, wobei der LiDAR-Sensor dazu ausgelegt ist, die Lichtimpulse mit unterschiedlichen Emissionswinkeln innerhalb der Ebene zu emittieren. Die Längsachse kann zum Beispiel innerhalb der Ebene liegen und parallel zu einer Längsachse des Fahrzeugs oder einer Längsachse des LiDAR-Sensors sein, wobei die Längsachse des LiDAR-Sensors beispielsweise als eine Emissionsrichtung mit einem Emissionswinkel von Null definiert ist.
  • Der LiDAR-Sensor kann zum Beispiel eine Umlenkungseinheit zum Umlenken von Lichtstrahlen in unterschiedliche horizontale und/oder vertikale Scanrichtungen umfassen. Beispielsweise kann die Umlenkungseinheit einen drehbaren Spiegel oder ein bewegliches Spiegelelement umfassen. Licht, das an einem Objekt reflektiert wird, kann durch die Umlenkungseinheit auf den optischen Detektor umgelenkt oder direkt durch den optischen Detektor empfangen werden. Der optische Detektor kann zum Beispiel ein oder mehrere lichtempfindliche Elemente umfassen, die einfallendes Licht absorbieren und das Sensorsignal erzeugen. Die lichtempfindlichen Elemente können in einem eindimensionalen Array oder einer zweidimensionalen Matrix angeordnet sein, wobei jede Spalte einen horizontalen Winkel repräsentiert und jede Zeile einen vertikalen Winkel repräsentiert.
  • Alternativ dazu kann der LiDAR-Sensor ausgebildet sein, um die gesamte Umgebung in einem Flash von Lichtstrahlen zu beleuchten. Eine derartige Ausführungsform wird auch ein „Flash-LiDAR“ genannt. Ein Flash-LiDAR-Sensor erfordert keine Umlenkungseinheit, ist aber auf einen optischen Detektor mit lichtempfindlichen Elementen angewiesen, die in einer zweidimensionalen Matrix angeordnet sind, um eine horizontale und/oder vertikale räumliche Auflösung der Umgebung bereitzustellen.
  • Die Verarbeitungseinheit berechnet die dreidimensionale Punktwolke basierend auf den empfangenen Lichtstrahlen. Die Punkte der Punktwolke entsprechen insbesondere jeweiligen dreidimensionalen Positionsinformationen, die aus den empfangenen Lichtstrahlen wiedergewonnen werden. Beispielsweise kann ein Punkt durch den jeweiligen vertikalen und horizontalen Scanwinkel und einen radialen Abstand von den optischen Detektoren gegeben sein. Alternativ oder zusätzlich dazu können die Scanpunkte durch jeweilige dreidimensionale kartesische Koordinaten oder durch andere dreidimensionale Koordinaten, die basierend auf den Scanwinkeln und dem radialen Abstand berechnet werden, gegeben sein.
  • Die Verarbeitungseinheit kann zum Beispiel CPUs, FPGAs, ECUs und so weiter umfassen.
  • Gemäß der Erfindung werden nur Punkte der Punktwolke, die in dem Gebiet von Interesse liegen, zum Detektieren von Objekten verwendet. Punkte der Punktwolken, die außerhalb des Gebiets von Interesse liegen, werden verworfen und nicht zum Detektieren von Objekten verwendet. Das Verwenden von nur den Punkten der Punktwolke, die in dem Gebiet von Interesse liegen, reduziert drastisch die Menge an Punkten der Punktwolke, die verarbeitet werden müssen, um Objekte in der Punktwolke zu detektieren. Dies reduziert die Latenz und die erforderlichen Hardwareressourcen.
  • Das Gebiet von Interesse ist ein Teilgebiet der Umgebung. Die Form des Gebiets von Interesse kann eine beliebige Form besitzen, zum Beispiel unter anderem kubisch, konisch oder trapezförmig.
  • Bei einer Ausführungsform der Erfindung kann mindestens eine Begrenzung des Gebiets von Interesse basierend auf dem Bewegungsparameter und/oder dem Positionsparameter des Fahrzeugs in der Verarbeitungseinheit angepasst werden. Diese Ausführungsform besitzt den Vorteil, dass das Gebiet von Interesse spezifisch basierend auf einem gegebenen Szenario angepasst werden kann. Falls das Fahrzeug beispielsweise beschleunigt, kann es vorteilhaft sein, nur einen maximalen Abstand zum Fahrzeug einzustellen. Das Anpassen aller Begrenzungen des Gebiets von Interesse ist möglicherweise nicht notwendig. In einer anderen Situation, bei der das Fahrzeug nach links oder rechts abbiegt, kann es vorteilhaft sein, nur die horizontale Begrenzung, in die das Fahrzeug abbiegt, einzustellen.
  • Bei einer vorteilhaften Ausführungsform kann eine erste Begrenzung des Gebiets von Interesse ein Abstand zu dem Fahrzeug sein, insbesondere ein radialer Abstand zu dem Fahrzeug, eine zweite Begrenzung des Gebiets von Interesse kann eine horizontale Begrenzung sein und eine dritte Begrenzung des Gebiets von Interesse kann eine vertikale Begrenzung sein. Diese vorteilhafte Ausführungsform kann eine Anpassung des Gebiets von Interesse in drei Dimensionen bereitstellen. Daher eignet sich diese Ausführungsform insbesondere zum Bereitstellen eines spezifischen Gebiets von Interesse basierend auf einem Bewegungsparameter und/oder einem Positionsparameter.
  • Gemäß einer weiteren Ausführungsform kann der Bewegungsparameter eine aktuelle Geschwindigkeit und/oder eine aktuelle Beschleunigung und/oder eine vorhergesagte Bewegung des Fahrzeugs sein. Eine aktuelle Geschwindigkeit, eine aktuelle Beschleunigung und/oder eine vorhergesagte Bewegung des Fahrzeugs können durch einen spezifischen Wert z. B. 50 km/h oder 30 m/s2 repräsentiert werden. Zusätzlich dazu kann dieser Wert mit einem Vektor kombiniert werden, um eine aktuelle Bewegungsrichtung anzugeben.
  • Bei einer weiteren Ausführungsform kann die vorhergesagte Bewegung des Fahrzeugs auf einer vorherigen Geschwindigkeit und/oder einer vorherigen Beschleunigung des Fahrzeugs basieren. Das Vorhersagen einer Bewegung eines Fahrzeugs basierend auf einer vorherigen Geschwindigkeit oder Beschleunigung des Fahrzeugs hat den Vorteil, dass ein Gebiet von Interesse für einen nächsten Messzyklus vorhergesagt werden kann.
  • Bei einer weiteren Ausführungsform kann der Positionsparameter ein GPS-Signal, das mittels einer GPS-Einheit bestimmt wird, und/oder eine Position des Fahrzeugs bezüglich Objekten in der Umgebung des Fahrzeugs sein. Das Verwenden eines GPS-Signals zum Bestimmen eines Gebiets von Interesse hat den Vorteil, dass eine Position des Fahrzeugs in einer Karte bestimmt werden kann. Das GPS-Signal kann Informationen über die Umgebung des Fahrzeugs und das aktuelle Fahrszenario, z. B. Stadt- oder Autobahnszenario, bereitstellen. Alternativ oder zusätzlich dazu kann die Position des Fahrzeugs bezüglich Objekten in der Umgebung des Fahrzeugs zum Anpassen des Gebiets von Interesse verwendet werden. Insbesondere können vorherige Scans der Umgebung zum Bestimmen verwendet werden, ob das Gebiet von Interesse vergrößert werden muss oder verringert werden sollte.
  • Bei einer weiteren Ausführungsform umfasst das Detektieren von Objekten in der dreidimensionalen Punktwolke Verwenden eines Neuronalnetzwerks.
  • Bei einer weiteren Ausführungsform werden detektierte Objekte durch das Neuronalnetzwerk in unterschiedliche Kategorien klassifiziert.
  • Das Neuronalnetzwerk, das als ein Softwarealgorithmus verstanden werden kann, ist insbesondere für eine oder mehrere Aufgaben mit computergestütztem Sehen trainiert, zum Beispiel einschließlich Objektdetektion und/oder Segmentierung und/oder Klassifikation.
  • Gemäß mehreren Implementierungen wird das Neuronalnetzwerk als ein gepulstes Neuronalnetzwerk (SNN: Spiking Neural Network) oder als ein Faltung-Neuronalnetzwerk (CNN: Convolutional Neural Network) implementiert.
  • Gemäß der Erfindung ist eine Verarbeitungseinheit bereitgestellt. Die Verarbeitungseinheit umfasst Mittel zum Ausführen des Verfahrens gemäß der Erfindung.
  • Gemäß der Erfindung ist ein Fahrassistenzsystem bereitgestellt, wobei das Fahrassistenzsystem mindestens einen LiDAR-Sensor und eine Verarbeitung gemäß der Erfindung umfasst.
  • Gemäß der Erfindung ist ein Fahrzeug bereitgestellt, wobei das Fahrzeug ein Fahrassistenzsystem gemäß der Erfindung umfasst.
  • Gemäß mehreren Implementierungen des Fahrzeugs wird das Fahrzeug als ein zumindest teilweise autonom steuerbares Fahrzeug implementiert.
  • Weitere Merkmale der Erfindung werden aus den Ansprüchen, den Figuren und der Beschreibung der Figuren ersichtlich. Die oben in der Beschreibung erwähnten Merkmale und Merkmalskombinationen sowie die unten in der Beschreibung der Figuren erwähnten und/oder alleinig in den Figuren gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweiligen spezifizierten Kombination verwendbar, sondern auch in anderen Kombinationen, ohne vom Schutzumfang der Erfindung abzuweichen. Somit sollen auch Implementierungen als durch die Erfindung eingeschlossen und offenbart in Betracht gezogen werden, die nicht ausdrücklich in den Figuren gezeigt und erläutert sind, sondern aus separaten Merkmalskombinationen von der erläuterten Implementierungen hervorgehen und durch diese erzeugt werden können. Implementierungen und Merkmalskombinationen sollen auch als offenbart in Betracht gezogen werden, die nicht alle der Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Darüber hinaus sollen Implementierungen und Merkmalskombinationen als offenbart in Betracht gezogen werden, insbesondere durch die oben dargelegten Implementierungen, die sich über die in den Beziehungen der Ansprüche dargelegten Merkmalskombinationen hinaus erstrecken oder von diesen abweichen.
  • In den Figuren gilt:
    • 1 zeigt ein Fahrzeug, das eine beispielhafte Implementierung eines Fahrassistenzsystems umfasst;
    • 2 zeigt schematisch das Fahrzeug, das eine beispielhafte Implementierung eines Fahrassistenzsystems von 1 umfasst;
    • 3 zeigt eine Draufsicht eines Fahrszenarios mit einer ersten Anpassung eines Gebiets von Interesse;
    • 4 zeigt eine Draufsicht eines Fahrszenarios mit einer zweiten Anpassung des Gebiets von Interesse;
    • 5 zeigt eine Draufsicht eines Fahrszenarios mit einer dritten Anpassung des Gebiets von Interesse.
  • In 1 ist ein Fahrzeug 10 dargestellt. Das Fahrzeug 10 umfasst einen LiDAR-Sensor 11, der als ein Laserscanner ausgebildet ist. Der LiDAR-Sensor 11 ist dazu eingerichtet, eine Umgebung 15 des Fahrzeugs 10 zu scannen. Insbesondere ist der LiDAR-Sensor 11 ausgebildet, Objekte 19 in der Umgebung 15 des Fahrzeugs zu detektieren und die Positionen und Abstände zu diesen Objekten 19 zu bestimmen. Die Objekte 19 können andere Fahrzeuge, Fußgänger oder andere Hindernisse sein. In 1 ist der LiDAR-Sensor 11 an einer zentralen Position in einer Frontstoßstange des Fahrzeugs 10 angeordnet. Bei einer derartigen Anordnung wird eine Umgebung 15 vor dem Fahrzeug 10 überwacht. Der LiDAR-Sensor 11 kann auch an einer anderen Position des Fahrzeugs 10 angeordnet sein, zum Beispiel in der Stoßstange am Heck des Fahrzeugs oder an einer Seite des Fahrzeugs 10.
  • 2 zeigt eine schematische Darstellung beispielhafter Komponenten des Fahrzeugs 10. Das Fahrzeug 10 fährt in eine Richtung 53. Die schematische Darstellung zeigt, wie das Fahrassistenzsystem 50, das einen LiDAR-Sensor 11 umfasst, in einem Fahrzeug 11 allgemein eingerichtet ist. 2 stellt keine räumliche Orientierung der Fahrassistenzsysteme 50 bei seinen Komponenten dar.
    Der LiDAR-Sensor 11 umfasst eine Emittereinheit 12, eine Empfängereinheit 13 und eine Verarbeitungseinheit 14. Die Emittereinheit 12 umfasst eine Lichtquelle 20, zum Beispiel mindestens eine Laserdiode, insbesondere einen Randemitter oder eine VCSEL-Diode (VCSEL: Vertical Cavity Surface Emitting Laser - Vertikalresonator-Oberflächenemissionslaser), und eine Umlenkungseinheit 22, zum Beispiel einen drehbaren oder oszillierenden Spiegel, einen optischen Wellenleiter oder ein optisches Phased-Array.
  • Die Empfängereinheit 13 umfasst eine Empfängeroptik 32 und einen optischen Detektor 30. Die Empfängeroptik kann eine Linse, ein (Mikro-) Linsenarray eines optischen Filters sein. Der optische Detektor kann eine oder mehrere Photodioden oder Avalanche-Photodioden (APD) sein, die in einem eindimensionalen oder zweidimensionalen CCD-Array angeordnet sind.
  • Die Lichtquelle 20 emittiert Lichtstrahlen 16, die durch die Umlenkungseinheit 22 umgelenkt werden. Die umgelenkten Lichtstrahlen 17 werden in die Umgebung 14 übertragen und an einem Objekt 19 reflektiert. Die reflektierten Lichtstrahlen 32 werden durch den optischen Detektor 30 empfangen, der ein elektrisches Signal erzeugt. Das elektrische Signal wird zu der Verarbeitungseinheit 14 übertragen, die die Position und den Abstand zu dem Objekt 19 bestimmt.
  • Der Abstand zu einem Objekt 19 wird durch das Laufzeitprinzip bestimmt. Das Laufzeitprinzip basiert auf der Bestimmung einer Zeitspanne zwischen dem Emittieren der Lichtstrahlen 16 und dem Empfangen der reflektierten Lichtstrahlen 32 und der Berechnung des Abstands zu dem Objekt 19 basierend auf der Zeitspanne und der Lichtgeschwindigkeit. Die Position des Objekts, insbesondere der Winkel des Objekts bezüglich einer Referenzachse, zum Beispiel einer Längsachse, wird durch den Raumwinkel bestimmt, mit dem der umgelenkte Lichtstrahl 17 in die Umgebung übertragen wurde, und mit welchem Winkel der reflektierte Lichtstrahl 17 empfangen wurde. Die Wiederholungsrate des LiDAR-Sensors 11 ist dazu eingerichtet, eine neue Messung nur nach einer Zeitspanne zu starten, die den maximalen Abstand zu einem Objekt 19, den der LiDAR-Sensor 11 detektieren kann, repräsentiert.
  • Das Fahrzeug 10 umfasst außerdem ein Fahrassistenzsystem 50. Das Fahrassistenzsystem 50 ist ausgebildet, um einen Fahrer des Fahrzeugs 11 zu unterstützen oder das Fahrzeug 11 zumindest teilweise autonom zu fahren. Das Fahrassistenzsystem 50 kann Komponenten des Fahrzeugs 10, zum Beispiel eine Motorsteuerung, eine Bremsfunktion oder eine Lenkfunktion, steuern. Alternativ dazu kann das Fahrassistenzsystem 50 dem Fahrer Warnsignale bereitstellen. Das Fahrassistenzsystem 50 ist funktionell mit den Steuereinheiten 52 gekoppelt. Die Steuereinheit 52 in 2 kann als eine Motorsteuereinheit, eine Bremseinheit, eine Lenkeinheit, eine Karosseriesteuereinheit oder eine Signalausgabeeinheit ausgebildet sein. Die Verarbeitungseinheit 14 des LiDAR-Sensors 11 stellt der Steuereinheit 51 des Fahrassistenzsystems Informationen über die Objekte 19 bereit. Diese Informationen können als Eingabeparameter für die Steuereinheiten 52 verwendet werden. Alternativ dazu kann die Verarbeitungseinheit 14 auch Teil des Fahrassistenzsystems 50 sein.
  • Die Verarbeitungseinheit 14 berechnet eine dreidimensionale Punktwolke basierend auf den reflektierten Lichtstrahlen 32, die durch den optischen Detektor 30 empfangen werden. Die Punkte der Punktwolke entsprechen jeweiligen dreidimensionalen Positionsinformationen, die aus den empfangenen reflektierten Lichtstrahlen 32 wiedergewonnen werden, die durch den optischen Detektor 30 empfangen werden. Ein Punkt repräsentiert eine Reflexion und beinhaltet einen jeweiligen vertikalen und horizontalen Scanwinkel und einen Abstand von den optischen Detektoren.
  • 3 zeigt eine Draufsicht eines Fahrzeugs 10, das auf einer Straße 54 in eine Richtung 53 fährt. Objekte 19 befinden sich an verschiedenen Orten auf der Straße 54 und in der Nähe der Straße 54. Die Objekte 19 können andere Fahrzeuge, Fußgänger, Fahrräder, Verkehrsschilder oder andere Objekte sein.
  • Fahrassistenzsysteme 50 unterstützen einen Fahrer in verschiedenen Fahrszenarios oder steuern ein Fahrzeug 10 vollständig in einem autonomen Fahrmodus. Eine wichtige Aufgabe eines derartigen Fahrassistenzsystems 50 besteht in der Bestimmung, ob ein Bremsmanöver durchgeführt werden muss. Der erforderliche Bremsweg für eine gegebene Geschwindigkeit kann durch die folgende Formel geschätzt werden: B r e a k i n g   d i s t a n c e v e l o c i t y 2 100
    Figure DE102020107377A1_0001
  • In städtischen Fahrszenarios weisen die Fahrzeuge 10 typischerweise eine Geschwindigkeit zwischen 30 - 50 km/h auf. Dies resultiert in einen Bremsweg von 9 Metern bei einer Geschwindigkeit von 30 km/h und 25 Metern bei einer Geschwindigkeit von 50 km/h.
  • Im Allgemeinen besitzen die LiDAR-Sensoren 11 eine Reichweite von 50 - 150 Metern für Objekte 19 mit geringer Reflektivität und bis zu 250 - 300 Metern für Objekte 19 mit einer hohen Reflektivität. In städtischen Fahrszenarios mit einem Geschwindigkeitsbereich von 30 - 50 km/h ist es nicht notwendig, Objekte in einer Entfernung von 150 m zu analysieren, um zu bestimmen, ob ein Brems- und/oder Lenkmanöver durchgeführt werden muss, damit eine Kollision vermieden wird. Zur Wegplanung ist es insbesondere wichtig, die Objekte 19 in einer Entfernung bis zu dem Bremsweg bei einer gegebenen Geschwindigkeit zu bestimmen, da derartige Objekte 19 unmittelbare Gefahren darstellen. Eine Kollision mit derartigen Objekten 19 kann nicht durch Bremsen allein vermieden werden, sondern durch eine Kombination von Bremsen und Lenken.
  • Des Weiteren sind Fußgänger, Fahrräder und andere gefährdete Straßenbenutzer Objekte 19, die in einem typischen städtischen Fahrszenario überwacht werden müssen. Fußgänger oder Fahrräder könnten eine Straße vor dem Fahrzeug 10 überqueren. Um in der Lage zu sein, Fußgänger oder Fahrräder zu verfolgen, muss die vollständige horizontale Umgebung 15 des LiDAR-Sensors 11 überwacht werden.
  • Gemäß der Erfindung werden nur Punkte der Punktwolke, die sich in einem Gebiet von Interesse 23 befinden, zur Detektion der Objekte 19 verarbeitet, um die Verarbeitung der Messdaten zu verbessern. Punkte der Punktwolke, die sich außerhalb des Gebiets von Interesse 23 befinden, werden verworfen. Durch das alleinige Verarbeiten von Punkten der Punktwolke, die sich in dem Gebiet von Interesse 23 befinden, kann die zu verarbeitende Datenmenge reduziert werden. Dies führt zu einer besseren Latenz und reduziert Hardwareanforderungen für die Verarbeitungseinheit.
  • Um sich auf ein typisches städtisches Fahrszenario anzupassen, das in 3 gezeigt ist, wird die erste Begrenzung 24 des Gebiets von Interesse 23, die ein Abstand zum Fahrzeug ist, in Abhängigkeit von einer gegebenen Geschwindigkeit des Fahrzeugs 10 angepasst. In diesem Fall definiert die erste Begrenzung 24 einen maximalen Abstand des Gebietes von Interesse 23, der kürzer ist als die maximale Detektionsentfernung des LiDAR-Sensors 11. Die zweite Begrenzung 25 des Gebiets von Interesse 23, die eine horizontale Begrenzung ist, entspricht dem maximalen Raumwinkel der Umgebung 15.
  • Die dritte Begrenzung des Gebiets von Interesse 23, die eine vertikale Begrenzung des Gebiets von Interesse 23 ist, ist in 3 nicht dargestellt. Die dritte Begrenzung kann beispielsweise zu einer definierten maximalen Höhe beschränkt sein.
  • Die erste Begrenzung kann durch den Bremsweg für eine gegebene Geschwindigkeit bestimmt sein. Um die Sicherheit zusätzlich zu erhöhen, kann eine Reaktionszeit des Fahrers und/oder eine Verarbeitungszeit zur Verarbeitung der Daten zur Berechnung der ersten Begrenzung einbezogen werden. Das Einbeziehen einer Reaktionszeit des Fahrers und/oder einer Verarbeitungszeit zur Berechnung der ersten Begrenzung könnte den maximalen Abstand erhöhen.
  • Das Gebiet von Interesse 23 gemäß 3 ist daher ein Teilgebiet der Umgebung 15 des Fahrzeugs 10, das im Vergleich zu der Umgebung 15 nur in der Entfernung verringert ist, aber die gleiche horizontale Reichweite wie die Umgebung 15 beinhaltet. Durch nur das Beschränken der Entfernung für den Punkt der Punktwolke können die Objekte 19, die die Straße 54 überqueren könnten, weiterhin beobachtet werden, wobei die Objekte 19, die sich weit entfernt befinden und keine unmittelbare Gefahr für das Fahrzeug 10 darstellen, herausgefiltert werden.
  • Um die Anpassung des Gebiets von Interesse 23 zusätzlich zu verbessern, kann ein Positionsparameter verwendet werden. Ein Positionsparameter kann ein GPS-Signal sein, das durch eine GPS-Einheit des Fahrzeugs 10 empfangen wird. Ein GPS-Signal kann Informationen über den Standort des Fahrzeugs 10 enthalten, beispielsweise ob sich das Fahrzeug 10 in einer Stadt befindet.
  • 4 stellt eine zweite Anpassung des Gebiets von Interesse 23 dar. Die erste Begrenzung des Gebiets von Interesse 23 wird auf eine ähnliche Weise wie in 3 gezeigt angepasst. Zusätzlich zu der Anpassung der ersten Begrenzung wird ebenso die zweite Begrenzung angepasst, indem der horizontale Bereich des Gebiets von Interesse 23 im Vergleich zu der Umgebung 15 des LiDAR-Sensors reduziert wird.
  • Eine derartige Anpassung des Gebiets von Interesse 23 kann für ein Fahrszenario vorteilhaft sein, bei dem die Straße überquerende Objekte 19 unwahrscheinlich sind und das Fahrzeug mit niedriger Geschwindigkeit fährt, z. B. ein Stau auf einer Autobahn.
  • 5 zeigt eine dritte Anpassung des Gebiets von Interesse 23. Bei dieser Anpassung wird nur die zweite Begrenzung 25 des Gebiets von Interesse 23 angepasst. Die zweite Begrenzung 25 definiert einen Korridor, in dem das Fahrzeug 10 fährt. Ein derartiges Szenario kann in Fahrszenarios mit hoher Geschwindigkeit vorteilhaft sein, bei denen das Fahrzeug 10 auf einer geraden Straße 54 fährt. Der Korridor, der durch die zweite Begrenzung 25 definiert ist, kann auch basierend auf Hodometrieinformationen des Fahrzeugs 10 angepasst werden, falls das Fahrzeug in einer Kurve fährt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10148069 A1 [0007]

Claims (12)

  1. Verfahren zur Verarbeitung einer dreidimensionalen Punktwolke, die durch mindestens einen LiDAR-Sensor (11) eines Fahrzeugs (10) erfasst wird, das die folgenden Schritte umfasst: - Emittieren von Lichtstrahlen (17) in einer Umgebung (15) des Fahrzeugs (10) mittels eines Emitters des mindestens einen LiDAR-Sensors (11), - Empfangen von Lichtstrahlen (32), die an mindestens einem Objekt (19) in der Umgebung (15) des Fahrzeugs reflektiert wurden, mittels eines Empfängers (13) des mindestens einen LiDAR-Sensors (11), - Berechnen der dreidimensionalen Punktwolke basierend auf den empfangenen Lichtstrahlen (32) in einer Verarbeitungseinheit (14), wobei jeder Punkt der Punktwolke einem empfangenen Lichtstrahl (32) entspricht, - Detektieren von Objekten (19) in der dreidimensionalen Punktwolke in der Verarbeitungseinheit (14), gekennzeichnet durch Bestimmen eines Gebiets von Interesse (23) in der Umgebung (15) des Fahrzeugs (10) basierend auf einem Bewegungsparameter und/oder einem Positionsparameter des Fahrzeugs (10) in der Verarbeitungseinheit (14), wobei das Gebiet von Interesse (23) zumindest ein Teilgebiet der Umgebung (15) des Fahrzeugs (10) ist, und wobei das Detektieren von Objekten (19) Verwenden von Punkten der Punktwolke in dem Gebiet von Interesse (23) und Verwerfen von Punkten außerhalb des Gebiets von Interesse (23) umfasst.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass mindestens eine Begrenzung (24, 25) des Gebiets von Interesse (23) basierend auf dem Bewegungsparameter und/oder dem Positionsparameter des Fahrzeugs (10) in der Verarbeitungseinheit (14) angepasst wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass eine erste Begrenzung (24) des Gebiets von Interesse (23) ein Abstand zu dem Fahrzeug (10) ist, eine zweite Begrenzung (24) des Gebiets von Interesse (23) eine horizontale Begrenzung ist und eine dritte Begrenzung des Gebiets von Interesse (23) eine vertikale Begrenzung ist.
  4. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Bewegungsparameter eine aktuelle Geschwindigkeit und/oder eine aktuelle Beschleunigung und/oder eine vorhergesagte Bewegung des Fahrzeugs (10) ist.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die vorhergesagte Bewegung des Fahrzeugs auf einer vorherigen Geschwindigkeit und/oder einer vorherigen Beschleunigung des Fahrzeugs (10) basiert.
  6. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Positionsparameter ein GPS-Signal, das mittels einer GPS-Einheit bestimmt wird, und/oder eine Position des Fahrzeugs bezüglich Objekten (19) in der Umgebung (15) des Fahrzeugs (10) ist.
  7. Verfahren nach Anspruch 6, gekennzeichnet durch Bestimmen der Position des Fahrzeugs (10) bezüglich Objekten in der Umgebung (15) des Fahrzeugs (10) durch den mindestens einen LiDAR-Sensor (11) und/oder andere Sensoren in mindestens einem vorherigen Messzyklus.
  8. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Detektieren von Objekten (19) in der dreidimensionalen Punktwolke Verwenden eines Neuronalnetzwerks umfasst.
  9. Verfahren nach Anspruch 8, gekennzeichnet durch Klassifizieren der detektierten Objekte (19) in unterschiedliche Kategorien durch das Neuronalnetzwerk.
  10. Verarbeitungseinheit (14), die Mittel zum Ausführen des Verfahrens nach einem der vorangegangenen Ansprüche umfasst.
  11. Fahrassistenzsystem (50), das mindestens einen LiDAR-Sensor (11) und eine Verarbeitungseinheit (14) nach Anspruch 10 umfasst.
  12. Fahrzeug (10), das eine Fahrassistenz (50) nach Anspruch 11 umfasst.
DE102020107377.1A 2020-03-18 2020-03-18 Verfahren zur Verarbeitung einer dreidimensionalen Punktwolke Pending DE102020107377A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020107377.1A DE102020107377A1 (de) 2020-03-18 2020-03-18 Verfahren zur Verarbeitung einer dreidimensionalen Punktwolke

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020107377.1A DE102020107377A1 (de) 2020-03-18 2020-03-18 Verfahren zur Verarbeitung einer dreidimensionalen Punktwolke

Publications (1)

Publication Number Publication Date
DE102020107377A1 true DE102020107377A1 (de) 2021-09-23

Family

ID=77552629

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020107377.1A Pending DE102020107377A1 (de) 2020-03-18 2020-03-18 Verfahren zur Verarbeitung einer dreidimensionalen Punktwolke

Country Status (1)

Country Link
DE (1) DE102020107377A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10148069A1 (de) 2001-09-28 2003-04-10 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
US20180113200A1 (en) 2016-09-20 2018-04-26 Innoviz Technologies Ltd. Variable flux allocation within a lidar fov to improve detection in a region
DE112017007467T5 (de) 2017-04-20 2020-01-02 Analog Devices, Inc. Verfahren zum Bereitstellen einer Interferenzreduzierung und eines dynamischen Bereichs von Interesse in einem LIDAR-System

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10148069A1 (de) 2001-09-28 2003-04-10 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
US20180113200A1 (en) 2016-09-20 2018-04-26 Innoviz Technologies Ltd. Variable flux allocation within a lidar fov to improve detection in a region
DE112017007467T5 (de) 2017-04-20 2020-01-02 Analog Devices, Inc. Verfahren zum Bereitstellen einer Interferenzreduzierung und eines dynamischen Bereichs von Interesse in einem LIDAR-System

Similar Documents

Publication Publication Date Title
EP1267178B1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE19503960B4 (de) Optische Radarvorrichtung für Fahrzeuge
EP1418444B1 (de) Verfahren zur Bestimmung einer Eigenbewegung eines Fahrzeugs
DE102007021762B4 (de) Straßenumgebungs-Erkennungsvorrichtung und Verfahren zum Erkennen einer Straßenumgebung
EP1731922B1 (de) Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Kraftfahrzeuges
DE112020004984T5 (de) Kalibrierung von LiDAR-Sensoren
DE102011017540B4 (de) Verfahren und Vorrichtung zum Erkennen einer Anwesenheit von Objekten
DE102017003067A1 (de) Kollisionsverhinderungsvorrichtung und kollisionsverhinderungsverfahren
DE102011081740A1 (de) Fahrumgebung-Erkennungseinrichtung und Fahrumgebung-Erkennungsverfahren
DE102011077333A1 (de) Fahrerassistenzsystem mit Objektdetektion
DE102012205293A1 (de) Fahrerunterstützungssystem gegen tote Winkel für den Fahrer
DE10151982A1 (de) Optoelektronische Erfassungseinrichtung
EP1306690B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102016215510A1 (de) Objekterkennungsvorrichtung
DE102011005727A1 (de) Verfahren und Vorrichtung zur Erfassung von Straßenrändern
DE112020000849T5 (de) Sensorsystem für Fahrzeug, und Fahrzeug
WO2023247302A1 (de) Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage
DE102020121504A1 (de) Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug, Halteziel und Antriebssteuersystem
DE102017205245A1 (de) Freibereichsfusion für Fahrerassistenzsysteme
DE102020107377A1 (de) Verfahren zur Verarbeitung einer dreidimensionalen Punktwolke
DE102009038406A1 (de) Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs
EP3885787A1 (de) Erfassung von abstandsmessdaten
DE10251039A1 (de) Verfahren zur Zielobjektauswahl bei einem Fahrzeugführungssystem
EP4010737A1 (de) Lidar-messsystem mit zwei lidar-messvorrichtungen
WO2004083892A1 (de) Verfahren und vorrichtung zum erfassen eines objekts im umfeld eines kraftfahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified