DE102021117877A1 - Generating a filtered point cloud and at least partially automatically driving a vehicle - Google Patents

Generating a filtered point cloud and at least partially automatically driving a vehicle Download PDF

Info

Publication number
DE102021117877A1
DE102021117877A1 DE102021117877.0A DE102021117877A DE102021117877A1 DE 102021117877 A1 DE102021117877 A1 DE 102021117877A1 DE 102021117877 A DE102021117877 A DE 102021117877A DE 102021117877 A1 DE102021117877 A1 DE 102021117877A1
Authority
DE
Germany
Prior art keywords
point cloud
vehicle
sensor
computing unit
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021117877.0A
Other languages
German (de)
Inventor
Alexandre Garnault
Benazouz BRADAI
Pedro Moreno-Lahore
Jean-Charles Bernard
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102021117877.0A priority Critical patent/DE102021117877A1/en
Priority to PCT/EP2022/068826 priority patent/WO2023285254A1/en
Publication of DE102021117877A1 publication Critical patent/DE102021117877A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks

Abstract

Gemäß einem Verfahren zum Erzeugen einer gefilterten Punktwolke (10) zum Führen eines Fahrzeugs (1) wird ein Sensordatensatz, der eine Umgebung des Fahrzeugs (1) darstellt, mittels eines aktiven optischen Sensorsystems (4) erzeugt und eine Sensorpunktwolke (8) wird mittels einer Recheneinheit (3) erzeugt. Die gefilterte Punktwolke (10) wird als Teilmenge der Sensorpunktwolke (8) abhängig von einer Referenzpunktwolke (9) mit einer Vielzahl von Referenzpunkten erzeugt, wobei für jeden einer Vielzahl von Punkten der Sensorpunktwolke der jeweilige Punkt der Sensorpunktwolke (8) nur dann zur gefilterten Punktwolke (10) hinzugefügt wird, wenn ein räumlicher Bereich, der einer vordefinierten Umgebung des jeweiligen Punkts der Sensorpunktwolke (8) entspricht, von Referenzpunkten frei ist.According to a method for generating a filtered point cloud (10) for driving a vehicle (1), a sensor data set that represents an environment of the vehicle (1) is generated using an active optical sensor system (4) and a sensor point cloud (8) is using a Arithmetic unit (3) generated. The filtered point cloud (10) is generated as a subset of the sensor point cloud (8) depending on a reference point cloud (9) with a large number of reference points, whereby for each of a large number of points in the sensor point cloud the respective point in the sensor point cloud (8) only becomes the filtered point cloud (10) is added if a spatial area that corresponds to a predefined environment of the respective point of the sensor point cloud (8) is free of reference points.

Description

Die vorliegende Erfindung ist auf ein Verfahren zum Erzeugen einer gefilterten Punktwolke zum wenigstens teilweise automatischen Führen eines Fahrzeugs gerichtet, wobei ein Sensordatensatz, der eine Umgebung des Fahrzeugs darstellt, mittels eines aktiven optischen Sensorsystems des Fahrzeugs erzeugt wird und eine Sensorpunktwolke mittels wenigstens einer Recheneinheit des Fahrzeugs abhängig von dem Sensordatensatz erzeugt wird. Die Erfindung ist ferner auf ein Verfahren zum wenigstens teilweise automatischen Führen eines Fahrzeugs, auf ein elektronisches Fahrzeugführungssystem, auf ein Computerprogramm und auf ein computerlesbares Speichermedium gerichtet.The present invention is directed to a method for generating a filtered point cloud for at least partially automatic driving of a vehicle, with a sensor data set representing the surroundings of the vehicle being generated by means of an active optical sensor system of the vehicle and a sensor point cloud by means of at least one computing unit of the vehicle is generated depending on the sensor data set. The invention is also directed to a method for at least partially automatically driving a vehicle, to an electronic vehicle guidance system, to a computer program and to a computer-readable storage medium.

Viele automatische und teilweise automatische Fahrfunktionen für Fahrzeuge, insbesondere Kraftfahrzeuge, wie zum Beispiel autonome Fahrfunktionen oder Fahrerassistenzsysteme, ADAS, beruhen auf der effizienten Verarbeitung von Daten, die mittels verschiedener Sensoren des Fahrzeugs erzeugt werden. Insbesondere können aktive optische Sensorsysteme, wie zum Beispiel Lidarsysteme, eine wertvolle Eingabe für diese Funktionen bereitstellen. Solche aktiven optischen Sensorsysteme können Sensordaten bereitstellen, die in Form einer zweidimensionalen oder zweidimensionalen Punktwolke vorliegen können oder in eine solche Punktwolke umgewandelt werden können. Eine über ein aktives optisches Sensorsystem erhaltene Punktwolke enthält jedoch potentiell eine große Anzahl von Punkten für jedes Sensoreinzelbild. Folglich erfordert die Verarbeitung von solchen großen Punktwolken eine signifikante Menge an Rechenressourcen hinsichtlich des Speichers und der Rechenzeit. Insbesondere im Hinblick auf eingebettete Systeme, die üblicherweise im Zusammenhang mit Kraftfahrzeuganwendungen verwendet werden, ist dies ein Nachteil.Many automatic and partially automatic driving functions for vehicles, in particular motor vehicles, such as autonomous driving functions or driver assistance systems, ADAS, are based on the efficient processing of data that is generated using various sensors in the vehicle. In particular, active optical sensor systems, such as lidar systems, can provide valuable input to these functions. Such active optical sensor systems can provide sensor data that can be in the form of a two-dimensional or two-dimensional point cloud or can be converted into such a point cloud. However, a point cloud obtained via an active optical sensor system potentially contains a large number of points for each sensor frame. Consequently, processing such large point clouds requires a significant amount of computational resources in terms of memory and computation time. This is a disadvantage, particularly with regard to embedded systems that are commonly used in connection with automotive applications.

Es ist eine Aufgabe der vorliegenden Erfindung, die Rechenanforderungen für die Verarbeitung von Sensordaten zum wenigstens teilweise automatischen Führen eines Fahrzeugs, insbesondere Sensordaten, die mittels eines aktiven optischen Sensorsystems erhalten werden, zu verringern.It is an object of the present invention to reduce the computational requirements for processing sensor data for at least partially automatically driving a vehicle, in particular sensor data obtained by means of an active optical sensor system.

Diese Aufgabe wird durch den Gegenstand der unabhängigen Ansprüche erreicht. Weitere Implementierungen und bevorzugte Ausführungsformen sind Gegenstand der abhängigen Ansprüche.This object is achieved by the subject matter of the independent claims. Further implementations and preferred embodiments are subject of the dependent claims.

Die Erfindung basiert auf der Idee, eine Sensorpunktwolke durch Vergleichen der Sensorpunktwolke mit einer vorbestimmten Referenzpunktwolke zu filtern, so dass die gefilterte Punktwolke nur Punkte enthält, die keinen entsprechenden Referenzpunkt in einer vordefinierten Umgebung aufweisen.The invention is based on the idea of filtering a sensor point cloud by comparing the sensor point cloud with a predefined reference point cloud, so that the filtered point cloud only contains points that have no corresponding reference point in a predefined environment.

Gemäß einem Aspekt der Erfindung wird ein Verfahren zum Führen einer gefilterten Punktwolke, die dazu geeignet ist, zum wenigstens teilweise automatischen Führen eines Fahrzeugs, insbesondere eines Kraftfahrzeugs, verwendet zu werden, bereitgestellt. Dabei wird ein Sensordatensatz, der eine Umgebung des Fahrzeugs darstellt, mittels eines aktiven optischen Sensorsystems des Fahrzeugs erzeugt und eine Sensorpunktwolke wird mittels wenigstens einer Recheneinheit des Fahrzeugs abhängig von dem Sensordatensatz erzeugt. Die gefilterte Punktwolke wird mittels der wenigstens einen Recheneinheit als Teilmenge der Sensorpunktwolke abhängig von einer vorbestimmten Referenzpunktwolke erzeugt, die eine Vielzahl von Referenzpunkten enthält. Die Sensorpunktwolke enthält eine Vielzahl von Punkten und für jeden der Punkte der Sensorpunktwolke wird der jeweilige Punkt der Sensorpunktwolke nur dann zu der gefilterten Punktwolke mittels der wenigstens einen Recheneinheit hinzugefügt, wenn ein räumlicher Bereich, der einer vordefinierten Umgebung des jeweiligen Punkts der Sensorpunktwolke entspricht, von Referenzpunkten frei ist, insbesondere genau dann, wenn der räumliche Bereich von Referenzpunkten der Referenzpunktwolke frei ist.According to one aspect of the invention, a method for guiding a filtered point cloud that is suitable for being used for at least partially automatically guiding a vehicle, in particular a motor vehicle, is provided. In this case, a sensor data record that represents the surroundings of the vehicle is generated using an active optical sensor system in the vehicle, and a sensor point cloud is generated using at least one computing unit in the vehicle as a function of the sensor data record. The filtered point cloud is generated by the at least one computing unit as a subset of the sensor point cloud depending on a predetermined reference point cloud that contains a large number of reference points. The sensor point cloud contains a large number of points, and for each of the points in the sensor point cloud, the respective point in the sensor point cloud is only added to the filtered point cloud using the at least one computing unit if a spatial area that corresponds to a predefined environment of the respective point in the sensor point cloud is Reference points is free, especially when the spatial area of reference points of the reference point cloud is free.

Hier und im Folgenden kann „Licht“ derart verstanden werden, dass es elektromagnetische Wellen im sichtbaren Bereich, im Infrarotbereich und/oder im Ultraviolettbereich umfasst. Folglich kann der Ausdruck „optisch“ so verstanden werden, dass er auf Licht gemäß dieser Bedeutung bezogen ist.Here and in the following, "light" can be understood in such a way that it includes electromagnetic waves in the visible range, in the infrared range and/or in the ultraviolet range. Consequently, the term "optical" can be understood to refer to light as defined.

Definitionsgemäß weist ein aktives optisches Sensorsystem eine Lichtquelle zum Emittieren von Licht beziehungsweise Lichtimpulsen auf. Die Lichtquelle kann beispielsweise als Laser, insbesondere als Infrarotlaser, implementiert sein. Ferner weist ein aktives optisches Sensorsystem definitionsgemäß wenigstens einen optischen Detektor auf, um reflektierte Teile des emittierten Lichts zu detektieren. Insbesondere ist das aktive optische Sensorsystem dazu eingerichtet, ein oder mehrere Sensorsignale, die den Sensordatensatz darstellen, basierend auf den detektierten Anteilen des Lichts zu erzeugen und die Sensorsignale zu verarbeiten und/oder auszugeben.By definition, an active optical sensor system has a light source for emitting light or light pulses. The light source can be implemented, for example, as a laser, in particular as an infrared laser. Furthermore, according to definition, an active optical sensor system has at least one optical detector in order to detect reflected parts of the emitted light. In particular, the active optical sensor system is set up to generate one or more sensor signals, which represent the sensor data set, based on the detected components of the light, and to process and/or output the sensor signals.

Das aktive optische Sensorsystem kann beispielsweise als Lidarsystem implementiert sein. Ein bekannte Gestaltung von Lidarsystemen sind sogenannte Laserscanner, bei denen ein Laserstrahl mittels einer Ablenkeinheit abgelenkt wird, so dass verschiedene Ablenkwinkel des Laserstrahls realisiert werden können. Die Ablenkeinheit kann beispielsweise einen drehbar montierten Spiegel enthalten. Alternativ kann die Ablenkeinheit ein Spiegelelement mit einer neigbaren und/oder schwenkbaren Oberfläche enthalten. Das Spiegelelement kann beispielsweise als mikroelektromechanisches System, MEMS, ausgestaltet sein. In der Umgebung können die emittierten Laserstrahlen teilweise reflektiert werden und die reflektierten Anteile können wiederum auf den Laserscanner, insbesondere die Ablenkeinheit, auftreffen, die sie zu einer Detektoreinheit des Laserscanners leiten kann, die den wenigstens einen optischen Detektor aufweist. Insbesondere erzeugt jeder optische Detektor der Detektoreinheit ein zugehöriges Detektorsignal auf der Basis der durch den jeweiligen optischen Detektor detektierten Anteile. Auf der Basis der räumlichen Anordnung des jeweiligen optischen Detektors zusammen mit der aktuellen Position der Ablenkeinheit, insbesondere ihrer Drehposition und/oder ihrer Neigungs- und/oder Schwenkposition, ist es somit möglich, auf die Einfallsrichtung der detektierten reflektierten Komponenten des Lichts zu schließen. Eine Verarbeitungseinheit oder eine Auswertungseinheit des Laserscanners kann beispielsweise eine Laufzeitmessung durchführen, um einen radialen Abstand des reflektierenden Objekts zu bestimmen. Alternativ oder zusätzlich kann ein Verfahren, gemäß dem eine Phasendifferenz zwischen dem emittierten und detektierten Licht ausgewertet wird, verwendet werden, um den Abstand zu bestimmen.The active optical sensor system can be implemented as a lidar system, for example. A known design of lidar systems are so-called laser scanners, in which a laser beam is deflected by means of a deflection unit, so that different deflection angles of the laser beam can be realized. The deflection unit can, for example wise contain a rotatably mounted mirror. Alternatively, the deflection unit may include a mirror element with a tiltable and/or pivotable surface. The mirror element can be configured as a microelectromechanical system, MEMS, for example. The emitted laser beams can be partially reflected in the surroundings and the reflected portions can in turn impinge on the laser scanner, in particular the deflection unit, which can direct them to a detector unit of the laser scanner that has the at least one optical detector. In particular, each optical detector of the detector unit generates an associated detector signal on the basis of the components detected by the respective optical detector. On the basis of the spatial arrangement of the respective optical detector together with the current position of the deflection unit, in particular its rotational position and/or its tilting and/or pivoting position, it is thus possible to infer the direction of incidence of the detected reflected components of the light. A processing unit or an evaluation unit of the laser scanner can, for example, carry out a transit time measurement in order to determine a radial distance of the reflecting object. Alternatively or additionally, a method according to which a phase difference between the emitted and detected light is evaluated can be used to determine the distance.

Eine Punktwolke kann als Satz von Punkten verstanden werden, wobei jeder Punkt durch jeweilige Koordinaten in einem zweidimensionalen oder dreidimensionalen Koordinatensystem charakterisiert ist. Im Fall einer dreidimensionalen Punktwolke können die dreidimensionalen Koordinaten beispielsweise durch die Einfallsrichtung der reflektierten Komponenten von Licht und die entsprechende Laufzeit oder den radialen Abstand, der für diesen jeweiligen Punkt gemessen wird, bestimmt sein. Mit anderen Worten, das dreidimensionale Koordinatensystem kann ein dreidimensionales Polarkoordinatensystem sein. Die Informationen können jedoch auch vorverarbeitet werden, um dreidimensionale kartesische Koordinaten für jeden der Punkte bereitzustellen. Im Allgemeinen sind die Punkte einer Punktwolke, im Gegensatz zu beispielsweise einem Kamerabild, in einer ungeordneten oder unsortierten Weise gegeben. Zusätzlich zu den räumlichen Informationen, nämlich den zweidimensionalen oder dreidimensionalen Koordinaten, kann die Punktwolke auch zusätzliche Informationen oder Messwerte für die individuellen Punkte, wie zum Beispiel eine Echoimpulsweite, EPW, des jeweiligen Sensorsignals, speichern.A point cloud can be thought of as a set of points, each point characterized by respective coordinates in a two-dimensional or three-dimensional coordinate system. For example, in the case of a three-dimensional point cloud, the three-dimensional coordinates may be determined by the direction of incidence of the reflected components of light and the corresponding transit time or radial distance measured for that particular point. In other words, the three-dimensional coordinate system can be a three-dimensional polar coordinate system. However, the information can also be pre-processed to provide three-dimensional Cartesian coordinates for each of the points. In general, the points of a point cloud are given in a disordered or unsorted way, as opposed to, for example, a camera image. In addition to the spatial information, namely the two-dimensional or three-dimensional coordinates, the point cloud can also store additional information or measured values for the individual points, such as an echo pulse width, EPW, of the respective sensor signal.

Eine Recheneinheit kann insbesondere als Datenverarbeitungsvorrichtung verstanden werden. Daher kann die Recheneinheit insbesondere Daten verarbeiten, um Rechenoperationen durchzuführen. Dies kann auch Operationen beinhalten, um indizierte Zugriffe auf eine Datenstruktur, beispielsweise eine Nachschlagetabelle, LUT, durchzuführen.A computing unit can be understood in particular as a data processing device. The arithmetic unit can therefore process data in particular in order to carry out arithmetic operations. This can also include operations to perform indexed accesses to a data structure such as a lookup table, LUT.

Insbesondere kann die Recheneinheit einen Computer, einen Mikrocontroller oder einen integrierten Schaltkreis, beispielsweise einen anwendungsspezifischen integrierten Schaltkreis, ASIC, ein anwenderprogrammierbares Verknüpfungsfeld, FPGA, ein System auf einem Chip, SoC, und/oder ein elektronisches Steuergerät, ECU, enthalten. Die Recheneinheit kann auch einen Prozessor, beispielsweise einen Mikroprozessor, eine Zentraleinheit, CPU, eine Graphikverarbeitungseinheit, GPU, und/oder einen Signalprozessor, insbesondere einen Digitalsignalprozessor, DSP, enthalten. Die Recheneinheit kann auch einen physikalischen oder einen virtuellen Cluster von Computern oder anderen der Einheiten enthalten. In diesem Fall kann die Recheneinheit auch beispielsweise als Rechensystem bezeichnet werden.In particular, the processing unit can contain a computer, a microcontroller or an integrated circuit, for example an application-specific integrated circuit, ASIC, a user-programmable logic array, FPGA, a system on a chip, SoC, and/or an electronic control unit, ECU. The processing unit can also contain a processor, for example a microprocessor, a central processing unit, CPU, a graphics processing unit, GPU, and/or a signal processor, in particular a digital signal processor, DSP. The processing unit can also contain a physical or a virtual cluster of computers or other of the units. In this case, the computing unit can also be referred to as a computing system, for example.

In verschiedenen Ausführungsformen enthält die Recheneinheit eine oder mehrere Hardware- und/oder Software-Schnittstellen und/oder eine oder mehrere Speichereinheiten. Eine Speichereinheit kann als flüchtiger Datenspeicher, beispielsweise dynamischer Direktzugriffsspeicher, DRAM, statischer Direktzugriffsspeicher, SRAM, oder als nichtflüchtiger Datenspeicher, beispielsweise Festwertspeicher, ROM, programmierbarer Festwertspeicher, PROM, löschbarer Festwertspeicher, EPROM, elektrisch löschbarer Festwertspeicher, EEPROM, Flash-Speicher oder Flash-EEPROM, ferroelektrischer Direktzugriffsspeicher, FRAM, magnetoresistiver Direktzugriffsspeicher, MRAM, oder Phasenänderungsdirektzugriffsspeicher, PCRAM, implementiert werden.In various embodiments, the computing unit contains one or more hardware and/or software interfaces and/or one or more memory units. A memory device may be volatile data storage, such as dynamic random access memory, DRAM, static random access memory, SRAM, or non-volatile data storage, such as read only memory, ROM, programmable read only memory, PROM, erasable read only memory, EPROM, electrically erasable read only memory, EEPROM, flash memory, or flash EEPROM, ferroelectric random access memory, FRAM, magnetoresistive random access memory, MRAM, or phase change random access memory, PCRAM.

Die wenigstens eine Recheneinheit kann beispielsweise eine Vorverarbeitungs- oder Auswertungseinheit des aktiven optischen Sensorsystems und/oder eine oder mehrere Recheneinheiten des Fahrzeugs enthalten, die separat zum aktiven optischen Sensorsystem angeordnet sind. Insbesondere kann die Sensorpunktwolke auf der Basis des Sensordatensatzes teilweise oder vollständig mittels der Vorverarbeitungs- oder Auswertungseinheit des aktiven optischen Sensorsystems erzeugt werden. Die Sensorpunktwolke kann jedoch auch teilweise oder vollständig mittels der einen oder der mehreren Recheneinheiten außerhalb des aktiven optischen Sensorsystems erzeugt werden.The at least one computing unit can contain, for example, a preprocessing or evaluation unit of the active optical sensor system and/or one or more computing units of the vehicle, which are arranged separately from the active optical sensor system. In particular, the sensor point cloud can be partially or completely generated on the basis of the sensor data set by means of the pre-processing or evaluation unit of the active optical sensor system. However, the sensor point cloud can also be generated partially or completely by means of the one or more computing units outside of the active optical sensor system.

Die Referenzpunktwolke ist insbesondere auf einer Speichereinheit des Fahrzeugs oder einer Speichereinheit der wenigstens einen Recheneinheit gespeichert und stellt auch die Umgebung des Fahrzeugs dar. Im Allgemeinen wird die Referenzpunktwolke vor dem Verfahren gemäß der Erfindung bestimmt und auf der Speichereinheit gespeichert, so dass sie als Karte, insbesondere hochauflösende Karte, betrachtet werden kann, die statisch ist und die Umgebung zu einem vorherigen Zeitpunkt darstellt. In einigen Implementierungen können jedoch auch das Bestimmen und Speichern der Referenzpunktwolke auf dem Speicher als Teil des Verfahrens gemäß der Erfindung betrachtet werden.The cloud of reference points is stored in particular on a storage unit of the vehicle or a storage unit of the at least one computing unit and also represents the surroundings of the vehicle. In general, the reference point cloud determined before the method according to the invention and stored on the storage unit so that it can be viewed as a map, in particular a high-resolution map, which is static and represents the environment at a previous point in time. However, in some implementations the determination and storage of the reference point cloud on the memory can also be considered as part of the method according to the invention.

Die Referenzpunktwolke kann einen größeren räumlichen Bereich in der Umgebung abdecken als die Sensorpunktwolke. Die Referenzpunktwolke kann mittels eines oder mehrerer weiterer aktiver optischer Sensorsysteme oder Laserscanner und so weiter bestimmt werden, die an einem oder mehreren weiteren Fahrzeugen montiert sind.The reference point cloud can cover a larger spatial area in the environment than the sensor point cloud. The reference point cloud can be determined by means of one or more other active optical sensor systems or laser scanners and so on, which are mounted on one or more other vehicles.

Da jeder Punkt der Sensorpunktwolke sowie jeder Referenzpunkt der Referenzpunktwolke einer wohldefinierten Position in der realen Umgebung entspricht, können die Sensorpunktwolke und die Referenzpunktwolke oder, mit anderen Worten, ihre jeweiligen Positionen miteinander verglichen werden und ein Abstand zwischen individuellen Punkten der Sensorpunktwolke und individuellen Punkten der Referenzpunktwolke kann bestimmt werden. In dieser Weise kann die wenigstens eine Recheneinheit für jeden der Punkte der Sensorpunktwolke analysieren, ob der räumliche Bereich in der realen Welt, der der Umgebung des jeweiligen Punkts entspricht, irgendeinen der Referenzpunkte der Referenzpunktwolke enthält. Dies kann durch Analysieren des jeweiligen räumlichen Bereichs für jeden der betrachteten Punkte der Sensorpunktwolke durchgeführt werden. Alternativ können jeweilige Umgebungen der Referenzpunkte der Referenzpunktwolke bezüglich Punkten der Sensorpunktwolke analysiert werden. Auf beide Weisen kann sichergestellt werden, dass nur solche Punkte der Sensorpunktwolke zur gefilterten Punktwolke hinzugefügt werden, die einen räumlichen Bereich aufweisen, der von Referenzpunkten frei ist. Mit anderen Worten, Punkte der Sensorpunktwolke, die näher an irgendeinem Referenzpunkt der Referenzpunktwolke liegen, werden nicht zur gefilterten Punktwolke hinzugefügt. Mit noch anderen Worten, der jeweilige Punkt der Sensorpunktwolke wird zum Erzeugen der gefilterten Punktwolke verworfen.Since each point of the sensor point cloud as well as each reference point of the reference point cloud corresponds to a well-defined position in the real environment, the sensor point cloud and the reference point cloud or, in other words, their respective positions can be compared with each other and a distance between individual points of the sensor point cloud and individual points of the reference point cloud can be determined. In this way, the at least one computing unit can analyze for each of the points in the sensor point cloud whether the spatial area in the real world that corresponds to the area surrounding the respective point contains any of the reference points in the reference point cloud. This can be done by analyzing the respective spatial area for each of the considered points of the sensor point cloud. Alternatively, respective surroundings of the reference points of the reference point cloud can be analyzed with respect to points of the sensor point cloud. In both ways it can be ensured that only those points of the sensor point cloud are added to the filtered point cloud that have a spatial area that is free of reference points. In other words, points of the sensor point cloud that are closer to any reference point of the reference point cloud are not added to the filtered point cloud. In other words, the respective point of the sensor point cloud is discarded to generate the filtered point cloud.

In dieser Weise wird die Anzahl von Punkten der gefilterten Punktwolke im Vergleich zur Anzahl von Punkten der Sensorpunktwolke signifikant verringert. Trotzdem ist der Verlust an Informationen durch das Filtern akzeptabel, da die Referenzpunktwolke die jeweiligen Referenzpunkte im räumlichen Bereich um den verworfenen Punkt der Sensorpunktwolke enthält. Da Messungen mittels aktiver optischer Sensorsysteme im Allgemeinen nicht absolut exakt sind, ist es erforderlich, eine bestimmte Umgebung der Punkte der Sensorpunktwolke zum Analysieren bezüglich Referenzpunkten zu definieren. Die Umgebung kann beispielsweise durch einen jeweiligen Schwellenabstand definiert sein.In this way, the number of points in the filtered point cloud is significantly reduced compared to the number of points in the sensor point cloud. Nevertheless, the loss of information due to filtering is acceptable, since the reference point cloud contains the respective reference points in the spatial area around the rejected point of the sensor point cloud. Since measurements using active optical sensor systems are generally not absolutely exact, it is necessary to define a specific environment of the points of the sensor point cloud for analysis with regard to reference points. The environment can be defined, for example, by a respective threshold distance.

Die Sensorpunktwolke, die auch als Live-Punktwolke oder Online-Punktwolke eines jeweiligen Einzelbildes während des Betriebs des Fahrzeugs betrachtet werden kann, enthält Punkte, die Objekten entsprechen, die bereits zu der Zeit in der Umgebung vorhanden waren, zu der die Referenzpunktwolke erstellt wurde. Diese Punkte entsprechen beispielsweise einer Infrastruktur der Umgebung, Straßenteilen oder anderen Objekten, die im Folgenden als statische Objekte bezeichnet werden können. Außerdem enthält die Sensorpunktwolke Punkte, die Objekten entsprechen, die in der Umgebung zu der Zeit nicht vorhanden waren, zu der die Referenzpunktwolke erstellt wurde. Diese Objekte können beispielsweise andere Straßenbenutzer wie zum Beispiel weitere Fahrzeuge, Fußgänger und so weiter oder Änderungen der Infrastruktur beinhalten.The sensor point cloud, which can also be viewed as a live point cloud or online point cloud of a respective frame during operation of the vehicle, contains points corresponding to objects that were already present in the environment at the time the reference point cloud was created. These points correspond, for example, to an infrastructure in the area, parts of a road or other objects which can be referred to below as static objects. In addition, the sensor point cloud contains points that correspond to objects that were not present in the environment at the time the reference point cloud was created. These objects may include, for example, other road users such as additional vehicles, pedestrians, etc., or infrastructure changes.

Durch Erzeugen der gefilterten Punktwolke in der beschriebenen Weise wird erreicht, dass für jedes Einzelbild die Punkte, die statischen Objekten entsprechen, aus der Sensorpunktwolke entfernt werden können, was die Menge an zu verarbeitenden und zu speichernden Punkten signifikant verringert und daher die erforderliche Rechenzeit und den erforderlichen Speicher signifikant verringert. Daher ermöglicht die anschließende Verarbeitung der gefilterten Punktwolke anstelle der Sensorpunktwolke, in einigen Implementierungen zusammen mit der Referenzpunktwolke, eine zuverlässige und robuste Wahrnehmung der Umgebung bei verringerten Rechenanforderungen.By generating the filtered point cloud in the manner described, it is achieved that for each frame the points corresponding to static objects can be removed from the sensor point cloud, which significantly reduces the amount of points to be processed and stored and therefore the required computing time and the required memory is significantly reduced. Therefore, the subsequent processing of the filtered point cloud instead of the sensor point cloud, in some implementations together with the reference point cloud, enables a reliable and robust perception of the environment with reduced computational requirements.

Die gefilterte Punktwolke kann dann, insbesondere mittels eines elektronischen Fahrzeugführungssystems des Fahrzeugs, als Eingabe zum wenigstens teilweise automatischen Führen des Fahrzeugs verwendet werden. Die wenigstens eine Recheneinheit kann beispielsweise die gefilterte Punktwolke als Eingabe für einen automatischen Wahrnehmungsalgorithmus, beispielsweise einen Algorithmus zur Computer-Vision oder einen anderen Wahrnehmungsalgorithmus, verwenden.The filtered point cloud can then be used, in particular by means of an electronic vehicle guidance system of the vehicle, as an input for at least partially automatically guiding the vehicle. The at least one computing unit can, for example, use the filtered point cloud as input for an automatic perception algorithm, for example a computer vision algorithm or another perception algorithm.

Algorithmen zur visuellen Wahrnehmung, die auch als Algorithmen für die automatische visuelle Wahrnehmung, Algorithmen zur Computer-Vision oder Algorithmen zum maschinellen Sehen bezeichnet werden, können als Computeralgorithmen zum automatischen Durchführen einer visuellen Wahrnehmungsaufgabe betrachtet werden. Eine visuelle Wahrnehmungsaufgabe kann beispielsweise als Aufgabe zum Extrahieren von Informationen aus Bilddaten verstanden werden. Insbesondere kann die visuelle Wahrnehmungsaufgabe im Prinzip durch einen Menschen durchgeführt werden, der ein Bild, das Bilddaten entspricht, visuell wahrnehmen kann. Mittels eines Algorithmus zur visuellen Wahrnehmung wird jedoch die visuelle Wahrnehmungsaufgabe automatisch durchgeführt, ohne die Unterstützung eines Menschen zu erfordern. Ein Algorithmus zur visuellen Wahrnehmung kann beispielsweise als Bildverarbeitungsalgorithmus oder Algorithmus für die Bildanalyse verstanden werden, der beispielsweise unter Verwendung von Maschinenlernen trainiert sein kann und insbesondere auf einem künstlichen neuronalen Netzwerk, beispielsweise einem faltenden neuronalen Netzwerk, basieren kann. Beispiele von Algorithmen zur visuellen Wahrnehmung beinhalten Objekterkennungsalgorithmen, Objektverfolgungsalgorithmen, Klassifizierungsalgorithmen, insbesondere Bildklassifizierungsalgorithmen, und/oder Segmentierungsalgorithmen, insbesondere Algorithmen zur semantischen Segmentierung.Visual perception algorithms, also referred to as automatic visual perception algorithms, computer vision algorithms, or computer vision algorithms, can be viewed as computer algorithms for automatically performing a visual perception task. For example, a visual perception task can be understood as a task for extracting information from image data. In particular, the visual perception task can in principle be performed by a human who can visually perceive an image corresponding to image data. However, using a visual perception algorithm, the visual perception task is performed automatically without requiring human assistance. An algorithm for visual perception can be understood, for example, as an image processing algorithm or algorithm for image analysis, which can be trained using machine learning, for example, and can be based in particular on an artificial neural network, for example a convolutional neural network. Examples of visual perception algorithms include object recognition algorithms, object tracking algorithms, classification algorithms, particularly image classification algorithms, and/or segmentation algorithms, particularly semantic segmentation algorithms.

Entsprechende Algorithmen können analog auf der Basis von anderen Eingangsdaten als Bildern, die durch einen Menschen visuell wahrnehmbar sind, durchgeführt werden. Punktwolken oder Bilder von Infrarotkameras und so weiter können beispielsweise auch mittels entsprechend angepasster Computeralgorithmen analysiert werden. Streng genommen sind jedoch die entsprechenden Algorithmen keine Algorithmen zur visuellen Wahrnehmung, da die entsprechenden Sensoren in Bereichen, die für das menschliche Auge nicht wahrnehmbar sind, wie zum Beispiel dem Infrarotbereich, arbeiten können. Daher werden hier und im Folgenden solche Algorithmen als Wahrnehmungs- oder automatische Wahrnehmungsalgorithmen bezeichnet. Wahrnehmungsalgorithmen umfassen daher Algorithmen zur visuellen Wahrnehmung, sind jedoch in Bezug auf eine menschliche Wahrnehmung nicht auf diese eingeschränkt. Folglich kann ein Wahrnehmungsalgorithmus gemäß diesem Verständnis als Computeralgorithmus zum automatischen Durchführen einer Wahrnehmungsaufgabe betrachtet werden, beispielsweise unter Verwendung eines Algorithmus für die Sensordatenanalyse oder Verarbeitung von Sensordaten, der beispielsweise unter Verwendung von Maschinenlernen sein werden kann und beispielsweise auf einem künstlichen neuronalen Netzwerk basieren kann. Die verallgemeinerten Wahrnehmungsalgorithmen können auch Objekterkennungsalgorithmen, Objektverfolgungsalgorithmen, Klassifizierungsalgorithmen und/oder Segmentierungsalgorithmen, wie zum Beispiel Algorithmen zur semantischen Segmentierung, beinhalten.Corresponding algorithms can be implemented analogously on the basis of input data other than images that can be visually perceived by a human being. Point clouds or images from infrared cameras and so on, for example, can also be analyzed using appropriately adapted computer algorithms. Strictly speaking, however, the corresponding algorithms are not algorithms for visual perception, since the corresponding sensors can work in areas that are imperceptible to the human eye, such as the infrared range. Therefore, here and in the following such algorithms are referred to as perception or automatic perception algorithms. Perception algorithms therefore include, but are not limited to, visual perception algorithms with respect to human perception. Consequently, a perception algorithm according to this understanding can be regarded as a computer algorithm for automatically performing a perception task, for example using an algorithm for sensor data analysis or processing of sensor data, which can be, for example, using machine learning and can be based, for example, on an artificial neural network. The generalized perception algorithms may also include object recognition algorithms, object tracking algorithms, classification algorithms, and/or segmentation algorithms, such as semantic segmentation algorithms.

Falls ein künstliches neuronales Netzwerk verwendet wird, um einen Algorithmus zur visuellen Wahrnehmung zu implementieren, ist eine üblicherweise verwendete Architektur ein faltendes neuronales Netzwerk, CNN. Insbesondere kann ein 2D-CNN auf jeweilige 2D-Kamerabilder angewendet werden. Für andere Wahrnehmungsalgorithmen können auch CNNs verwendet werden. 3D-CNNs, 2D-CNNs oder 1 D-CNNs können beispielsweise auf Punktwolken abhängig von den räumlichen Dimensionen der Punktwolke und den Details der Verarbeitung angewendet werden.If an artificial neural network is used to implement a visual perception algorithm, a commonly used architecture is a convolutional neural network, CNN. In particular, a 2D CNN can be applied to respective 2D camera images. CNNs can also be used for other perception algorithms. For example, 3D-CNNs, 2D-CNNs or 1D-CNNs can be applied to point clouds depending on the spatial dimensions of the point cloud and the details of the processing.

Die Ausgabe eines Wahrnehmungsalgorithmus hängt von der speziellen zugrundliegenden Wahrnehmungsaufgabe ab. Eine Ausgabe eines Objekterkennungsalgorithmus kann beispielsweise eine oder mehrere Begrenzungsboxen enthalten, die einen räumlichen Ort und wahlweise eine Orientierung von einem oder mehreren jeweiligen Objekten in der Umgebung und/oder entsprechende Objektklassen für das eine oder die mehreren Objekte definieren. Ein Algorithmus zur semantischen Segmentierung, der auf ein Kamerabild angewendet wird, kann für jedes Pixel des Kamerabildes eine Klasse auf Pixelebene enthalten. Analog kann ein Algorithmus zur semantischen Segmentierung, der auf eine Punktwolke angewendet wird, eine entsprechende Klasse auf Punktebene für jeden der Punkte enthalten. Die Klassen auf Pixelebene oder Punktebene können beispielsweise einen Typ von Objekt definieren, zu dem das jeweilige Pixel oder der jeweilige Punkt gehört.The output of a perceptual algorithm depends on the specific underlying perceptual task. For example, an output of an object detection algorithm may include one or more bounding boxes that define a spatial location and optionally an orientation of one or more respective objects in the environment and/or corresponding object classes for the one or more objects. A semantic segmentation algorithm applied to a camera image may contain a pixel-level class for each pixel of the camera image. Similarly, a semantic segmentation algorithm applied to a point cloud may contain a corresponding point-level class for each of the points. For example, the pixel-level or point-level classes may define a type of object to which each pixel or point belongs.

Gemäß mehreren Implementierungen des Verfahrens zum Erzeugen einer gefilterten Punktwolke wird mittels der wenigstens einen Recheneinheit für jeden der Vielzahl von Punkten der Sensorpunktwolke der räumliche Bereich, der der vordefinierten Umgebung des jeweiligen Punkts der Sensorpunktwolke entspricht, identifiziert und es wird bestimmt, ob der räumliche Bereich von Referenzpunkten frei ist.According to several implementations of the method for generating a filtered point cloud, the at least one computing unit is used to identify the spatial area for each of the plurality of points in the sensor point cloud that corresponds to the predefined environment of the respective point in the sensor point cloud, and it is determined whether the spatial area of reference points is free.

Gemäß mehreren Implementierungen wird der räumliche Bereich als sphärischer Bereich identifiziert, der einen vordefinierten Radius aufweist, und der jeweilige Punkt der Sensorpunktwolke entspricht einem Mittelpunkt dieses sphärischen Bereichs. According to several implementations, the spatial region is identified as a spherical region having a predefined radius, and the respective point of the sensor point cloud corresponds to a center of this spherical region.

Mit anderen Worten, nur solche Punkte der Sensorpunktwolke werden zur gefilterten Punktwolke hinzugefügt, die einen Abstand zu allen Referenzpunkten aufweisen, der größer ist als der Radius des sphärischen Bereichs.In other words, only those points of the sensor point cloud are added to the filtered point cloud that have a distance to all reference points that is greater than the radius of the spherical region.

Gemäß mehreren Implementierungen wird mittels der wenigstens einen Recheneinheit für alle Referenzpunkte der Referenzpunktwolke ein weiterer räumlicher Bereich, der einer vordefinierten weiteren Umgebung des jeweiligen Referenzpunkts der Referenzpunktwolke entspricht, identifiziert und es wird bestimmt, ob der weitere räumliche Bereich von Punkten der Sensorpunktwolke frei ist.According to several implementations, a further spatial area, which corresponds to a predefined further environment of the respective reference point of the reference point cloud, is identified by means of the at least one computing unit for all reference points of the reference point cloud, and it is determined whether the further spatial area of points of the sensor point cloud is free.

Gemäß einem weiteren Aspekt der Erfindung wird ein Verfahren zum wenigstens teilweise automatischen Führen eines Fahrzeugs bereitgestellt. Dabei wird eine gefilterte Punktwolke durch Ausführen eines Verfahrens zum Erzeugen einer gefilterten Punktwolke gemäß der Erfindung erzeugt. Wenigstens ein Steuersignal zum wenigstens teilweise automatischen Führen des Fahrzeugs wird abhängig von der gefilterten Punktwolke, insbesondere mittels einer Steuereinheit des Fahrzeugs, beispielsweise der wenigstens einen Recheneinheit, erzeugt. Insbesondere wird das Fahrzeug abhängig von dem wenigstens einen Steuersignal wenigstens teilweise automatisch geführt.According to a further aspect of the invention, a method for at least partially automatically driving a vehicle is provided. Thereby, a filtered point cloud is generated by performing a method for generating a filtered point cloud according to the invention. At least one control signal for at least partially automatically guiding the vehicle is generated as a function of the filtered point cloud, in particular by means of a control unit of the vehicle, for example the at least one computing unit. In particular, the vehicle is guided at least partially automatically as a function of the at least one control signal.

Das Fahrzeug kann beispielsweise ein elektronisches Fahrzeugführungssystem aufweisen, das die wenigstens eine Recheneinheit, das aktive optische Sensorsystem und die Steuereinheit aufweist, und das Verfahren zum wenigstens teilweise automatischen Führen eines Fahrzeugs wird mittels des elektronischen Fahrzeugführungssystems ausgeführt.The vehicle can have an electronic vehicle guidance system, for example, which has the at least one computing unit, the active optical sensor system and the control unit, and the method for at least partially automatically driving a vehicle is carried out using the electronic vehicle guidance system.

Ein elektronisches Fahrzeugführungssystem kann als elektronisches System verstanden werden, das dazu eingerichtet ist, ein Fahrzeug in einer vollständig automatisierten oder einer vollständig autonomen Weise und insbesondere, ohne dass ein manueller Eingriff oder eine Steuerung durch einen Fahrer oder Benutzer des Fahrzeugs erforderlich ist, zu führen. Das Fahrzeug führt alle erforderlichen Funktionen wie zum Beispiel Lenkmanöver, Verzögerungsmanöver und/oder Beschleunigungsmanöver sowie die Überwachung und Aufzeichnung des Straßenverkehrs und entsprechende Reaktionen automatisch aus. Insbesondere kann das elektronische Fahrzeugführungssystem einen vollständig automatischen oder vollständig autonomen Fahrmodus gemäß der Stufe 5 der Klassifikation SAE J3016 implementieren. Ein elektronisches Fahrzeugführungssystem kann auch als Fahrerassistenzsystem, ADAS, implementiert sein, das einen Fahrer zum teilweise automatischen oder teilweise autonomen Fahren unterstützt. Insbesondere kann das elektronische Fahrzeugführungssystem einen teilweise automatischen oder teilweise autonomen Fahrmodus gemäß den Stufen 1 bis 4 der Klassifikation SAE J3016 implementieren. Hier und im Folgenden bezieht sich SAE J3016 auf den jeweiligen Standard mit Datum vom Juni 2018.An electronic vehicle guidance system can be understood as an electronic system configured to guide a vehicle in a fully automated or in a fully autonomous manner and in particular without requiring manual intervention or control by a driver or user of the vehicle. The vehicle automatically carries out all necessary functions such as steering manoeuvres, deceleration maneuvers and/or acceleration manoeuvres, as well as monitoring and recording road traffic and corresponding reactions. In particular, the electronic vehicle guidance system can implement a fully automatic or fully autonomous driving mode according to level 5 of the SAE J3016 classification. An electronic vehicle guidance system can also be implemented as a driver assistance system, ADAS, which supports a driver for partially automatic or partially autonomous driving. In particular, the electronic vehicle guidance system can implement a partially automatic or partially autonomous driving mode according to levels 1 to 4 of the SAE J3016 classification. Here and in the following, SAE J3016 refers to the respective standard dated June 2018.

Das wenigstens teilweise automatische Führen des Fahrzeugs kann daher das Führen des Fahrzeugs gemäß einem vollständig automatischen oder vollständig autonomen Fahrmodus gemäß der Stufe 5 der Klassifikation SAE J3016 beinhalten. Das wenigstens teilweise automatische Führen des Fahrzeugs kann auch das Führen des Fahrzeugs gemäß einem teilweise automatischen oder teilweise autonomen Fahrmodus gemäß den Stufen 1 bis 4 der Klassifikation SAE J3016 beinhalten.Thus, at least partially automatically driving the vehicle may include driving the vehicle in accordance with a fully automated or fully autonomous driving mode according to level 5 of the SAE J3016 classification. Driving the vehicle at least partially automatically may also include driving the vehicle in accordance with a partially automated or partially autonomous driving mode according to levels 1 through 4 of the SAE J3016 classification.

Das wenigstens eine Steuersignal kann einem oder mehreren Aktuatoren des Fahrzeugs bereitgestellt werden, um entsprechend das automatische oder teilweise automatische Steuern des Fahrzeugs umzusetzen.The at least one control signal can be provided to one or more actuators of the vehicle in order to correspondingly implement the automatic or partially automatic control of the vehicle.

Gemäß mehreren Implementierungen des Verfahrens zum wenigstens teilweise automatischen Führen eines Fahrzeugs wird ein Wahrnehmungsalgorithmus mittels der wenigstens einen Recheneinheit ausgeführt, wobei die gefilterte Punktwolke als Eingabe in den Wahrnehmungsalgorithmus verwendet wird. Das wenigstens eine Steuersignal wird abhängig von einer Ausgabe des Wahrnehmungsalgorithmus erzeugt.According to several implementations of the method for at least partially automatically driving a vehicle, a perception algorithm is executed by means of the at least one computing unit, the filtered point cloud being used as input to the perception algorithm. The at least one control signal is generated depending on an output of the perception algorithm.

Es versteht sich, dass die Ausgabe des Wahrnehmungsalgorithmus, beispielsweise ein segmentiertes Bild, eine segmentierte Punktwolke, Objektverfolgungsinformationen, Begrenzungsboxen und so weiter, in weiteren Verarbeitungsschritten weiter verarbeitet oder verwendet werden kann, um einen oder mehrere Parameter oder dergleichen zum wenigstens teilweise automatischen Führen des Fahrzeugs zu bestimmen, und das wenigstens eine Steuersignal abhängig von dem einen oder den mehreren Parametern erzeugt wird.It is understood that the output of the perception algorithm, for example a segmented image, a segmented point cloud, object tracking information, bounding boxes and so on, can be further processed or used in further processing steps to determine one or more parameters or the like for at least partially automatically guiding the vehicle to determine, and the at least one control signal is generated depending on the one or more parameters.

Gemäß mehreren Implementierungen wird die Referenzpunktwolke als weitere Eingabe des Wahrnehmungsalgorithmus, insbesondere zum Erzeugen der Ausgabe des Wahrnehmungsalgorithmus, verwendet.According to several implementations, the reference point cloud is used as further input of the perception algorithm, in particular for generating the output of the perception algorithm.

Insbesondere dient die Referenzpunktwolke nicht nur als Ressource zum Filtern der Sensorpunktwolke, sondern auch als zusätzliche Quelle für Informationen insbesondere hinsichtlich der statischen Objekte in der Umgebung. Durch Berücksichtigung der Referenzpunktwolke sowie der gefilterten Punktwolke für den Wahrnehmungsalgorithmus werden eine verbesserte Funktionalität und/oder eine höhere Zuverlässigkeit der Ausgabe des Wahrnehmungsalgorithmus erreicht.In particular, the reference point cloud serves not only as a resource for filtering the sensor point cloud, but also as an additional source of information, particularly with regard to the static objects in the environment. By taking into account the reference point cloud and the filtered point cloud for the perception algorithm, improved functionality and/or greater reliability of the output from the perception algorithm is achieved.

Gemäß mehreren Implementierungen wird das wenigstens eine Steuersignal abhängig von der Ausgabe des Wahrnehmungsalgorithmus und abhängig von der Referenzpunktwolke erzeugt.According to several implementations, the at least one control signal is generated dependent on the output of the perception algorithm and dependent on the reference point cloud.

Mit anderen Worten, das wenigstens eine Steuersignal wird unter expliziter Berücksichtigung der Referenzpunktwolke erzeugt und nicht nur über ihren Einfluss auf ihre gefilterte Punktwolke.In other words, the at least one control signal is generated with explicit consideration of the reference point cloud and not just its influence on its filtered point cloud.

Gemäß mehreren Implementierungen werden ein oder mehrere Cluster von Punkten der gefilterten Punktwolke mittels der wenigstens einen Recheneinheit bestimmt und eine Begrenzungsbox und/oder eine Objektklasse wird jedem der Vielzahl von Clustern mittels der wenigstens einen Recheneinheit zugewiesen. Das wenigstens eine Steuersignal wird abhängig von den zugewiesenen Begrenzungsboxen und/oder zugewiesenen Objektklassen erzeugt.According to several implementations, one or more clusters of points of the gefil The third point cloud is determined by the at least one computing unit, and a bounding box and/or an object class is assigned to each of the plurality of clusters by the at least one computing unit. The at least one control signal is generated depending on the assigned bounding boxes and/or assigned object classes.

Dabei können das Bestimmen des einen oder der mehreren Cluster und das Zuweisen der Begrenzungsboxen und/oder Objektklassen zu jedem der Cluster als Teil des Wahrnehmungsalgorithmus betrachtet werden.As such, determining the one or more clusters and assigning the bounding boxes and/or object classes to each of the clusters can be considered part of the perception algorithm.

Insbesondere kann der Wahrnehmungsalgorithmus einen Objekterkennungsalgorithmus beinhalten, der direkt auf die gefilterte Punktwolke angewendet wird oder direkt auf die gefilterte Punktwolke und die Referenzpunktwolke angewendet wird.In particular, the perception algorithm may include an object detection algorithm applied directly to the filtered point cloud or applied directly to the filtered point cloud and the reference point cloud.

Die Begrenzungsboxen, die jedem der Cluster zugewiesen werden, können zweidimensionalen geometrischen Figuren, falls die gefilterte Punktwolke als zweidimensionale Punktwolke bereitgestellt wird, oder dreidimensionalen geometrischen Figuren, falls die gefilterte Punktwolke als dreidimensionale Punktwolke bereitgestellt wird, entsprechen. Die jeweiligen Begrenzungsboxen können beispielsweise als Rechtecke beziehungsweise Quader implementiert werden.The bounding boxes assigned to each of the clusters may correspond to two-dimensional geometric figures if the filtered point cloud is provided as a two-dimensional point cloud, or three-dimensional geometric figures if the filtered point cloud is provided as a three-dimensional point cloud. The respective bounding boxes can be implemented, for example, as rectangles or cuboids.

Die Objektklassen, die den Clustern zugewiesen werden, können den jeweiligen Typen von Objekten, die durch die entsprechenden Punkte des Clusters dargestellt werden, oder mit anderen Worten dem Typ des Objekts, das die entsprechenden Reflexionen von Licht verursacht, das mittels des aktiven optischen Sensorsystems emittiert wird, entsprechen. Die Begrenzungsboxen und/oder die Objektklassen können als Ausgabe des Wahrnehmungsalgorithmus betrachtet werden.The object classes assigned to the clusters can correspond to the respective types of objects represented by the corresponding points of the cluster, or in other words the type of object causing the corresponding reflections of light emitted by means of the active optical sensor system will, correspond. The bounding boxes and/or the object classes can be viewed as the output of the perception algorithm.

Gemäß mehreren Implementierungen wird ein Kamerabild, das die Umgebung des Fahrzeugs darstellt, mittels eines Kamerasystems des Fahrzeugs erzeugt. Ein oder mehrere Cluster von Punkten der gefilterten Punktwolke werden mittels der wenigstens einen Recheneinheit bestimmt und ein Bereich von Interesse des Kamerabildes wird mittels der wenigstens einen Recheneinheit abhängig von dem einen oder den mehreren bestimmten Clustern bestimmt. Ein Objekterkennungsalgorithmus wird mittels der wenigstens einen Recheneinheit auf den Bereich von Interesse angewendet. Das wenigstens eine Steuersignal wird abhängig von einer Ausgabe des Objekterkennungsalgorithmus erzeugt.According to several implementations, a camera image representing the surroundings of the vehicle is generated using a camera system of the vehicle. One or more clusters of points of the filtered point cloud are determined using the at least one computing unit and a region of interest of the camera image is determined using the at least one computing unit depending on the one or more clusters determined. An object recognition algorithm is applied to the area of interest by the at least one computing unit. The at least one control signal is generated depending on an output of the object detection algorithm.

Mit anderen Worten, der Objekterkennungsalgorithmus wird auf das Kamerabild angewendet, wobei der Objekterkennungsalgorithmus auf den Bereich von Interesse eingeschränkt wird. Es versteht sich, dass der Bereich von Interesse einen oder mehrere Bereiche des Kamerabildes enthalten kann, die miteinander verbunden sein können oder nicht. In dieser Weise werden der Rechenaufwand, die Rechenzeit und die Speicheranforderungen zum Ausführen des Objekterkennungsalgorithmus verringert.In other words, the object detection algorithm is applied to the camera image, restricting the object detection algorithm to the area of interest. It is understood that the area of interest may include one or more areas of the camera image, which may or may not be connected to each other. In this way, the computational effort, computation time, and memory requirements for executing the object detection algorithm are reduced.

Auch hier kann die Ausgabe des Objekterkennungsalgorithmus jeweilige Begrenzungsboxen und/oder Objektklassen für jedes der Objekte beinhalten, die im Bereich von Interesse des Kamerabildes identifiziert werden. Der Bereich von Interesse kann einen oder mehrere verbundene oder getrennte Bereiche, beispielsweise bis zu einem Bereich für jeden der identifizierten Cluster, enthalten.Again, the output of the object detection algorithm may include respective bounding boxes and/or object classes for each of the objects identified in the area of interest of the camera image. The area of interest may include one or more connected or separate areas, for example up to one area for each of the identified clusters.

Gemäß einem weiteren Aspekt der Erfindung wird ein elektronisches Fahrzeugführungssystem für ein Fahrzeug bereitgestellt. Das elektronische Fahrzeugführungssystem weist ein aktives optisches Sensorsystem zur Montage an dem Fahrzeug auf, das dazu eingerichtet ist, einen Sensordatensatz zu erzeugen, der eine Umgebung des Fahrzeugs darstellt, insbesondere wenn es am Fahrzeug montiert wurde. Das elektronische Fahrzeugführungssystem weist wenigstens eine Recheneinheit auf, die dazu eingerichtet ist, eine Sensorpunktwolke abhängig von dem Sensordatensatz zu erzeugen. Die wenigstens eine Recheneinheit ist dazu eingerichtet, die gefilterte Punktwolke als Teilmenge der Sensorpunktwolke abhängig von einer vorbestimmten Referenzpunktwolke mit einer Vielzahl von Referenzpunkten zu erzeugen. Die wenigstens eine Recheneinheit ist dazu eingerichtet, den jeweiligen Punkt der Sensorpunktwolke zur gefilterten Punktwolke nur dann hinzuzufügen, wenn ein räumlicher Bereich, der einer vordefinierten Umgebung des jeweiligen Punkts der Sensorpunktwolke entspricht, von Referenzpunkten der Referenzpunktwolke frei ist.According to another aspect of the invention, an electronic vehicle guidance system for a vehicle is provided. The electronic vehicle guidance system has an active optical sensor system for mounting on the vehicle, which is set up to generate a sensor data set that represents an area surrounding the vehicle, in particular when it has been mounted on the vehicle. The electronic vehicle guidance system has at least one computing unit that is set up to generate a sensor point cloud as a function of the sensor data set. The at least one computing unit is set up to generate the filtered point cloud as a subset of the sensor point cloud depending on a predetermined reference point cloud with a large number of reference points. The at least one computing unit is set up to only add the respective point in the sensor point cloud to the filtered point cloud if a spatial area that corresponds to a predefined environment of the respective point in the sensor point cloud is free of reference points in the reference point cloud.

Gemäß mehreren Implementierungen des elektronischen Fahrzeugführungssystems ist das aktive optische Sensorsystem als Lidarsystem, insbesondere Laserscanner-Lidarsystem, gestaltet.According to several implementations of the electronic vehicle guidance system, the active optical sensor system is designed as a lidar system, in particular a laser scanner lidar system.

Gemäß mehreren Implementierungen weist das elektronische Fahrzeugführungssystem, insbesondere die wenigstens eine Recheneinheit, eine Steuereinheit auf, die dazu eingerichtet ist, wenigstens ein Steuersignal zum wenigstens teilweise automatischen Führen des Fahrzeugs abhängig von der gefilterten Punktwolke zu erzeugen.According to several implementations, the electronic vehicle guidance system, in particular the at least one computing unit, has a control unit that is set up to generate at least one control signal for at least partially automatically guiding the vehicle depending on the filtered point cloud.

Gemäß mehreren Implementierungen weist das elektronische Fahrzeugführungssystem ein Kamerasystem auf, insbesondere zur Montage an dem Fahrzeug, das dazu eingerichtet ist, ein Kamerabild zu erzeugen, das die Umgebung des Fahrzeugs darstellt, insbesondere wenn es am Fahrzeug montiert wurde. Die wenigstens eine Recheneinheit ist dazu eingerichtet, einen oder mehrere Cluster von Punkten der gefilterten Punktwolke zu bestimmen und einen Bereich von Interesse des Kamerabildes abhängig von dem einen oder den mehreren bestimmten Clustern zu bestimmen. Die wenigstens eine Recheneinheit ist dazu eingerichtet, einen Objekterkennungsalgorithmus auf den Bereich von Interesse anzuwenden. Die Steuereinheit ist dazu eingerichtet, das wenigstens eine Steuersignal abhängig von einer Ausgabe des Objekterkennungsalgorithmus zu erzeugen.According to several implementations, the electronic vehicle guidance system has a camera system, in particular for mounting on the vehicle, which is set up to generate a camera image that represents the surroundings of the vehicle, in particular when it has been mounted on the vehicle. The at least one computing unit is set up to determine one or more clusters of points of the filtered point cloud and to determine an area of interest of the camera image depending on the one or more specific clusters. The at least one computing unit is set up to apply an object recognition algorithm to the area of interest. The control unit is set up to generate the at least one control signal depending on an output of the object recognition algorithm.

Weitere Implementierungen des elektronischen Fahrzeugführungssystems gemäß der Erfindung folgen direkt aus den verschiedenen Implementierungen des Verfahrens zum Erzeugen einer gefilterten Punktwolke gemäß der Erfindung und den Implementierungen des Verfahrens zum Führen eines Fahrzeugs gemäß der Erfindung und umgekehrt. Insbesondere ist ein elektronisches Fahrzeugführungssystem gemäß der Erfindung dazu eingerichtet, ein Verfahren gemäß der Erfindung auszuführen, oder führt ein solches Verfahren aus.Further implementations of the electronic vehicle guidance system according to the invention follow directly from the different implementations of the method for generating a filtered point cloud according to the invention and the implementations of the method for guiding a vehicle according to the invention and vice versa. In particular, an electronic vehicle guidance system according to the invention is set up to carry out a method according to the invention or carries out such a method.

Gemäß einem weiteren Aspekt der Erfindung wird ein Fahrzeug, insbesondere ein Kraftfahrzeug, bereitgestellt, das ein elektronisches Fahrzeugführungssystem gemäß der Erfindung aufweist.According to a further aspect of the invention, a vehicle, in particular a motor vehicle, is provided which has an electronic vehicle guidance system according to the invention.

Gemäß einem weiteren Aspekt der Erfindung wird ein Computerprogramm mit Befehlen bereitgestellt. Wenn das Computerprogramm beziehungsweise die Befehle mittels eines elektronischen Fahrzeugführungssystems gemäß der Erfindung, insbesondere mittels der wenigstens einen Recheneinheit des elektronischen Fahrzeugführungssystems, ausgeführt werden, veranlassen die Befehle das elektronische Fahrzeugführungssystem, ein Verfahren gemäß der Erfindung auszuführen.According to another aspect of the invention, a computer program with instructions is provided. If the computer program or the commands are executed using an electronic vehicle guidance system according to the invention, in particular using the at least one computing unit of the electronic vehicle guidance system, the commands cause the electronic vehicle guidance system to execute a method according to the invention.

Gemäß einem weiteren Aspekt der Erfindung wird ein computerlesbares Speichermedium, das ein Computerprogramm gemäß der Erfindung speichert, bereitgestellt.According to another aspect of the invention, there is provided a computer-readable storage medium storing a computer program according to the invention.

Weitere Merkmale der Erfindung sind aus den Ansprüchen, den Figuren und der Figurenbeschreibung ersichtlich. Die vorstehend in der Beschreibung erwähnten Merkmale und Merkmalskombinationen sowie die nachstehend in der Figurenbeschreibung erwähnten und/oder in den Figuren gezeigten Merkmale und Merkmalskombinationen können von der Erfindung nicht nur in der jeweiligen angegebenen Kombination, sondern auch in anderen Kombinationen enthalten sein. Insbesondere sind Ausführungsformen und Merkmalskombinationen, die nicht alle Merkmale eines ursprünglich formulierten Anspruchs aufweisen, auch von der Erfindung enthalten. Überdies sind Ausführungsformen und Merkmalskombinationen, die über die in den Rezitationen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder von diesen abweichen, von der Erfindung enthalten.Further features of the invention can be seen from the claims, the figures and the description of the figures. The features and feature combinations mentioned above in the description and the features and feature combinations mentioned below in the description of the figures and/or shown in the figures can be included in the invention not only in the respective specified combination, but also in other combinations. In particular, embodiments and combinations of features that do not have all the features of an originally formulated claim are also included in the invention. Moreover, embodiments and combinations of features that go beyond or deviate from the combinations of features set out in the recitations of the claims are included in the invention.

In den Figuren zeigen:

  • 1 schematisch ein Fahrzeug mit einer beispielhaften Implementierung eines elektronischen Fahrzeugführungssystems gemäß der Erfindung;
  • 2 ein schematisches Ablaufdiagramm einer beispielhaften Implementierung eines Verfahrens gemäß der Erfindung;
  • 3 schematisch ein Kamerabild, das eine Umgebung eines Fahrzeugs darstellt;
  • 4 schematisch eine Sensorpunktwolke, die eine Umgebung eines Fahrzeugs darstellt;
  • 5 schematisch eine Referenzpunktwolke;
  • 6 schematisch eine gefilterte Punktwolke;
  • 7 schematisch Cluster von Punkten einer gefilterten Punktwolke;
  • 8 schematisch ein Kamerabild und eine Referenzpunktwolke; und
  • 9 schematisch ein Kamerabild und eine Referenzpunktwolke.
In the figures show:
  • 1 schematically a vehicle with an exemplary implementation of an electronic vehicle guidance system according to the invention;
  • 2 a schematic flow diagram of an exemplary implementation of a method according to the invention;
  • 3 schematically a camera image that represents the surroundings of a vehicle;
  • 4 schematically a sensor point cloud that represents an environment of a vehicle;
  • 5 schematically a reference point cloud;
  • 6 schematically a filtered point cloud;
  • 7 schematic clusters of points of a filtered point cloud;
  • 8th schematically a camera image and a reference point cloud; and
  • 9 schematically a camera image and a reference point cloud.

1 zeigt schematisch ein Kraftfahrzeug 1 mit einer beispielhaften Implementierung eines elektronischen Fahrzeugführungssystems 2 gemäß der Erfindung. 1 1 schematically shows a motor vehicle 1 with an exemplary implementation of an electronic vehicle guidance system 2 according to the invention.

Das elektronische Fahrzeugführungssystem 2 weist wenigstens eine Recheneinheit 3 und ein Lidarsystem 4 auf, das beispielsweise als Laserscanner implementiert ist. Wahlweise weist das Fahrzeugführungssystem 2 auch eine Kamera 5 auf, die am Fahrzeug 1 montiert ist.The electronic vehicle guidance system 2 has at least one computing unit 3 and a lidar system 4, which is implemented as a laser scanner, for example. The vehicle guidance system 2 optionally also has a camera 5 which is mounted on the vehicle 1 .

Das Fahrzeugführungssystem 2 kann ein Verfahren zum Erzeugen einer gefilterten Punktwolke gemäß der Erfindung und/oder ein Verfahren zum wenigstens teilweise automatischen Führen des Fahrzeugs 1 gemäß der Erfindung ausführen. Die Funktion des Fahrzeugführungssystems 2 und entsprechende Verfahren werden im Folgenden mit Bezug auf die Figuren 2 bis 7 genauer erläutert.The vehicle guidance system 2 can carry out a method for generating a filtered point cloud according to the invention and/or a method for at least partially automatically guiding the vehicle 1 according to the invention. The function of the vehicle guidance system 2 and corresponding methods are described below with reference to the figures 2 until 7 explained in more detail.

2 zeigt ein Ablaufdiagramm einer beispielhaften Implementierung eines Verfahrens zum Erzeugen einer gefilterten Punktwolke gemäß der Erfindung. Dabei kann Schritt S1 als Teil des Verfahrens betrachtet werden oder kann vor dem Verfahren gemäß der Erfindung ausgeführt werden, während die Schritte S2 und S3 von dem Verfahren gemäß der Erfindung enthalten sind. Schritt S4 ist ein optionaler Schritt des Verfahrens gemäß der Erfindung. 2 shows a flowchart of an exemplary implementation of a method for Generating a filtered point cloud according to the invention. Thereby, step S1 can be considered as part of the method or can be performed before the method according to the invention, while steps S2 and S3 are included in the method according to the invention. Step S4 is an optional step of the method according to the invention.

In Schritt S1 wird eine Referenzpunktwolke 9, wie schematisch in 5 gezeigt, die eine Umgebung des Fahrzeugs 1 darstellt, erzeugt und auf einer Speichereinheit (nicht gezeigt) der wenigstens einen Recheneinheit 3 gespeichert. Dazu können ein oder mehrere weitere Fahrzeuge (nicht gezeigt) mit jeweiligen Lidarsystemen ausgestattet sein, um eine große Anzahl von Referenzabtastpunkten zu erfassen, die die Straße und andere statische Objekte in der Umgebung darstellen. Die Referenzpunktwolke 9 kann dann als hochauflösende Karte, HD-Karte, der Umgebung betrachtet werden. Die Referenzpunktwolke 9 kann auch als Offline-HD-Karte betrachtet werden, die während individueller anschließender Sensoreinzelbilder des Lidarsystems 4 unverändert bleibt. Die Referenzpunktwolke 9 enthält Punkte, die Infrastrukturelementen, wie zum Beispiel Bäumen, Gebäuden, der Straße, der Landschaft und so weiter, entsprechen. Mobile oder dynamische Objekte, wie zum Beispiel Fußgänger, Fahrzeuge, mobile Schranken und so weiter, sind vorzugsweise nicht in der Referenzpunktwolke 9 enthalten.In step S1, a reference point cloud 9, as shown schematically in 5 shown, which represents an environment of the vehicle 1, generated and stored on a memory unit (not shown) of the at least one computing unit 3. To this end, one or more further vehicles (not shown) can be equipped with respective lidar systems in order to acquire a large number of reference sampling points which represent the road and other static objects in the surroundings. The reference point cloud 9 can then be viewed as a high-resolution map, HD map, of the environment. The reference point cloud 9 can also be viewed as an offline HD map, which remains unchanged during subsequent individual individual sensor images of the lidar system 4 . The reference point cloud 9 contains points corresponding to infrastructure elements such as trees, buildings, the road, the landscape and so on. Mobile or dynamic objects, such as pedestrians, vehicles, mobile barriers and so on, are preferably not included in the cloud of reference points 9 .

Die wenigstens eine Recheneinheit 3 kann die Position des Fahrzeugs 1 im Referenzkoordinatensystem, das der Referenzpunktwolke 9 entspricht, unter Verwendung von bekannten Verfahren, beispielsweise auf der Basis der Auswertung von GPS-Signalen und verschiedenen Sensordaten des Fahrzeugs, einschließlich, jedoch nicht begrenzt auf Daten, die mittels des Lidarsystems 4 und/oder der Kamera 5 erhalten werden, genau bestimmen.The at least one computing unit 3 can determine the position of the vehicle 1 in the reference coordinate system, which corresponds to the reference point cloud 9, using known methods, for example based on the evaluation of GPS signals and various sensor data of the vehicle, including but not limited to data which are obtained by means of the lidar system 4 and/or the camera 5.

In Schritt S2 erzeugt das Lidarsystem 4 während eines jeweiligen Sensoreinzelbildes einen Sensordatensatz, der die Umgebung des Fahrzeugs 1 darstellt, und die wenigstens eine Recheneinheit 3 erzeugt eine Sensorpunktwolke 8 abhängig von dem Sensordatensatz, wie schematisch in 4 dargestellt. Die Sensorpunktwolke 8 enthält Punkte, die den statischen Objekten entsprechen, die auch durch die Referenzpunktwolke 9 dargestellt sind. Außerdem kann die Sensorpunktwolke 8 zusätzliche Punkte enthalten, die Änderungen in der Umgebung oder in der Infrastruktur oder mobilen oder dynamischen Objekten in der Umgebung entsprechen. Einige Beispiele von solchen Objekten sind schematisch im Kamerabild von 3 dargestellt. Beispielsweise können sich Personen 7a, 7b oder andere Objekte 7c, 7d in der Szene befinden.In step S2, the lidar system 4 generates a sensor data set during each individual sensor image, which represents the surroundings of the vehicle 1, and the at least one computing unit 3 generates a sensor point cloud 8 depending on the sensor data set, as is shown schematically in 4 shown. The sensor point cloud 8 contains points that correspond to the static objects that are also represented by the reference point cloud 9 . In addition, the sensor point cloud may contain 8 additional points corresponding to changes in the environment or infrastructure, or mobile or dynamic objects in the environment. Some examples of such objects are shown schematically in the camera image of 3 shown. For example, people 7a, 7b or other objects 7c, 7d can be in the scene.

In Schritt S3 kann die wenigstens eine Recheneinheit 3 die Sensorpunktwolke 8 mit der Referenzpunktwolke 9 vergleichen, um eine gefilterte Punktwolke 10 zu erzeugen, wie in 6 dargestellt, wobei die statischen Objekte effektiv aus der Sensorpunktwolke 8 entfernt werden. Dazu kann die wenigstens eine Recheneinheit 3 einen räumlichen Bereich analysieren, der einer vordefinierten Umgebung eines gegebenen Punkts der Sensorpunktwolke 8 entspricht, und diesen Punkt verwerfen oder, mit anderen Worten, diesen Punkt nicht zur gefilterten Punktwolke 10 hinzufügen, falls sich ein Referenzpunkt der Referenzpunktwolke 9 in der Umgebung des jeweiligen Punkts der Sensorpunktwolke 8 befindet. Nur Punkte der Sensorpunktwolke 8, die keinen Referenzpunkt der Referenzpunktwolke 9 aufweisen, der näher ist als ein vordefinierter Schwellenabstand, beispielsweise 10 cm, werden beispielsweise zur gefilterten Punktwolke 10 hinzugefügt.In step S3, the at least one computing unit 3 can compare the sensor point cloud 8 with the reference point cloud 9 in order to generate a filtered point cloud 10, as in 6 shown, where the static objects are effectively removed from the sensor point cloud 8. To this end, the at least one computing unit 3 can analyze a spatial region that corresponds to a predefined environment of a given point in the sensor point cloud 8 and discard this point or, in other words, not add this point to the filtered point cloud 10 if a reference point in the reference point cloud 9 in the vicinity of the respective point of the sensor point cloud 8 is located. Only points of the sensor point cloud 8 that do not have a reference point of the reference point cloud 9 that is closer than a predefined threshold distance, for example 10 cm, are added to the filtered point cloud 10, for example.

6 zeigt jeweilige Cluster von Punkten 11 a, 11b, 11c, 11d in der gefilterten Punktwolke 10, die den Objekten 7a, 7b, 7c, 7d im Kamerabild 6 zugeordnet sind. 6 shows respective clusters of points 11a, 11b, 11c, 11d in the filtered point cloud 10, which are assigned to the objects 7a, 7b, 7c, 7d in the camera image 6.

In Schritt S4 kann die gefilterte Punktwolke 10 dann durch die wenigstens eine Recheneinheit 3 verwendet werden, um einen Wahrnehmungsalgorithmus, beispielsweise einen Objekterkennungsalgorithmus oder einen Segmentierungsalgorithmus, auszuführen.In step S4, the filtered point cloud 10 can then be used by the at least one computing unit 3 to execute a perception algorithm, for example an object recognition algorithm or a segmentation algorithm.

Dazu kann die wenigstens eine Recheneinheit 3 den Wahrnehmungsalgorithmus direkt auf die gefilterte Punktwolke 10 anwenden. Alternativ kann die wenigstens eine Recheneinheit 3 die gefilterte Punktwolke 10 verwenden, um einen jeweiligen Bereich von Interesse im Kamerabild 6 zu bestimmen, und den Wahrnehmungsalgorithmus auf das Kamerabild 6 anwenden, während er auf den Bereich von Interesse eingeschränkt wird.For this purpose, the at least one computing unit 3 can apply the perception algorithm directly to the filtered point cloud 10 . Alternatively, the at least one computing unit 3 can use the filtered point cloud 10 to determine a respective area of interest in the camera image 6 and apply the perception algorithm to the camera image 6 while restricting it to the area of interest.

In 7 ist schematisch gezeigt, dass ein oder mehrere Cluster 12a, 12b von Punkten in der gefilterten Punktwolke 10 mittels der wenigstens einen Recheneinheit 3 identifiziert werden. Zum Extrahieren der Cluster 12a, 12b können bekannte Ansätze oder bekannte Verfahren verwendet werden. Nach dem Clustern können die Orte der Cluster 12a, 12b im Kamerabild 6 bestimmt werden. Die Koordinaten der Parameter der Cluster 12a, 12b können beispielsweise in den Koordinaten des lokalen Fahrzeugkoordinatensystems extrahiert werden.In 7 shows schematically that one or more clusters 12a, 12b of points in the filtered point cloud 10 are identified by means of the at least one computing unit 3. Known approaches or known methods can be used to extract the clusters 12a, 12b. After the clustering, the locations of the clusters 12a, 12b in the camera image 6 can be determined. The coordinates of the parameters of the clusters 12a, 12b can be extracted, for example, in the coordinates of the local vehicle coordinate system.

Für jeden Cluster 12a, 12b können die Koordinaten des Clusters im Fahrzeugkoordinatensystem unter Verwendung der jeweiligen Kalibrierungsparameter für die Kamera 5 in Pixelkoordinaten des Kamerasystems transformiert werden. Die entsprechenden Pixelkoordinaten können als Bereich von Interesse bezeichnet werden. Die wenigstens eine Recheneinheit 3 kann dann den Klassifizierungs- und/oder Erkennungsalgorithmus auf den Bereich von Interesse anwenden und sein Ergebnis zu folgenden Softwaremodulen des Wahrnehmungssystems liefern.For each cluster 12a, 12b, the coordinates of the cluster in the vehicle coordinate system can be transformed into pixel coordinates of the camera system using the respective calibration parameters for the camera 5. the ent corresponding pixel coordinates can be referred to as an area of interest. The at least one computing unit 3 can then apply the classification and/or recognition algorithm to the area of interest and deliver its result to the following software modules of the perception system.

Auf diese Weise kann eine signifikante Verringerung der Verarbeitungsleistung und des Zeitverbrauchs im Vergleich zu herkömmlichen Kameraerkennungssystemen, bei denen das ganze Bild nach zu erkennenden Mustern durchsucht werden muss, erreicht werden.In this way, a significant reduction in processing power and time consumption can be achieved compared to conventional camera recognition systems, where the entire image has to be searched for patterns to be recognized.

Es wird angemerkt, dass eine präzise HD-Karte mit einer Infrastruktur und anderen statischen Hindernissen hinsichtlich der Referenzpunktwolke 9 auch für andere Anwendungen im Zusammenhang mit automatisiertem Fahren verwendet werden kann. Fahrzeugsysteme zum automatisierten Fahren können mit Software-Verarbeitungsmodulen zum Abschätzen der möglichen Trajektorie eines Umgebungsobjekts auf der Basis seiner vergangenen Trajektorien, seiner Orientierung, seines Bewegungsmodells, weiteren Eigenschaften und so weiter ausgestattet sein. Die möglichen Trajektorien des Eigenfahrzeugs können auch analog abgeschätzt werden und eine jeweilige Trajektorie, der das Eigenfahrzeug folgen sollte, kann ausgewählt werden. Unter den Trajektorien, die berechnet werden, können einige aufgrund einer möglichen Kollision mit Umgebungsobjekten, da sie gegen Verkehrsregeln verstoßen können und/oder sie zu Kollisionen mit Infrastrukturhindernissen führen können, verworfen werden.It is noted that a precise HD map with an infrastructure and other static obstacles regarding the reference point cloud 9 can also be used for other applications related to automated driving. Vehicle systems for automated driving can be equipped with software processing modules for estimating the possible trajectory of a surrounding object based on its past trajectories, its orientation, its motion model, other properties and so on. The possible trajectories of the driver's vehicle can also be estimated analogously and a respective trajectory that the driver's vehicle should follow can be selected. Among the trajectories that are calculated, some may be discarded due to possible collision with surrounding objects, as they may violate traffic rules and/or they may lead to collisions with infrastructure obstacles.

Unter der Annahme, dass eine präzise HD-Karte mit Infrastrukturhindernissen, wie zum Beispiel die Referenzpunktwolke 9, gegeben ist und dass das Fahrzeug 1 in dieser HD-Karte präzise lokalisiert wird, ist es möglich, dass ein Trajektorienabschätzsystem des Fahrzeugs 1 diese Trajektorienberechnung oder-abschätzung verfeinert, da die HD-Karte Informationen über die Infrastruktur bereitstellt, die über das Sichtfeld der Sensoren 4, 5 des Fahrzeugs hinausgehen können. Der befahrbare Bereich für das Fahrzeug 1 kann dann abgeschätzt werden, selbst wenn die Infrastruktur nicht in der direkten Sichtlinie mit den Sensoren 4, 5 liegt oder verdeckt ist.Assuming that a precise HD map with infrastructure obstacles, such as the reference point cloud 9, is given and that the vehicle 1 is located precisely in this HD map, it is possible that a trajectory estimation system of the vehicle 1 uses this trajectory calculation or Estimation refined because the HD map provides information about the infrastructure that can go beyond the field of view of the sensors 4, 5 of the vehicle. The passable area for the vehicle 1 can then be estimated, even if the infrastructure is not in the direct line of sight with the sensors 4, 5 or is covered.

In 8 ist ein Beispiel für eine HD-Punktwolkenkarte 13 sowie eine Einfügung, die ein entsprechendes Kamerabild 15 zeigt, gezeigt. Die Sensorwahrnehmung des Fahrzeugs ist beispielsweise auf ungefähr 150 m begrenzt. Die in der Punktwolkenkarte 13 enthaltenen Informationen ermöglichen jedoch eine Beschreibung der Infrastruktur von mehreren Hunderten von Metern, einschließlich beispielsweise der Straßenränder. Die Box 14 gibt an, in welchem Umfang die wenigstens eine Recheneinheit 3 eine sichere Trajektorie für das Fahrzeug 1 abschätzen kann.In 8th an example of an HD point cloud map 13 and an inset showing a corresponding camera image 15 is shown. For example, the sensor perception of the vehicle is limited to approximately 150 m. However, the information contained in the point cloud map 13 enables a description of the infrastructure of several hundreds of meters including, for example, the roadsides. Box 14 indicates the extent to which the at least one computing unit 3 can estimate a safe trajectory for vehicle 1 .

9 zeigt ein anderes Beispiel für eine HD-Punktwolkenkarte 16 und eine Einfügung, die ein entsprechendes Kamerabild 18 zeigt. Die Box 17 gibt eine Position eines Notfallbereichs, damit das Fahrzeug 1 sicher stoppt, an, der in der Punktwolkenkarte 16, aber nicht im Sichtfeld der Kamera 5 zum Zeitpunkt des durch das Kamerabild 18 gegebenen Schnappschusses identifizierbar ist. 9 14 shows another example of an HD point cloud map 16 and an inset showing a corresponding camera image 18 . The box 17 indicates a position of an emergency area for the vehicle 1 to stop safely, which is identifiable in the point cloud map 16 but not in the field of view of the camera 5 at the time of the snapshot given by the camera image 18 .

Claims (14)

Verfahren zum Erzeugen einer gefilterten Punktwolke (10) zum wenigstens teilweise automatischen Führen eines Fahrzeugs (1), wobei ein Sensordatensatz, der eine Umgebung des Fahrzeugs (1) darstellt, mittels eines aktiven optischen Sensorsystems (4) des Fahrzeugs (1) erzeugt wird und eine Sensorpunktwolke (8) mittels wenigstens einer Recheneinheit (3) des Fahrzeugs (1) abhängig von dem Sensordatensatz erzeugt wird, dadurch gekennzeichnet, dass - die gefilterte Punktwolke (10) mittels der wenigstens einen Recheneinheit (3) abhängig von einer vorbestimmten Referenzpunktwolke (9), die eine Vielzahl von Referenzpunkten enthält, als Teilmenge der Sensorpunktwolke (8) erzeugt wird; - für jeden einer Vielzahl von Punkten der Sensorpunktwolke (8) der jeweilige Punkt der Sensorpunktwolke (8) mittels der wenigstens einen Recheneinheit (3) nur dann zu der gefilterten Punktwolke (10) hinzugefügt wird, wenn ein räumlicher Bereich, der einer vordefinierten Umgebung des jeweiligen Punkts der Sensorpunktwolke (8) entspricht, frei von Referenzpunkten ist.Method for generating a filtered point cloud (10) for the at least partially automatic driving of a vehicle (1), wherein a sensor data record, which represents an area surrounding the vehicle (1), is generated by means of an active optical sensor system (4) of the vehicle (1) and a sensor point cloud (8) is generated by means of at least one computing unit (3) of the vehicle (1) depending on the sensor data set, characterized in that - the filtered point cloud (10) by means of the at least one computing unit (3) depending on a predetermined reference point cloud (9 ), which contains a large number of reference points, is generated as a subset of the sensor point cloud (8); - for each of a large number of points in the sensor point cloud (8), the respective point in the sensor point cloud (8) is only added to the filtered point cloud (10) by means of the at least one computing unit (3) if a spatial area that corresponds to a predefined environment of the corresponding point of the sensor point cloud (8) is free of reference points. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass mittels der wenigstens einen Recheneinheit (3) für jeden der Vielzahl von Punkten der Sensorpunktwolke (8) der räumliche Bereich, der der vordefinierten Umgebung des jeweiligen Punkts der Sensorpunktwolke (8) entspricht, identifiziert wird und bestimmt wird, ob der räumliche Bereich frei von Referenzpunkten ist.procedure after claim 1 , characterized in that by means of the at least one computing unit (3) for each of the plurality of points in the sensor point cloud (8) the spatial area that corresponds to the predefined environment of the respective point in the sensor point cloud (8) is identified and it is determined whether the spatial area is free of reference points. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass mittels der wenigstens einen Recheneinheit (3) für alle Referenzpunkte der Referenzpunktwolke (9) ein weiterer räumlicher Bereich, der einer vordefinierten weiteren Umgebung des jeweiligen Referenzpunkts der Referenzpunktwolke (9) entspricht, identifiziert wird und bestimmt wird, ob der weitere räumliche Bereich frei von Punkten der Sensorpunktwolke (8) ist.procedure after claim 1 , characterized in that by means of the at least one computing unit (3) for all reference points of the reference point cloud (9) a further spatial area, which corresponds to a predefined further environment of the respective reference point of the reference point cloud (9), is identified and it is determined whether the further spatial area is free of points of the sensor point cloud (8). Verfahren zum wenigstens teilweise automatischen Führen eines Fahrzeugs (1), dadurch gekennzeichnet, dass - eine gefilterte Punktwolke (10) durch Ausführen eines Verfahrens nach einem der vorangehenden Ansprüche erzeugt wird; und - wenigstens ein Steuersignal zum wenigstens teilweise automatischen Führen des Fahrzeugs (1) abhängig von der gefilterten Punktwolke (10) erzeugt wird.A method for at least partially automatically driving a vehicle (1), characterized in that - a filtered point cloud (10) is generated by performing a method according to any one of the preceding claims; and - at least one control signal for at least partially automatically guiding the vehicle (1) is generated as a function of the filtered point cloud (10). Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass - ein Wahrnehmungsalgorithmus mittels der wenigstens einen Recheneinheit (3) ausgeführt wird, wobei die gefilterte Punktwolke (10) als Eingabe in den Wahrnehmungsalgorithmus verwendet wird; und - das wenigstens eine Steuersignal abhängig von einer Ausgabe des Wahrnehmungsalgorithmus erzeugt wird.procedure after claim 4 , characterized in that - a perception algorithm is executed by means of the at least one computing unit (3), the filtered point cloud (10) being used as input to the perception algorithm; and - the at least one control signal is generated dependent on an output of the perception algorithm. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass - die Referenzpunktwolke (9) als weitere Eingabe in den Wahrnehmungsalgorithmus verwendet wird; und/oder - das wenigstens eine Steuersignal abhängig von der Ausgabe des Wahrnehmungsalgorithmus und abhängig von der Referenzpunktwolke (9) erzeugt wird.procedure after claim 5 , characterized in that - the reference point cloud (9) is used as a further input to the perception algorithm; and/or - the at least one control signal is generated depending on the output of the perception algorithm and depending on the reference point cloud (9). Verfahren nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass - mittels der wenigstens einen Recheneinheit (3) ein oder mehrere Cluster (11 a, 11b, 11c, 11d, 12a, 12b) von Punkten der gefilterten Punktwolke (10) bestimmt werden und jedem der Vielzahl von Clustern (11a, 11b, 11c, 11d, 12a, 12b) eine Begrenzungsbox und/oder eine Objektklasse zugewiesen werden; und - das wenigstens eine Steuersignal abhängig von den zugewiesenen Begrenzungsboxen und/oder Objektklassen erzeugt wird.Procedure according to one of Claims 4 until 6 , characterized in that - by means of the at least one computing unit (3), one or more clusters (11a, 11b, 11c, 11d, 12a, 12b) of points in the filtered point cloud (10) are determined and each of the plurality of clusters (11a , 11b, 11c, 11d, 12a, 12b) a bounding box and/or an object class are assigned; and - the at least one control signal is generated depending on the assigned bounding boxes and/or object classes. Verfahren nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass - ein Kamerabild (6), das die Umgebung des Fahrzeugs (1) darstellt, mittels eines Kamerasystems (5) des Fahrzeugs (1) erzeugt wird; - ein oder mehrere Cluster (11a, 11b, 11c, 11d, 12a, 12b) von Punkten der gefilterten Punktwolke (10) mittels der wenigstens einen Recheneinheit (3) bestimmt werden; - ein Bereich von Interesse des Kamerabildes (6) mittels der wenigstens einen Recheneinheit (3) abhängig von dem einen oder den mehreren bestimmten Clustern (11a, 11b, 11c, 11d, 12a, 12b) bestimmt wird; - ein Objekterkennungsalgorithmus mittels der wenigstens einen Recheneinheit (3) auf den Bereich von Interesse angewendet wird; und - das wenigstens eine Steuersignal abhängig von einer Ausgabe des Objekterkennungsalgorithmus erzeugt wird.Procedure according to one of Claims 4 until 6 , characterized in that - a camera image (6) representing the surroundings of the vehicle (1) is generated by means of a camera system (5) of the vehicle (1); - one or more clusters (11a, 11b, 11c, 11d, 12a, 12b) of points in the filtered point cloud (10) are determined by means of the at least one computing unit (3); - a region of interest of the camera image (6) is determined by means of the at least one computing unit (3) depending on the one or more specific clusters (11a, 11b, 11c, 11d, 12a, 12b); - an object recognition algorithm is applied to the region of interest by means of the at least one computing unit (3); and - the at least one control signal is generated depending on an output of the object detection algorithm. Elektronisches Fahrzeugführungssystem (2) für ein Fahrzeug (1), das elektronische Fahrzeugführungssystem (2) aufweisend - ein aktives optisches Sensorsystem (4), das dazu eingerichtet ist, einen Sensordatensatz zu erzeugen, der eine Umgebung des Fahrzeugs (1) darstellt; und - wenigstens eine Recheneinheit (3), die dazu eingerichtet ist, eine Sensorpunktwolke (8) abhängig von dem Sensordatensatz zu erzeugen, dadurch gekennzeichnet, dass die wenigstens eine Recheneinheit (3) dazu eingerichtet ist, - die gefilterte Punktwolke (10) als Teilmenge der Sensorpunktwolke (8) abhängig von einer vorbestimmten Referenzpunktwolke (9) mit einer Vielzahl von Referenzpunkten zu erzeugen; und - für jeden einer Vielzahl von Punkten der Sensorpunktwolke (8) den jeweiligen Punkt der Sensorpunktwolke (8) nur dann zur gefilterten Punktwolke (10) hinzuzufügen, wenn ein räumlicher Bereich, der einer vordefinierten Umgebung des jeweiligen Punkts der Sensorpunktwolke (8) entspricht, frei von Referenzpunkten ist.Electronic vehicle guidance system (2) for a vehicle (1), the electronic vehicle guidance system (2) comprising - an active optical sensor system (4) which is set up to generate a sensor data record which represents an environment of the vehicle (1); and - at least one computing unit (3) which is set up to generate a sensor point cloud (8) depending on the sensor data set, characterized in that the at least one computing unit (3) is set up to - the filtered point cloud (10) as a subset to generate the sensor point cloud (8) depending on a predetermined reference point cloud (9) with a large number of reference points; and - only adding the respective point of the sensor point cloud (8) to the filtered point cloud (10) for each of a plurality of points of the sensor point cloud (8) if a spatial area corresponding to a predefined environment of the respective point of the sensor point cloud (8), is free of reference points. Elektronisches Fahrzeugführungssystem (2) nach Anspruch 9, dadurch gekennzeichnet, dass das aktive optische Sensorsystem (4) als Laserscanner gestaltet ist.Electronic vehicle guidance system (2) after claim 9 , characterized in that the active optical sensor system (4) is designed as a laser scanner. Elektronisches Fahrzeugführungssystem (2) nach einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass das elektronische Fahrzeugführungssystem (2) eine Steuereinheit aufweist, die dazu eingerichtet ist, wenigstens ein Steuersignal zum wenigstens teilweise automatischen Führen des Fahrzeugs (1) abhängig von der gefilterten Punktwolke (10) zu erzeugen.Electronic vehicle guidance system (2) according to one of claims 9 or 10 , characterized in that the electronic vehicle guidance system (2) has a control unit which is set up to generate at least one control signal for at least partially automatically guiding the vehicle (1) depending on the filtered point cloud (10). Elektronisches Fahrzeugführungssystem (2) nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass - das elektronische Fahrzeugführungssystem (2) ein Kamerasystem (5) für das Fahrzeug (1) aufweist, das dazu eingerichtet ist, ein Kamerabild (6) zu erzeugen, das die Umgebung des Fahrzeugs (1) darstellt; und - die wenigstens eine Recheneinheit (3) dazu eingerichtet ist, - einen oder mehrere Cluster (11a, 11b, 11c, 11d, 12a, 12b) von Punkten der gefilterten Punktwolke (10) zu bestimmen; - einen Bereich von Interesse des Kamerabildes (6) abhängig von dem einen oder den mehreren bestimmten Clustern (11a, 11b, 11c, 11d, 12a, 12b) zu bestimmen; und - einen Objekterkennungsalgorithmus auf den Bereich von Interesse anzuwenden; und - die Steuereinheit dazu eingerichtet ist, das wenigstens eine Steuersignal abhängig von einer Ausgabe des Objekterkennungsalgorithmus zu erzeugen.Electronic vehicle guidance system (2) according to one of claims 9 until 11 , characterized in that - the electronic vehicle guidance system (2) has a camera system (5) for the vehicle (1), which is set up to generate a camera image (6) representing the surroundings of the vehicle (1); and - the at least one computing unit (3) is set up to - determine one or more clusters (11a, 11b, 11c, 11d, 12a, 12b) of points in the filtered point cloud (10); - to determine an area of interest of the camera image (6) depending on the one or more determined clusters (11a, 11b, 11c, 11d, 12a, 12b); and - apply an object detection algorithm to the region of interest; and - the control unit is set up to generate the at least one control signal depending on an output of the object recognition algorithm. Computerprogramm mit Befehlen, die, wenn sie durch ein elektronisches Fahrzeugführungssystem (2) nach einem der Ansprüche 9 bis 12 ausgeführt werden, das elektronische Fahrzeugführungssystem (2) dazu veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 8 auszuführen.Computer program with commands which, when executed by an electronic vehicle guidance system (2) according to one of claims 9 until 12 be executed, the electronic vehicle guidance system (2) cause a method according to one of Claims 1 until 8th to execute. Computerlesbares Speichermedium, das ein Computerprogramm nach Anspruch 13 speichert.Computer-readable storage medium containing a computer program Claim 13 saves.
DE102021117877.0A 2021-07-12 2021-07-12 Generating a filtered point cloud and at least partially automatically driving a vehicle Pending DE102021117877A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102021117877.0A DE102021117877A1 (en) 2021-07-12 2021-07-12 Generating a filtered point cloud and at least partially automatically driving a vehicle
PCT/EP2022/068826 WO2023285254A1 (en) 2021-07-12 2022-07-07 Generating a filtered point cloud and guiding a vehicle at least in part automatically

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021117877.0A DE102021117877A1 (en) 2021-07-12 2021-07-12 Generating a filtered point cloud and at least partially automatically driving a vehicle

Publications (1)

Publication Number Publication Date
DE102021117877A1 true DE102021117877A1 (en) 2023-01-12

Family

ID=82742871

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021117877.0A Pending DE102021117877A1 (en) 2021-07-12 2021-07-12 Generating a filtered point cloud and at least partially automatically driving a vehicle

Country Status (2)

Country Link
DE (1) DE102021117877A1 (en)
WO (1) WO2023285254A1 (en)

Also Published As

Publication number Publication date
WO2023285254A1 (en) 2023-01-19

Similar Documents

Publication Publication Date Title
DE102017203276B4 (en) Method and device for determining a trajectory in off-road scenarios
EP1298454A2 (en) Method for recognising and tracking objects
WO2013072231A1 (en) Method for fog detection
DE102011117585A1 (en) Systems and methods for tracking objects
DE102021128041A1 (en) IMPROVEMENT OF A VEHICLE NEURAL NETWORK
EP1205765A2 (en) Method of recognising conducting cables for low flying aircraft
EP3663881B1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
WO2020160798A1 (en) Method and device for sensor data fusion for a vehicle
DE102019134695A1 (en) Information processing device, information processing method and moving subject
DE102021117877A1 (en) Generating a filtered point cloud and at least partially automatically driving a vehicle
DE112022002046T5 (en) DRIVING DEVICE, VEHICLE AND METHOD FOR AUTOMATED DRIVING AND/OR ASSISTED DRIVING
DE102020200876B4 (en) Method for processing sensor data from a sensor system in a vehicle
DE102021120966A1 (en) SENSOR FUSION
DE102021117741A1 (en) Self-localization of a vehicle in a parking infrastructure
DE102020208080A1 (en) Detection of objects in images under equivariance or invariance with respect to the object size
WO2020043440A1 (en) Directional estimation of an open space gesture
DE102021124325A1 (en) Lane Delimiter Classification
WO2023006492A1 (en) Clustering scan points of a laser scanner
WO2017129306A1 (en) Method and device for locating a head of a driver in a vehicle and head localization system
EP1852307B1 (en) Device and method for controlling the blind spot of vehicles
DE102022121781A1 (en) Computer vision based on thermal imaging in a vehicle
WO2024041833A1 (en) Visual perception using a vehicle on the basis of a camera image and an ultrasonic map
DE102022119751A1 (en) Determining an area of interest from camera images
DE102022124085A1 (en) Display of image data in a vehicle depending on sensor data
DE102022125766A1 (en) Calculation of height information of a curb in a vehicle environment