DE102019218059A1 - Detection of elongated objects - Google Patents

Detection of elongated objects Download PDF

Info

Publication number
DE102019218059A1
DE102019218059A1 DE102019218059.0A DE102019218059A DE102019218059A1 DE 102019218059 A1 DE102019218059 A1 DE 102019218059A1 DE 102019218059 A DE102019218059 A DE 102019218059A DE 102019218059 A1 DE102019218059 A1 DE 102019218059A1
Authority
DE
Germany
Prior art keywords
radar
vehicle
raster
sensor
designed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019218059.0A
Other languages
German (de)
Inventor
Florian Maile
Steffen Bucher
Frasher Loshaj
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019218059.0A priority Critical patent/DE102019218059A1/en
Publication of DE102019218059A1 publication Critical patent/DE102019218059A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/46Indirect determination of position data
    • G01S2013/462Indirect determination of position data using multipath signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/4034Antenna boresight in elevation, i.e. in the vertical plane

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die vorliegende Erfindung betrifft eine Vorrichtung (16) zum Erkennen von länglichen Objekten (12) in einer Umgebung eines Fahrzeugs (14), mit: einer Eingangsschnittstelle (20) zum Empfangen einer Radar-Zieleliste eines Radarsensors (18) mit Informationen zu detektierten Radarzielen in der Umgebung des Fahrzeugs und von Bewegungsdaten mit Informationen zu einer Bewegung des Radarsensors gegenüber der Umgebung; einer Akkumulationseinheit (22) zum Erzeugen einer akkumulierten Radar-Zieleliste in einem sensorfesten Koordinatensystem basierend auf der empfangenen Radar-Zieleliste und den Bewegungsdaten, wobei Radar-Zielelisten mehrerer Zeitschritte unter Kompensation der Bewegung des Radarsensors zusammengefasst werden; einer Rastereinheit (24) zum Erzeugen mindestens einer Rasterdarstellung (32) der Umgebung des Fahrzeugs basierend auf der akkumulierten Radar-Zieleliste, wobei Ziele der akkumulierten Radar-Zieleliste Rasterzellen der Rasterdarstellung zugeordnet werden, die Positionen in der Umgebung des Fahrzeugs entsprechen; und einer Auswerteeinheit (26) zum Ermitteln einer Ergebnisliste mit Angaben zu länglichen Objekten in der Umgebung des Fahrzeugs basierend auf einer Auswertung der mindestens einen Rasterdarstellung. Die vorliegende Erfindung betrifft weiterhin ein Verfahren und ein System (10) zum Erkennen von länglichen Objekten (12) in einer Umgebung eines Fahrzeugs (14).The present invention relates to a device (16) for recognizing elongated objects (12) in the vicinity of a vehicle (14), having: an input interface (20) for receiving a radar target list of a radar sensor (18) with information on detected radar targets in the surroundings of the vehicle and movement data with information on a movement of the radar sensor in relation to the surroundings; an accumulation unit (22) for generating an accumulated radar target list in a sensor-fixed coordinate system based on the received radar target list and the movement data, with radar target lists of several time steps being combined with compensation for the movement of the radar sensor; a raster unit (24) for generating at least one raster representation (32) of the surroundings of the vehicle based on the accumulated radar target list, targets of the accumulated radar target list being assigned to raster cells of the raster representation which correspond to positions in the surroundings of the vehicle; and an evaluation unit (26) for determining a list of results with information on elongated objects in the vicinity of the vehicle based on an evaluation of the at least one raster representation. The present invention also relates to a method and a system (10) for recognizing elongated objects (12) in the vicinity of a vehicle (14).

Description

Die vorliegende Erfindung betrifft eine Vorrichtung zum Erkennen von länglichen Objekten in einer Umgebung eines Fahrzeugs. Die vorliegende Erfindung betrifft weiterhin ein System und ein Verfahren zum Erkennen von länglichen Objekten in einer Umgebung eines Fahrzeugs.The present invention relates to a device for recognizing elongated objects in the surroundings of a vehicle. The present invention further relates to a system and a method for recognizing elongate objects in the surroundings of a vehicle.

Moderne Fahrzeuge (Autos, Transporter, Lastwagen, Motorräder etc.) verfügen über eine Vielzahl von Sensoren, die dem Fahrer Informationen zur Verfügung stellen und einzelne Funktionen des Fahrzeugs teil- oder vollautomatisiert steuern. Über Sensoren werden die Umgebung des Fahrzeugs sowie andere Verkehrsteilnehmer erfasst. Basierend auf den erfassten Daten kann ein Modell der Fahrzeugumgebung erzeugt werden und auf Veränderungen in dieser Fahrzeugumgebung reagiert werden.Modern vehicles (cars, vans, trucks, motorcycles, etc.) have a large number of sensors that provide the driver with information and control individual functions of the vehicle in a partially or fully automated manner. The surroundings of the vehicle and other road users are recorded via sensors. Based on the recorded data, a model of the vehicle environment can be generated and changes in this vehicle environment can be reacted to.

Ein wichtiges Sensorprinzip ist dabei die Radartechnik. Die meisten heutzutage im Fahrzeugbereich eingesetzten Radarsensoren arbeiten als Multipuls-Radarsensoren (auch als Chirp Sequence Radarsensoren bezeichnet), bei denen in kurzen Abständen mehrere frequenzmodulierte Pulse ausgesendet werden. Die Radarsensoren umfassen typischerweise mehrere Sende- und Empfangselemente (Antennenarray), die virtuelle Kanäle des Radarsensors (Rx/Tx-Antennenpaare) bilden. In jedem Empfangskanal erfolgt ein Heruntermischen in das Basisband, eine Filterung und anschließend eine Digitalisierung des so erhaltenen Basisbandsignals. Durch eine Vorverarbeitung der Basisbandsignale für jeden Empfangskanal kann eine Detektion und Lokalisierung eines Ziels, also eines Objekts in einem Sichtfeld des Radarsensors erfolgen.Radar technology is an important sensor principle. Most of the radar sensors used today in the vehicle sector work as multi-pulse radar sensors (also referred to as chirp sequence radar sensors), in which several frequency-modulated pulses are transmitted at short intervals. The radar sensors typically include several transmitting and receiving elements (antenna array) that form virtual channels of the radar sensor (Rx / Tx antenna pairs). In each reception channel, the baseband signal is downmixed, filtered and then the baseband signal obtained in this way is digitized. By preprocessing the baseband signals for each receiving channel, a target, that is to say an object, can be detected and localized in a field of view of the radar sensor.

Die Vorverarbeitung kann dabei insbesondere eine Fouriertransformation oder Optimalfilterung der Basisbanddaten für einen einzelnen Radarpuls (sog. schnelle Vorverarbeitung, fast-time processing), eine weitere Fouriertransformation für mehrere Pulse (sog. langsame Vorverarbeitung, slow-time processing), ein Beamforming, eine Signalleistungsdetektion, beispielsweise basierend auf constant-force-alarm-rate Verfahren, sowie eine Hochpunktbestimmung umfassen. Basierend auf diesen vorverarbeiteten Sensordaten kann dann eine Radar-Zieleliste (auch als Punktewolke bezeichnet) erzeugt werden. Diese Radar-Zieleliste umfasst zumindest die Zielparameter Abstand, Radial- bzw. Dopplergeschwindigkeit sowie (soweit verfügbar) Azimut- und Elevationswinkel und bildet die Basis für eine Umgebungserkennung.The preprocessing can in particular be a Fourier transformation or optimal filtering of the baseband data for a single radar pulse (so-called fast preprocessing, fast-time processing), a further Fourier transformation for several pulses (so-called slow preprocessing, slow-time processing), beamforming, signal power detection , for example based on constant force alarm rate method, as well as a high point determination. A radar target list (also referred to as a point cloud) can then be generated based on this preprocessed sensor data. This radar target list includes at least the target parameters distance, radial or Doppler speed and (if available) azimuth and elevation angles and forms the basis for an environment recognition.

Eine relevante Problemstellung im Bereich des autonomen und teilautonomen Fahrens betrifft die Erkennung von Objekten im Umfeld eines Fahrzeugs. Basierend auf erkannten Objekten kann beispielsweise das eigene Fahrzeug lokalisiert werden oder eine Reaktion des eigenen Fahrzeugs an die Umgebung angepasst werden. Die Objekterkennung basierend auf Radarsensordaten ist dabei einerseits unter Umgebungsbedingungen relevant, bei denen Kameras und andere Sensortechnologien nur eingeschränkt arbeiten (Regen, Dunkelheit etc.) und bietet andererseits den Vorteil einer relativ großen Reichweite. Relevante Objekte haben dabei oft eine längliche Form (Fahrbahnbegrenzungen, Leitplanken, Laternen, Verkehrsschilder, Fahrbahnbeleuchtungen, Baumstämme, ...) wobei besonders vertikal stehende, pfostenartige, längliche Objekte vorteilhaft in der Selbstlokalisierung verwendbar sind.A relevant problem in the field of autonomous and semi-autonomous driving concerns the detection of objects in the vicinity of a vehicle. Based on recognized objects, for example, one's own vehicle can be localized or a reaction of one's own vehicle can be adapted to the environment. The object detection based on radar sensor data is relevant on the one hand under ambient conditions in which cameras and other sensor technologies only work to a limited extent (rain, darkness, etc.) and on the other hand offers the advantage of a relatively large range. Relevant objects often have an elongated shape (lane boundaries, crash barriers, lanterns, traffic signs, lane lighting, tree trunks, ...) whereby particularly vertical, post-like, elongated objects can advantageously be used in self-localization.

In diesem Zusammenhang wird in Werber et al., „RoughCough - A New Image Registration Method for Radar Based Vehicle Self-Localization“, 2015, ein Verfahren zur Bildregistrierung beschrieben, das sich für die Verwendung mit Radar-Rasterkarten eignet. Das Verfahren benötigt keine scharf strukturierten Eingangsbilder und kann für alle Bildpaare angewendet werden, die mittels einer euklidischen Transformation ausrichtbar sind. Wenige linienartige Objekte im Referenzbild werden für die Beschreibung verwendet. Die Ähnlichkeit eines Testbilds zu diesen Referenzlinien wird in einer schnellen Hough-Transformation ermittelt.In this context, Werber et al., "RoughCough - A New Image Registration Method for Radar Based Vehicle Self-Localization", 2015, describes a method for image registration that is suitable for use with radar raster maps. The method does not require any sharply structured input images and can be used for all image pairs that can be aligned by means of a Euclidean transformation. Few line-like objects in the reference image are used for the description. The similarity of a test image to these reference lines is determined in a fast Hough transformation.

Nachteilig an bisherigen Ansätzen ist, dass oft eine vergleichsweise hohe Rechenleistung für die Objekterkennung erforderlich ist. Ansätze, bei denen unterschiedliche Sensorprinzipien verwendet werden und eine große Anzahl verschiedener Objektarten erkannt werden soll, haben einen hohen Bedarf an Ressourcen und sind oft fehleranfällig.The disadvantage of previous approaches is that a comparatively high computing power is often required for object recognition. Approaches in which different sensor principles are used and a large number of different object types are to be detected have a high demand for resources and are often error-prone.

Ausgehend hiervon stellt sich der vorliegenden Erfindung die Aufgabe, einen Ansatz zum radarsensorbasierten Erkennen von länglichen Objekten in einer Umgebung eines Fahrzeugs bereitzustellen, der effizient berechenbar ist und der eine zuverlässige Erkennung von länglichen Objekten ermöglicht. Insbesondere sollen pfostenartige, also vertikal ausgerichtete und gerade längliche Objekte erkannt werden. Solche pfostenartige Objekte aber auch andere längliche Objekte, insbesondere linienartige, also gerade längliche Objekte, erlauben eine genaue Selbstlokalisierung eines Fahrzeugs.Based on this, the present invention has the task of providing an approach for the radar sensor-based detection of elongated objects in the surroundings of a vehicle, which can be calculated efficiently and which enables a reliable detection of elongated objects. In particular, post-like, that is, vertically aligned and straight, elongated objects are to be recognized. Such post-like objects, but also other elongated objects, in particular line-like, that is to say straight elongated objects, allow a vehicle to be precisely located itself.

Zum Lösen dieser Aufgabe betrifft die Erfindung in einem ersten Aspekt eine Vorrichtung zum Erkennen von länglichen Objekten in einer Umgebung eines Fahrzeugs, mit:

  • einer Eingangsschnittstelle zum Empfangen einer Radar-Zieleliste eines Radarsensors mit Informationen zu detektierten Radarzielen in der Umgebung des Fahrzeugs und von Bewegungsdaten mit Informationen zu einer Bewegung des Radarsensors gegenüber der Umgebung;
  • einer Akkumulationseinheit zum Erzeugen einer akkumulierten Radar-Zieleliste in einem sensorfesten Koordinatensystem basierend auf der empfangenen Radar-Zieleliste und den Bewegungsdaten, wobei Radar-Zielelisten mehrerer Zeitschritte unter Kompensation der Bewegung des Radarsensors zusammengefasst werden;
  • einer Rastereinheit zum Erzeugen mindestens einer Rasterdarstellung der Umgebung des Fahrzeugs basierend auf der akkumulierten Radar-Zieleliste, wobei Ziele der akkumulierten Radar-Zieleliste Rasterzellen der Rasterdarstellung zugeordnet werden, die Positionen in der Umgebung des Fahrzeugs entsprechen; und
  • einer Auswerteeinheit zum Ermitteln einer Ergebnisliste mit Angaben zu länglichen Objekten in der Umgebung des Fahrzeugs basierend auf einer Auswertung der mindestens einen Rasterdarstellung.
To achieve this object, the invention relates in a first aspect to a device for recognizing elongated objects in the surroundings of a vehicle, with:
  • an input interface for receiving a radar target list of a radar sensor with information on detected radar targets in the surroundings of the vehicle and movement data with information on a movement of the radar sensor in relation to the surroundings;
  • an accumulation unit for generating an accumulated radar target list in a sensor-fixed coordinate system based on the received radar target list and the movement data, with radar target lists of several time steps being combined with compensation for the movement of the radar sensor;
  • a raster unit for generating at least one raster representation of the surroundings of the vehicle based on the accumulated radar target list, targets of the accumulated radar target list being assigned to raster cells of the raster representation which correspond to positions in the surroundings of the vehicle; and
  • an evaluation unit for determining a list of results with information on elongated objects in the vicinity of the vehicle based on an evaluation of the at least one raster representation.

In einem weiteren Aspekt betrifft die vorliegende Erfindung ein System zum Erkennen von länglichen Objekten in einer Umgebung eines Fahrzeugs, mit:

  • einem Radarsensor zum Detektieren von Radarzielen in der Umgebung des Fahrzeugs, wobei der Radarsensor vorzugsweise als frequenzmodulierter Multipuls-Radarsensor ausgebildet ist; und
  • einer Vorrichtung wie zuvor beschrieben.
In a further aspect, the present invention relates to a system for recognizing elongated objects in the surroundings of a vehicle, with:
  • a radar sensor for detecting radar targets in the vicinity of the vehicle, wherein the radar sensor is preferably designed as a frequency-modulated multi-pulse radar sensor; and
  • a device as described above.

Weitere Aspekte der Erfindung betreffen ein entsprechend der zuvor beschriebenen Vorrichtung ausgebildetes Verfahren und ein Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens, wenn der Programmcode auf einem Computer ausgeführt wird, sowie ein Speichermedium, auf dem ein Computerprogramm gespeichert ist, das, wenn es auf einem Computer ausgeführt wird, eine Ausführung des hierin beschriebenen Verfahrens bewirkt.Further aspects of the invention relate to a method embodied in accordance with the device described above and a computer program product with program code for performing the steps of the method when the program code is executed on a computer, as well as a storage medium on which a computer program is stored which, when it is on a computer is executed, causes an execution of the method described herein.

Bevorzugte Ausgestaltungen der Erfindung werden in den abhängigen Ansprüchen beschrieben. Es versteht sich, dass die vorgenannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen. Insbesondere können das System, das Verfahren und das Computerprogrammprodukt entsprechend der für die Vorrichtung in den abhängigen Ansprüchen beschriebenen Ausgestaltungen ausgeführt sein.Preferred embodiments of the invention are described in the dependent claims. It goes without saying that the features mentioned above and those yet to be explained below can be used not only in the respectively specified combination, but also in other combinations or on their own, without departing from the scope of the present invention. In particular, the system, the method and the computer program product can be implemented in accordance with the configurations described for the device in the dependent claims.

Erfindungsgemäß ist es vorgesehen, dass über eine Eingangsschnittstelle Daten eines Radarsensors empfangen werden. Insbesondere wird eine Radar-Zieleliste empfangen, in der verschiedene mittels eines Radarsensors detektierte Ziele enthalten sind. Die Radar-Zieleliste enthält dabei verschiedene Zieleparameter für jedes Ziel und wird vom Radarsensor zumeist in regelmäßigen Zeitabständen zur Verfügung gestellt. In der erfindungsgemäßen Vorrichtung wird eine akkumulierte Radar-Zieleliste erzeugt, die die empfangenen Radar-Zielelisten über mehrere Zeitschritte zusammenfasst. Hierdurch kann die Auflösung erhöht werden. Bei der Zusammenfassung wird eine Bewegung des Radarsensors zwischen dem Zeitpunkt des Erzeugens einer ersten Radar-Zieleliste und dem Zeitpunkt des Erzeugens einer zweiten Radar-Zieleliste basierend auf den Bewegungsdaten berücksichtigt bzw. kompensiert. Hierzu werden entsprechende Transformationen angewendet, um die Radar-Zielelisten verschiedener Detektionszeitpunkte in ein einheitliches, sensorfestes Koordinatensystem zu transformieren. Basierend auf der akkumulierten Radar-Zieleliste wird eine Rasterdarstellung der Umgebung des Fahrzeugs erzeugt. Insbesondere wird eine zweidimensionale Rasterdarstellung erzeugt. Die Radarziele werden einzelnen Zellen eines Rasters zugeordnet. Die Umgebung des Fahrzeugs wird insoweit diskretisiert. Ausgehend von dieser Rasterdarstellung wird eine Ergebnisliste erzeugt, die Angaben zu länglichen Objekten in der Umgebung des Fahrzeugs umfasst. Hierbei kann genau eine Rasterdarstellung verwendet werden. Ebenfalls ist es möglich, dass mehrere Rasterdarstellungen, die auf unterschiedlichen Parametern basieren, verwendet werden.According to the invention, it is provided that data from a radar sensor are received via an input interface. In particular, a radar target list is received which contains various targets detected by means of a radar sensor. The radar target list contains various target parameters for each target and is usually made available by the radar sensor at regular intervals. In the device according to the invention, an accumulated radar target list is generated which summarizes the received radar target lists over several time steps. This can increase the resolution. In the summary, a movement of the radar sensor between the time of generating a first radar target list and the time of generating a second radar target list is taken into account or compensated based on the movement data. Corresponding transformations are used for this purpose in order to transform the radar target lists of different detection times into a uniform, sensor-fixed coordinate system. Based on the accumulated radar target list, a raster representation of the surroundings of the vehicle is generated. In particular, a two-dimensional raster representation is generated. The radar targets are assigned to individual cells in a grid. The surroundings of the vehicle are thus discretized. On the basis of this raster representation, a list of results is generated that includes information on elongated objects in the vicinity of the vehicle. Exactly one grid display can be used here. It is also possible to use several raster representations based on different parameters.

Im Vergleich zu bisherigen Ansätzen, bei denen eine direkte Auswertung der Radar-Zieleliste ohne Akkumulierung über mehrere Zeitschritte vorgesehen ist, ermöglicht der erfindungsgemäße Ansatz eine verbesserte Auflösung und damit eine genauere und zuverlässigere Detektion. Durch die Verwendung einer Rasterdarstellung kann eine effiziente Berechenbarkeit erreicht werden. Gegenüber einer direkten Anwendung eines Objekterkennungsalgorithmus auf die Radar-Zieleliste bewirkt die Verwendung der Rasterdarstellung eine wesentlich verbesserte Berechenbarkeit. Hierdurch ist es möglich, eine zuverlässige und genaue Erkennung länglicher Objekte zu realisieren.Compared to previous approaches, in which a direct evaluation of the radar target list is provided without accumulation over several time steps, the approach according to the invention enables an improved resolution and thus a more precise and reliable detection. By using a raster representation, efficient calculability can be achieved. Compared to a direct application of an object recognition algorithm to the radar target list, the use of the raster display results in a significantly improved calculability. This makes it possible to realize a reliable and precise detection of elongated objects.

In einer bevorzugten Ausgestaltung ist die Eingangsschnittstelle zum Empfangen der Radar-Zieleliste mit einer Angabe eines Radarquerschnitts für ein Radarziel ausgebildet. Die Rastereinheit ist zum Erzeugen einer zweidimensionalen Radarquerschnitt-Rasterdarstellung ausgebildet. Eine Rasterzelle der Radarquerschnitt-Rasterdarstellung umfasst eine Angabe eines maximalen Radarquerschnitts, eines mittleren Radarquerschnitts, eines Quantils eines Radarquerschnitts und/oder eines Verlaufs eines Radarquerschnitts in einer Vertikalrichtung. Eine Radarquerschnitt-Rasterdarstellung kann auch als Radar Cross Section (RCS)-Grid bezeichnet werden. Der Radarquerschnitt einer Reflexion bzw. eines Ziels gibt an, wie stark Reflexionen des Ziels in Richtung des Radarsensors sind. Insbesondere bei metallischen pfostenartigen Objekten mit rundem Querschnitt (Verkehrsschilder) kann basierend auf dem Radarquerschnitt eine zuverlässige Objekterkennung durchgeführt werden. Verschiedene Parameter des Radarquerschnitts können dabei verwendet werden. Es ergibt sich eine zuverlässige Detektion von senkrecht stehenden Objekten mit rundem Querschnitt.In a preferred embodiment, the input interface is designed to receive the radar target list with an indication of a radar cross section for a radar target. The raster unit is designed to generate a two-dimensional radar cross-section raster representation. A raster cell of the radar cross-section raster display includes an indication of a maximum radar cross-section, an average radar cross-section, a quantile of a radar cross-section and / or a profile of a radar cross-section in a vertical direction. A radar cross-section raster representation can also be referred to as a Radar Cross Section (RCS) grid. The radar cross-section of a reflection or a target indicates how strong the target's reflections are in the direction of the radar sensor. In particular in the case of metallic post-like objects with a round cross-section (traffic signs), reliable object detection can be carried out based on the radar cross-section. Various parameters of the radar cross-section can be used. The result is a reliable detection of perpendicular objects with a round cross-section.

In einer bevorzugten Ausgestaltung ist die Rastereinheit zum Erzeugen einer zweidimensionalen Mehrwegeausbreitung-Rasterdarstellung ausgebildet. Eine Rasterzelle der Mehrwegeausbreitung-Rasterdarstellung umfasst ein Minimum einer vertikalen Objektausdehnung oberhalb und unterhalb einer geschätzten Untergrundebene. Es wird analysiert, ob ein Objekt sowohl in der direkten Reflexion als auch in einer indirekten Reflexion über eine Untergrundebene eine vergleichbare Größe aufweist. Stark reflektierende Objekte, wie beispielsweise senkrecht stehende metallische pfostenartige Objekte mit rundem Querschnitt weisen eine annähernd ebenso starke Reflexion über die Untergrundebene auf. Insoweit kann durch die Verwendung der Mehrwegeausbreitung-Rasterdarstellung ebenfalls eine zuverlässige Objekterkennung senkrecht stehender länglicher Objekte erfolgen.In a preferred embodiment, the raster unit is designed to generate a two-dimensional multipath raster representation. A grid cell of the multipath grid representation comprises a minimum of a vertical object extent above and below an estimated subsurface plane. It is analyzed whether an object has a comparable size both in the direct reflection and in an indirect reflection over a subsurface plane. Highly reflective objects, such as, for example, vertical metallic post-like objects with a round cross-section, have an almost equally strong reflection on the ground plane. In this respect, through the use of the multipath raster representation, a reliable object recognition of perpendicularly elongated objects can also take place.

In einer bevorzugten Ausgestaltung ist die Rastereinheit zum Erzeugen einer zweidimensionalen gewichteten Evidenz-Rasterdarstellung ausgebildet. Eine Rasterzelle der gewichteten Evidenz-Rasterdarstellung umfasst ein Verhältnis zwischen einer Anzahl an Radarzielen in verschiedenen Höhen an einer der Rasterzelle entsprechenden zweidimensionalen Position und einer erwarteten Anzahl an Radarzielen eines vertikalen länglichen Objekts. Die Rastereinheit ist zum Vorberechnen der erwarteten Anzahl an Radarzielen des vertikalen länglichen Objekts basierend auf einem aus der kumulierten Radar-Zieleliste ermittelten Höhenausdehnungswinkel und einer Winkelauflösung des Radarsensors ausgebildet. Eine gewichtete Evidenz-Rasterdarstellung entspricht dabei einer Darstellung, bei der ein Verhältnis zwischen einer Anzahl an erwarteten Detektionen für ein vertikales längliches Objekt und eine Anzahl an tatsächlichen Detektionen ausgewertet wird. Senkrecht stehende längliche Objekte (pfostenartige Objekte) weisen eine hohe Anzahl an Detektionen auf. Durch die Berücksichtigung des Verhältnisses kann eine hohe Zuverlässigkeit bei der Objekterkennung eines entsprechenden Objekts erreicht werden. Insbesondere ist es möglich, senkrecht stehende metallische Objekte mit rundem Querschnitt (Straßenlaternen, Verkehrsschilder etc.) zu identifizieren.In a preferred embodiment, the raster unit is designed to generate a two-dimensional weighted evidence raster display. A grid cell of the weighted evidence grid representation comprises a ratio between a number of radar targets at different heights at a two-dimensional position corresponding to the grid cell and an expected number of radar targets of a vertical elongated object. The raster unit is designed to precompute the expected number of radar targets of the vertical elongated object based on a height expansion angle determined from the cumulative radar target list and an angular resolution of the radar sensor. A weighted evidence raster representation corresponds to a representation in which a relationship between a number of expected detections for a vertical elongated object and a number of actual detections is evaluated. Vertically standing elongated objects (post-like objects) show a high number of detections. By taking the ratio into account, a high level of reliability can be achieved in the object recognition of a corresponding object. In particular, it is possible to identify vertical metallic objects with a round cross-section (street lamps, traffic signs, etc.).

In einer bevorzugten Ausgestaltung ist die Rastereinheit zum Erzeugen einer zweidimensionalen Evidenz-Rasterdarstellung ausgebildet. Eine Rasterzelle der Evidenz-Rasterdarstellung umfasst eine Anzahl an Radarzielen in verschiedenen Höhen an einer der Rasterzelle entsprechenden zweidimensionalen Position. Eine Evidenz-Rasterdarstellung (auch als Evidenzgrid bezeichnet) gibt dabei die Anzahl von Detektionen für eine bestimmte zweidimensionale Position an. Zweidimensionale Positionen mit höheren Anzahlen von Detektionen bzw. Radarzielen sind durch Objekte okkupiert. Durch die Verwendung einer zweidimensionalen Evidenz-Rasterdarstellung wird es möglich, auf diese zweidimensionale Darstellung Bildverarbeitungsalgorithmen anzuwenden, die eine effiziente Erkennung linienartiger Objekte, die horizontal verlaufen, ermöglichen.In a preferred embodiment, the raster unit is designed to generate a two-dimensional evidence raster display. A grid cell of the evidence grid display comprises a number of radar targets at different heights at a two-dimensional position corresponding to the grid cell. An evidence grid display (also referred to as an evidence grid) indicates the number of detections for a specific two-dimensional position. Two-dimensional positions with a higher number of detections or radar targets are occupied by objects. The use of a two-dimensional evidence raster representation makes it possible to apply image processing algorithms to this two-dimensional representation, which enable an efficient detection of line-like objects that run horizontally.

In einer bevorzugten Ausgestaltung ist die Auswerteeinheit zum Ermitteln einer Ergebnisliste mit Angaben zu vertikalen länglichen Objekten basierend auf einer Hochpunktdetektion in der mindestens einen Rasterdarstellung ausgebildet. Alternativ oder zusätzlich ist es möglich, dass ein Entscheidungsbaum-Algorithmus verwendet wird. Weiterhin alternativ oder zusätzlich ist es möglich, dass ein vortrainierter lernender Algorithmus verwendet wird. Insbesondere können vertikale längliche Objekte identifiziert werden. Besonders vorteilhaft ist es, wenn pfostenartige vertikale längliche Objekte identifiziert werden, die einen runden Querschnitt aufweisen und aus Metall bestehen. Derartige Objekte können beispielsweise Teile von Straßenlaternen, Verkehrsschildern oder Fahrbahnbegrenzungen sein. Solche Objekte sind zumeist stationär und können dabei vorteilhaft zur Selbstlokalisierung verwendet werden. Derartige Objekte können mit hoher Zuverlässigkeit erkannt werden.In a preferred embodiment, the evaluation unit is designed to determine a list of results with information on vertical elongated objects based on a high point detection in the at least one raster representation. Alternatively or additionally it is possible that a decision tree algorithm is used. Furthermore, as an alternative or in addition, it is possible that a pre-trained learning algorithm is used. In particular, vertical elongated objects can be identified. It is particularly advantageous if post-like, vertical elongated objects are identified which have a round cross section and are made of metal. Such objects can be, for example, parts of street lamps, traffic signs or lane boundaries. Such objects are mostly stationary and can advantageously be used for self-localization. Such objects can be recognized with high reliability.

In einer bevorzugten Ausgestaltung ist die Auswerteeinheit zum Ermitteln einer Ergebnisliste mit Angaben zu horizontalen länglichen Objekten basierend auf einer Anwendung eines Computervisionsansatzes auf die mindestens eine Rasterdarstellung ausgebildet. Durch die Verwendung eines Computervisionsansatzes kann eine effiziente Berechnung sichergestellt werden. Eine hohe Aktualisierungsrate kann umgesetzt werden. Horizontal verlaufende längliche Objekte können insbesondere parallel zu einer Untergrundebene verlaufen. Beispielsweise können Leitplanken oder andere Fahrbahnbegrenzungen mit hoher Zuverlässigkeit erkannt werden.In a preferred embodiment, the evaluation unit is designed to determine a list of results with information on horizontal elongated objects based on an application of a computer vision approach to the at least one raster display. Using a computer vision approach can ensure efficient computation. A high update rate can be implemented. Elongated objects running horizontally can in particular run parallel to a ground plane. For example, crash barriers or other road boundaries can be recognized with high reliability.

In einer bevorzugten Ausgestaltung ist die Auswerteeinheit zum Zuordnen der länglichen Objekte zu vordefinierten Objektklassen ausgebildet. Die Ergebnisliste umfasst neben der Objektklasse vorzugsweise eine Zuordnungskonfidenz, die eine Zuverlässigkeit der Zuordnung angibt. Durch die Klassifizierung kann in der Weiterverarbeitung eine dem jeweiligen Objekt angepasste Reaktion des autonomen oder teilautonomen Fahrzeugs erfolgen. Zudem ist es möglich, dass die erkannten Objektklassen für die Weiterverarbeitung in der Umfelderkennung verwendet werden. Wenn zusätzlich eine Zuordnungskonfidenz berechnet wird, kann eine Anpassung bei der weiteren Verarbeitung vorgenommen werden. Die Zuverlässigkeit kann verbessert werden.In a preferred embodiment, the evaluation unit is designed to assign the elongated objects to predefined object classes. In addition to the object class, the result list preferably includes an assignment confidence which indicates the reliability of the assignment. Due to the classification, a dem response of the autonomous or semi-autonomous vehicle adapted to the respective object. It is also possible that the recognized object classes are used for further processing in the environment recognition. If an assignment confidence is also calculated, an adjustment can be made during further processing. The reliability can be improved.

In einer bevorzugten Ausgestaltung ist die Auswerteeinheit zum Zuordnen der länglichen Objekte zu vordefinierten Objektklassen basierend auf einer zweidimensionalen Position des erkannten länglichen Objekts in Bezug zu einer voraussichtlichen Trajektorie des Radarsensors ausgebildet. Zusätzlich oder alternativ ist die Auswerteeinheit zum Zuordnen der länglichen Objekte zu vordefinierten Objektklassen basierend auf einem Klassifikator ausgebildet, der vorzugsweise basierend auf Lidardaten eines Lidarsensors vortrainiert ist. Es ist möglich, dass die Position eines erkannten länglichen Objekts im Vergleich zu einer voraussichtlichen zukünftigen Trajektorie des Radarsensors bzw. des Fahrzeugs bei der Objektklassifizierung verwendet wird. Hierbei kann beispielsweise vorausgesetzt werden, dass Objekte, die sich in unmittelbarer Nähe der Fahrbahn bzw. der voraussichtlichen Trajektorie befinden, mit höherer Wahrscheinlichkeit Fahrbahnbegrenzungen sind. Zudem können Annahmen hinsichtlich der Anordnung von Verkehrsschildern oder ähnlichen Objekten getroffen und bei der Klassifikation berücksichtigt werden. Vorzugsweise kann der Klassifikator basierend auf Daten eines anderen Sensors vortrainiert sein. Insbesondere können Lidardaten verwendet werden, die eine hochgenaue Objekterkennung ermöglichen.In a preferred embodiment, the evaluation unit is designed to assign the elongated objects to predefined object classes based on a two-dimensional position of the recognized elongated object in relation to a probable trajectory of the radar sensor. Additionally or alternatively, the evaluation unit is designed to assign the elongated objects to predefined object classes based on a classifier, which is preferably pre-trained based on lidar data from a lidar sensor. It is possible for the position of a recognized elongate object to be used in the object classification in comparison to a probable future trajectory of the radar sensor or of the vehicle. It can be assumed here, for example, that objects which are in the immediate vicinity of the roadway or the probable trajectory are more likely to be roadway boundaries. In addition, assumptions can be made with regard to the arrangement of traffic signs or similar objects and taken into account in the classification. The classifier can preferably be pre-trained based on data from another sensor. In particular, lidar data can be used that enable highly precise object recognition.

In einer bevorzugten Ausgestaltung ist die Eingangsschnittstelle zum Empfangen von Kameradaten einer Kamera mit Informationen zu länglichen Objekten in der Umgebung des Fahrzeugs ausgebildet. Die Auswerteeinheit ist zum Zuordnen der länglichen Objekte zu vordefinierten Objektklassen basierend auf einer semantischen Segmentierung anhand der Kameradaten ausgebildet. Es ist möglich, dass zusätzliche Daten einer Kamera berücksichtigt werden, um die Klassifizierung zu verbessern. In a preferred embodiment, the input interface is designed to receive camera data from a camera with information on elongated objects in the vicinity of the vehicle. The evaluation unit is designed to assign the elongated objects to predefined object classes based on semantic segmentation using the camera data. It is possible for additional data from a camera to be taken into account in order to improve the classification.

Hierzu kann insbesondere eine semantische Segmentierung zum Einsatz kommen, die eine zuverlässige Objekterkennung ermöglicht.In particular, semantic segmentation can be used for this, which enables reliable object recognition.

In einer bevorzugten Ausgestaltung ist die Auswerteeinheit zum Ermitteln einer Erkennungskonfidenz für ein längliches Objekt ausgebildet, die eine Zuverlässigkeit der Erkennung angibt. Zudem ist die Auswerteeinheit zum Entfernen erkannter länglicher Objekte aus der Ergebnisliste, die innerhalb einer vordefinierten unmittelbaren Nachbarschaft eines länglichen Objekts mit einer höheren Erkennungskonfidenz liegen, ausgebildet. Es ergibt sich eine Überarbeitung der Ergebnisliste, bei der Objekte nach der Zuverlässigkeit ihrer Erkennung sortiert werden. Objekte, die in unmittelbarer Nachbarschaft eines anderen Objekts liegen, werden wieder aus der Ergebnisliste entfernt. Hierdurch können doppelt vorhandene Objekte bzw. Fehldetektionen oder Doppeldetektionen erkannt und vermieden werden. Ein Objekt wird in der Ergebnisliste möglichst genau einmal abgebildet.In a preferred embodiment, the evaluation unit is designed to determine a recognition confidence for an elongated object, which indicates the reliability of the recognition. In addition, the evaluation unit is designed to remove recognized elongated objects from the list of results which are located within a predefined immediate vicinity of an elongated object with a higher recognition confidence. The result list has been revised, in which objects are sorted according to the reliability of their recognition. Objects that are in the immediate vicinity of another object are removed from the result list. As a result, duplicate objects or incorrect detections or duplicate detections can be recognized and avoided. An object is shown as precisely as possible in the results list.

In einer bevorzugten Ausgestaltung ist die Eingangsschnittstelle zum Empfangen der Bewegungsdaten von einem Fahrzeugodometriesystem und/oder von einem Positionssensor ausgebildet. Als Fahrzeugodometriesystem kann insbesondere ein inertialsensorbasiertes System verwendet werden. Ebenfalls ist es möglich, dass Ansätze der Koppelnavigation verwendet werden. Das Fahrzeugodometriesystem gibt eine Information über eine Bewegung des Fahrzeugs zwischen zwei Zeitschritten aus. Diese Information kann dann dazu verwendet werden, eine Transformation der zu den zwei Zeitpunkten erzeugten Radar-Zielelisten in ein sensor- bzw. fahrzeugfestes Koordinatensystem vorzunehmen. Ebenfalls ist es möglich, dass Daten eines Positionssensors verwendet werden. Es ergibt sich eine zuverlässige Erkennung der Bewegung des Fahrzeugs und eine genaue Transformation bei der Erzeugung der akkumulierten Radar-Zieleliste.In a preferred embodiment, the input interface is designed to receive the movement data from a vehicle odometry system and / or from a position sensor. In particular, an inertial sensor-based system can be used as the vehicle odometry system. It is also possible that dead reckoning approaches are used. The vehicle odometry system outputs information about a movement of the vehicle between two time steps. This information can then be used to transform the radar target lists generated at the two points in time into a coordinate system that is fixed to the sensor or vehicle. It is also possible for data from a position sensor to be used. The result is a reliable detection of the movement of the vehicle and an accurate transformation in the generation of the accumulated radar target list.

In einer bevorzugten Ausgestaltung ist die Rastereinheit zum Anwenden eines zweidimensionalen Filters, insbesondere eines Gaußfilters, auf die erzeugte mindestens eine Rasterdarstellung ausgebildet. Durch die Verwendung eines Gaußfilters kann eine Glättung erfolgen. Bei nachfolgenden Verarbeitungsschritten kann eine Objekterkennung mit höherer Genauigkeit durchgeführt werden.In a preferred embodiment, the raster unit is designed to apply a two-dimensional filter, in particular a Gaussian filter, to the generated at least one raster representation. The use of a Gaussian filter can be used for smoothing. In subsequent processing steps, object recognition can be carried out with higher accuracy.

Ein längliches Objekt kann insbesondere ein gerade verlaufendes linien- oder pfostenartiges Objekt sein. Beispielsweise können (senkrecht stehende) Pfosten von Verkehrszeichen oder von Fahrbahnbegrenzungen oder auch (horizontal verlaufende) Leitplanken längliche Objekte darstellen. Unter einem horizontalen länglichen Objekt versteht sich dabei ein Objekt, das im Wesentlichen horizontal zu einem Untergrund verläuft. Unter einem vertikalen länglichen Objekt versteht sich dabei ein Objekt, das im Wesentlichen senkrecht auf der Untergrundebene (Straßenebene) steht. Insbesondere können gerade Objekte erkannt werden.An elongated object can in particular be a straight line or post-like object. For example, (vertical) posts of traffic signs or of lane boundaries or also (horizontally running) crash barriers can represent elongated objects. A horizontally elongated object is understood to mean an object that runs essentially horizontally to a subsurface. A vertical elongated object is understood to mean an object that is essentially perpendicular to the underground level (street level). In particular, objects can be recognized.

Ein Radarsensor sendet ein Radarsignal aus und empfängt Reflexionen des Radarsignals an Objekten (auch als Ziele bezeichnet) innerhalb eines Sichtfelds des Radarsensors. Das Sichtfeld bezeichnet ein Gebiet, innerhalb dessen Objekte erfasst werden können. Ein Radarsensor kann mehrere Einzelsensoren umfassen, die beispielsweise eine 360°-Rundumsicht ermöglichen und somit ein vollständiges Abbild der Umgebung eines Fahrzeugs aufzeichnen können. Eine Radar-Zieleliste kann auch als Punktewolke bezeichnet werden und entspricht einer von einem aktuellen Radarsensor ausgegebenen Liste von Detektionen dieses Radarsensors. Die Liste umfasst für eine einzelne Detektion mehrere Parameter. Insbesondere kann die Radar-Zieleliste Winkelangaben (Azimut, Elevation) sowie einen Abstand (Range), eine Radial- bzw. Dopplergeschwindigkeit und auch einen Radarquerschnitt umfassen.A radar sensor sends out a radar signal and receives reflections of the radar signal from objects (also known as targets) within a field of view of the radar sensor. The field of view describes an area within which objects can be detected. A radar sensor can comprise several individual sensors, which, for example, have a 360 ° Enabling all-round visibility and thus being able to record a complete image of the surroundings of a vehicle. A radar target list can also be referred to as a point cloud and corresponds to a list of detections of this radar sensor output by a current radar sensor. The list includes several parameters for a single detection. In particular, the radar target list can include angle information (azimuth, elevation) as well as a distance (range), a radial or Doppler speed and also a radar cross section.

Unter einer Rasterdarstellung versteht sich eine Darstellung als Gitter (Grid), bei der verschiedene Radarziele bzw. Scanpunkte eines Radarsensors anhand ihrer Parameter zu (diskreten) Rasterzellen des Grids zugeordnet werden. Grundsätzlich kann eine Rasterdarstellung zwei- oder dreidimensional sein. Vorzugsweise wird hierin als Rasterdarstellung ein parallel zu einer Bodenebene bzw. zu einer Horizontalebene des Fahrzeugs verlaufendes zweidimensionales Gitter verwendet. Unter einer Rasterdarstellung wird insoweit eine Modellierung eines Umfelds eines Fahrzeugs verstanden. Jede Rasterzelle enthält Informationen über Detektionen von Objekten innerhalb des von der Rasterzelle repräsentierten Bereichs der Umgebung des Fahrzeugs. Insoweit entspricht eine Rasterdarstellung einer Diskretisierung der Radar-Zieleliste. Durch die Rasterdarstellung kann insbesondere ein Bereich vor dem Fahrzeug abgebildet werden. Eine Ergebnisliste enthält die erkannten länglichen Objekte. Insbesondere können für die Objekte Parameter wie Position oder auch Art und Konfidenz in der Ergebnisliste enthalten sein.A grid display is understood to mean a display as a grid, in which different radar targets or scan points of a radar sensor are assigned to (discrete) grid cells of the grid on the basis of their parameters. Basically, a raster representation can be two or three dimensional. A two-dimensional grid running parallel to a floor plane or to a horizontal plane of the vehicle is preferably used here as the raster representation. A raster representation is understood to mean modeling of the surroundings of a vehicle. Each grid cell contains information about the detection of objects within the area of the surroundings of the vehicle represented by the grid cell. In this respect, a raster representation corresponds to a discretization of the radar target list. In particular, an area in front of the vehicle can be mapped through the grid display. A list of results contains the recognized elongated objects. In particular, parameters such as position or type and confidence can be contained in the result list for the objects.

Die Erfindung wird nachfolgend anhand einiger ausgewählter Ausführungsbeispiele im Zusammenhang mit den beiliegenden Zeichnungen näher beschrieben und erläutert. Es zeigen:

  • 1 eine schematische Darstellung eines erfindungsgemäßen Systems;
  • 2 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung;
  • 3 eine schematische Darstellung einer Darstellung verschiedener Radarziele in einer Evidenz-Rasterdarstellung;
  • 4 eine schematische Darstellung eines Reflexionspfads über die Bodenebene;
  • 5 eine schematische Darstellung eines weiteren Reflexionspfads über die Bodenebene für ein höheres Objekt;
  • 6 eine schematische Darstellung einer Detektion von pfostenartigen Objekten nach der vorliegenden Erfindung;
  • 7 eine schematische Darstellung eines Fahrzeugs mit einem erfindungsgemäßen System; und
  • 8 eine schematische Darstellung eines erfindungsgemäßen Verfahrens.
The invention is described and explained in more detail below using a few selected exemplary embodiments in connection with the accompanying drawings. Show it:
  • 1 a schematic representation of a system according to the invention;
  • 2 a schematic representation of a device according to the invention;
  • 3rd a schematic representation of a representation of various radar targets in an evidence raster representation;
  • 4th a schematic representation of a reflection path over the ground plane;
  • 5 a schematic representation of a further reflection path over the ground plane for a higher object;
  • 6th a schematic representation of a detection of post-like objects according to the present invention;
  • 7th a schematic representation of a vehicle with a system according to the invention; and
  • 8th a schematic representation of a method according to the invention.

In der 1 ist schematisch ein erfindungsgemäßes System 10 zum Erkennen von länglichen Objekten 12 in einer Umgebung eines Fahrzeugs 14 dargestellt. Das System 10 umfasst eine Vorrichtung 16 sowie einen Radarsensor 18, die im dargestellten Ausführungsbeispiel beide in das Fahrzeug 14 integriert sind. Über den Radarsensor 18 werden verschiedene Objekte in der Umgebung des Fahrzeugs 14 erfasst. In der Vorrichtung 16 werden basierend auf den Radar-Zielelisten, die der Radarsensor zu verschiedenen Zeitpunkten erzeugt, längliche Objekte 12 in der Umgebung des Fahrzeugs 14 erkannt. Insbesondere wird in der Vorrichtung 16 eine Ergebnisliste erzeugt, die in nachgelagerten Verarbeitungsschritten verwendet werden kann, um eine Reaktion eines autonomen oder teilautonomen Fahrzeugs an Umgebungsbedingungen anzupassen oder um eine Lokalisierung des Fahrzeugs 14 in Bezug zu der Umgebung vorzunehmen.In the 1 is schematically a system according to the invention 10 for recognizing elongated objects 12th in an environment of a vehicle 14th shown. The system 10 includes a device 16 as well as a radar sensor 18th , which in the illustrated embodiment both in the vehicle 14th are integrated. Via the radar sensor 18th become different objects around the vehicle 14th detected. In the device 16 elongated objects are created based on the radar target lists that the radar sensor generates at different times 12th in the vicinity of the vehicle 14th recognized. In particular, in the device 16 generates a list of results that can be used in downstream processing steps to adapt a reaction of an autonomous or semi-autonomous vehicle to ambient conditions or to localize the vehicle 14th in relation to the environment.

Der Ansatz der vorliegenden Erfindung bezieht sich dabei insbesondere auf eine Detektion von länglichen Objekten. Einerseits können vertikal verlaufende längliche Objekte, wie beispielsweise Pfosten oder pfostenartige Objekte erkannt werden. Andererseits können horizontal verlaufende längliche Objekte wie beispielsweise Leitplanken o. ä. erkannt werden. Insbesondere ist es erfindungsgemäß vorteilhaft möglich, metallische Objekte mit rundem Querschnitt, die senkrecht stehen, zu erkennen. Beispielsweise können Verkehrszeichen- oder Ampelfüße mit hoher Zuverlässigkeit erkannt werden.The approach of the present invention relates in particular to the detection of elongated objects. On the one hand, elongated objects running vertically, such as posts or post-like objects, can be recognized. On the other hand, horizontally extending elongated objects such as guardrails or the like can be recognized. In particular, it is advantageously possible according to the invention to recognize metallic objects with a round cross section that are perpendicular. For example, the feet of traffic signs or traffic lights can be recognized with high reliability.

In der 2 ist schematisch eine erfindungsgemäße Vorrichtung 16 dargestellt. Die Vorrichtung 16 umfasst eine Eingangsschnittstelle 20, eine Akkumulationseinheit 22, eine Rastereinheit 24 und eine Auswerteeinheit 26. Die erfindungsgemäße Vorrichtung kann beispielsweise in ein Fahrzeugsteuergerät integriert sein bzw. als Teil eines Fahrassistenzsystems ausgebildet sein oder auch als separates Modul implementiert sein. Es ist möglich, dass die erfindungsgemäße Vorrichtung 16 teilweise oder vollständig in Soft- und/oder in Hardware umgesetzt ist. Die verschiedenen Einheiten und Schnittstellen können einzeln oder kombiniert als Prozessor, Prozessormodul oder Software für einen Prozessor ausgebildet sein.In the 2 is schematically a device according to the invention 16 shown. The device 16 includes an input interface 20th , a unit of accumulation 22nd , a grid unit 24 and an evaluation unit 26th . The device according to the invention can, for example, be integrated into a vehicle control device or be designed as part of a driver assistance system or also be implemented as a separate module. It is possible that the device according to the invention 16 is partially or completely implemented in software and / or hardware. The various units and interfaces can be designed individually or in combination as a processor, processor module or software for a processor.

Über die Eingangsschnittstelle 20 werden Radar-Zielelisten eines Radarsensors empfangen. Hierzu kann die Eingangsschnittstelle 20 beispielsweise an ein Fahrzeugbussystem angebunden sein. Die Eingangsschnittstelle 20 kann als Steckverbindung in Hardware umgesetzt sein oder auch als Softwareschnittstelle zum Datenempfang ausgebildet sein. Die empfangenen Radar-Zielelisten umfassen Informationen zu detektierten Radarzielen in der Umgebung des Fahrzeugs. Insbesondere können die Radar-Zielelisten von einem Radarsensor empfangen werden, der im Bereich einer vorderen Stoßstange an ein Fahrzeug angebracht ist. Weiterhin werden über die Eingangsschnittstelle Bewegungsdaten mit Informationen zu einer Bewegung des Radarsensors gegenüber der Umgebung empfangen. Insbesondere können Bewegungsdaten mit einer Information über eine Bewegung des Fahrzeugs empfangen werden. Hierzu kann beispielsweise die Eingangsschnittstelle 20 an ein Fahrzeugodometriesystem angebunden sein. Ebenfalls ist es möglich, dass die Eingangsschnittstelle 20 an einen entsprechenden Positionssensor (GPS, GLONASS, Galileo etc.) angebunden ist.Via the input interface 20th radar target lists from a radar sensor are received. The input interface 20th be connected to a vehicle bus system, for example. The input interface 20th can as Plug connection can be implemented in hardware or designed as a software interface for receiving data. The received radar target lists contain information on detected radar targets in the vicinity of the vehicle. In particular, the radar target lists can be received by a radar sensor which is attached to a vehicle in the area of a front bumper. Furthermore, movement data with information on a movement of the radar sensor in relation to the environment are received via the input interface. In particular, movement data can be received with information about movement of the vehicle. For example, the input interface 20th be connected to a vehicle odometry system. It is also possible that the input interface 20th is connected to a corresponding position sensor (GPS, GLONASS, Galileo etc.).

In der Akkumulationseinheit 22 werden die Radar-Zielelisten über die Zeit zusammengefasst. Insoweit werden mehrere Radar-Zielelisten in einem sensorfesten bzw. fahrzeugfesten Koordinatensystem kombiniert. Hierdurch kann eine erhöhte Auflösung erreicht werden. Ein sensorfestes Koordinatensystem ist dabei fest hinsichtlich der Ausrichtung und Position in Bezug auf den Radarsensor bzw. das Fahrzeug. Das sensorfeste Koordinatensystem ist insoweit ein Abbild der Umgebung wie sie vom Sensor aus observiert wird. Einerseits bewegt sich das Fahrzeug und somit ein am eigenen Fahrzeug befestigter Radarsensor zwischen den Detektionen des Radarsensors fort, sodass sich die relative Position statischer Ziele ändert. Andererseits kann sich auch die vom Radarsignal getroffene Oberfläche des Objekts ändern, sodass sich andere Einfallswinkel der reflektierten Radarsignale ergeben.In the accumulation unit 22nd the radar target lists are summarized over time. To this extent, several radar target lists are combined in a sensor-fixed or vehicle-fixed coordinate system. This allows an increased resolution to be achieved. A sensor-fixed coordinate system is fixed with regard to the orientation and position in relation to the radar sensor or the vehicle. The sensor-fixed coordinate system is an image of the environment as it is observed by the sensor. On the one hand, the vehicle and thus a radar sensor attached to the own vehicle moves between the detections of the radar sensor, so that the relative position of static targets changes. On the other hand, the surface of the object hit by the radar signal can also change, so that other angles of incidence of the reflected radar signals result.

Um Radar-Zielelisten des Radarsensors, die zu mehreren aufeinanderfolgenden Zeitpunkten erzeugt wurden, akkumulieren zu können, ist es erforderlich, eine entsprechende (Koordinaten-) Transformation vorzunehmen. Nach jedem Aktualisierungsschritt der akkumulierten Radar-Zieleliste wird eine Transformation in die Rasterdarstellung basierend auf der ausgewählten Art des Rasters durchgeführt. Die entsprechende Koordinatentransformation kann insbesondere durch eine Translations- und eine Rotationsmatrix ausgedrückt werden. Die Koordinatentransformation kann beispielsweise ausgehend von der Geschwindigkeit des eigenen Fahrzeugs und einer gemessenen Drehrate berechnet werden. Ebenfalls ist es möglich, ein GPS-System oder ein anderes Bewegungsschätzsystem zu verwenden. Für die Kompensation der Bewegung bzw. für die Transformation können insoweit ein dreidimensionaler Geschwindigkeitsvektor des Fahrzeugs 14 sowie dreidimensionale Winkeldrehraten des Fahrzeugs 14 verwendet werden (Bewegungsdaten). Diese Daten können mittels entsprechender Bewegungsschätzmethoden ermittelt werden. Die erzeugte akkumulierte Radar-Zieleliste basiert dabei beispielsweise auf einer vordefinierten Anzahl der letzten Radarziele. Ältere Radarziele werden von der akkumulierten Radar-Zieleliste entfernt. Durch die Akkumulation wird die Auflösung des verwendeten Radarsensors virtuell verbessert.In order to be able to accumulate radar target lists of the radar sensor that were generated at several successive points in time, it is necessary to carry out a corresponding (coordinate) transformation. After each step of updating the accumulated radar target list, a transformation into the raster display is carried out based on the selected type of raster. The corresponding coordinate transformation can in particular be expressed by a translation matrix and a rotation matrix. The coordinate transformation can, for example, be calculated on the basis of the speed of one's own vehicle and a measured rate of rotation. It is also possible to use a GPS system or another motion estimation system. A three-dimensional speed vector of the vehicle can be used to compensate for the movement or for the transformation 14th as well as three-dimensional angular rotation rates of the vehicle 14th used (movement data). These data can be determined using appropriate motion estimation methods. The accumulated radar target list generated is based, for example, on a predefined number of the last radar targets. Older radar targets are removed from the accumulated radar target list. The accumulation virtually improves the resolution of the radar sensor used.

In der Rastereinheit 24 wird basierend auf der akkumulierten Radar-Zieleliste mindestens eine Rasterdarstellung der Umgebung des Fahrzeugs erzeugt. Hierzu wird eine Diskretisierung der Radar-Zieleliste (auch als Punktewolke bezeichnet) vorgenommen. Unter einer Diskretisierung versteht sich dabei eine Zuordnung der einzelnen Einträge der akkumulierten Radar-Zieleliste zu Zellen eines vordefinierten Rasters. Beispielsweise kann ein Raster mit einer Zellengröße von einem halben Meter verwendet werden. Insbesondere kann ein zweidimensionales Raster erzeugt werden.In the grid unit 24 at least one raster representation of the surroundings of the vehicle is generated based on the accumulated radar target list. For this purpose, the radar target list (also referred to as a point cloud) is discretized. A discretization is understood to mean an assignment of the individual entries of the accumulated radar target list to cells of a predefined grid. For example, a grid with a cell size of half a meter can be used. In particular, a two-dimensional grid can be generated.

In der Vorverarbeitung der Rasterdarstellung kann ein zweidimensionales Filter (beispielsweise ein Gaußfilter) verwendet werden, um eine dichtere Bilddarstellung zu erreichen. Hierdurch kann die Detektionsleistung eines entsprechenden Computervisionsansatzes verbessert werden.A two-dimensional filter (for example a Gaussian filter) can be used in the preprocessing of the raster representation in order to achieve a denser image representation. This can improve the detection performance of a corresponding computer vision approach.

In der Auswerteeinheit 26 wird basierend auf dieser mindestens einen Rasterdarstellung eine Ergebnisliste generiert, die Angaben zu länglichen Objekten in der Umgebung des Fahrzeugs umfasst. Hierzu kann die Auswerteeinheit 26 insbesondere dazu ausgebildet sein, einen Algorithmus der Bildverarbeitung bzw. der Computervision (Computerbildverarbeitung) auf die Rasterdarstellung anzuwenden. Insbesondere ist es möglich, dass eine Pfosten- und/oder Linienextraktion durchgeführt wird.In the evaluation unit 26th a result list is generated based on this at least one raster representation, which includes information on elongated objects in the vicinity of the vehicle. The evaluation unit 26th be designed in particular to apply an algorithm of image processing or computer vision (computer image processing) to the raster display. In particular, it is possible for a post and / or line extraction to be carried out.

Für die Detektion von Pfosten (vertikal ausgerichteten länglichen Objekten) kann beispielsweise ein Ansatz wie der Adaptive and Generic Accelerated Segment Test (AGAST) der TU München verwendet werden, der auf eine Signal-zu-Rausch-Verhältnis Rasterdarstellung angewendet werden kann.For the detection of posts (vertically aligned elongated objects), for example, an approach such as the Adaptive and Generic Accelerated Segment Test (AGAST) of the Technical University of Munich can be used, which can be applied to a signal-to-noise ratio raster display.

Zur Extraktion von länglichen Objekten, die vertikal und im Wesentlichen parallel zum Untergrund verlaufen, können verschiedene Linienerkennungsalgorithmen der Computervision verwendet werden. Beispielsweise können hierzu folgende Algorithmen verwendet werden: Hough, Iterative Hough, LSD. Ebenfalls ist es möglich, dass Ansätze des maschinellen Lernens verwendet werden. Die Auswerteeinheit 26 kann die ermittelte Ergebnisliste dann an ein entsprechendes Fahrzeugsteuergerät übermitteln, das die Informationen dann dem Fahrzeugführer zur Verfügung stellt oder eine entsprechende weitere Verarbeitung durchführt.Various line recognition algorithms of computer vision can be used to extract elongated objects that run vertically and essentially parallel to the ground. For example, the following algorithms can be used for this purpose: Hough, Iterative Hough, LSD. It is also possible that machine learning approaches are used. The evaluation unit 26th can then transmit the ascertained list of results to a corresponding vehicle control device, which then makes the information available to the vehicle driver or carries out corresponding further processing.

Es ist möglich, die detektierten länglichen Objekte zu klassifizieren. Hierzu kann beispielsweise ein zonenbasiertes Konzept verwendet werden. Linien oder andere längliche Objekte, die sich in der Nähe einer voraussichtlichen Trajektorie des eigenen Fahrzeugs befinden, sind mit hoher Wahrscheinlichkeit Fahrbahnbegrenzungen. Andere Linien oder längliche Objekte sind mit hoher Wahrscheinlichkeit Gebäudeteile oder andere strukturelle Elemente.It is possible to classify the detected elongated objects. For example, a zone-based concept can be used for this purpose. Lines or other elongated objects that are in the vicinity of a probable trajectory of the own vehicle are very likely to be the lane boundaries. Other lines or elongated objects are most likely parts of buildings or other structural elements.

In der Ergebnisliste können Merkmale bzw. Linien mit einem entsprechenden Referenzwert im sensor- bzw. fahrzeugfesten zweidimensionalen Koordinatensystem zusammen mit den zugehörigen Eigenschaften wie beispielsweise dem Radius für ein vertikales längliches Objekt (Pfosten) erfasst werden. Für ein vertikales längliches Objekt können beispielsweise eine Polynomdarstellung oder ein Punkt zusammen mit einer Länge gespeichert werden. Zudem können sowohl für den Referenzpunkt als auch für die entsprechenden Eigenschaften Unsicherheiten ergänzt werden.In the result list, features or lines with a corresponding reference value in the two-dimensional coordinate system fixed to the sensor or vehicle can be recorded together with the associated properties such as the radius for a vertical elongated object (post). For a vertical elongated object, for example, a polynomial representation or a point can be saved together with a length. In addition, uncertainties can be added both for the reference point and for the corresponding properties.

Es ist möglich, für die Klassifizierung auf weitere Sensortechnologien zuzugreifen. Beispielsweise kann nachgelagert eine kamerabasierte semantische Segmentierung basierend auf den detektierten Merkmalen durchgeführt werden, um eine genaue Klassifizierung zu erreichen. Hierzu können die detektierten länglichen Objekte in ein Kameraframe projektiert werden, um eine semantische Segmentierung anzuwenden. It is possible to access other sensor technologies for the classification. For example, a camera-based semantic segmentation based on the detected features can be carried out downstream in order to achieve a precise classification. For this purpose, the detected elongated objects can be projected into a camera frame in order to apply semantic segmentation.

Zudem ist es möglich, auf Ansätze des maschinellen Lernens zuzugreifen. Basierend hierauf können längliche Objekte und insbesondere Linien und Pfosten mit höherer Genauigkeit sowie mit höherer Berechnungseffizienz detektiert werden. Als Trainingsdaten können beispielsweise detektierte Linien oder Pfosten eines hochauflösenden Lidarsystems verwendet werden.It is also possible to access machine learning approaches. Based on this, elongated objects and in particular lines and posts can be detected with higher accuracy and with higher calculation efficiency. For example, detected lines or posts of a high-resolution lidar system can be used as training data.

In der 3 ist beispielhaft schematisch die Erzeugung einer zweidimensionalen Evidenz-Rasterdarstellung dargestellt. Die drei Darstellungen sind dabei als vogelperspektivische Darstellungen des Fahrzeugs 14 und eines Bereichs vor dem Fahrzeug zu verstehen. Im Sichtfeld 28 eines Radarsensors am Fahrzeug 14 befindet sich ein Objekt 13, an dem sich wiederum mehrere Radarziele 30 befinden. Zu mehreren, zeitlich aufeinander folgenden Zeitpunkten werden Radar-Zielelisten des Radarsensors empfangen, die jeweils Informationen über die detektierten Radarziele umfassen. In der mittleren Darstellung ist eine Rasterdarstellung 32 in kartesischen Koordinaten angedeutet, die einen Bereich vor dem Fahrzeug umfasst. Das Objekt 12 liegt innerhalb der Rasterdarstellung. Wie auf der rechten Seite angedeutet, werden im dargestellten Beispiel in die einzelnen Zellen der Rasterdarstellung die Anzahl an Radarzielen innerhalb der Zelle eingetragen.In the 3rd the generation of a two-dimensional evidence raster display is shown schematically as an example. The three representations are a bird's-eye view of the vehicle 14th and an area in front of the vehicle. In the field of vision 28 a radar sensor on the vehicle 14th there is an object 13th , which in turn has multiple radar targets 30th are located. Radar target lists from the radar sensor are received at a number of successive points in time, each of which includes information about the detected radar targets. In the middle representation is a raster representation 32 indicated in Cartesian coordinates, which includes an area in front of the vehicle. The object 12th lies within the grid display. As indicated on the right-hand side, in the example shown, the number of radar targets within the cell is entered in the individual cells of the grid display.

Alternativ wäre es auch möglich, in einer Rasterdarstellung 32 Minimumwerte, Maximumwerte, Medianwerte, Mittelwerte eines Signal-zu-Rausch-Verhältnisses (SNR-Grid) oder eines Radarquerschnitts (RCS-Grid) einzutragen.Alternatively, it would also be possible in a grid display 32 Enter minimum values, maximum values, median values, mean values of a signal-to-noise ratio (SNR grid) or a radar cross section (RCS grid).

In der 4 ist beispielhaft die Auswirkung einer Reflexion am Untergrund auf ein empfangenes Radarsignal abgebildet. Ein relevanter Unterschied zwischen Radar und anderen aktiven Distanzmessverfahren liegt in der vergleichsweisen großen Sensitivität hinsichtlich Mehrwegeausbreitungen. Unter Mehrwegeausbreitungen versteht man dabei, dass das empfangene Signal nicht direkt von einer Reflexion an einem Objekt stammt, sondern zwischen Objekt und Radarsensor an einem anderen Objekt oder an einem Untergrund (Bodenebene) reflektiert wurde. Relevant sind insbesondere Mehrwegeausbreitungen bzw. Reflexionen am Untergrund und insbesondere an der Straßenoberfläche. In diesem Fall werden die Reflexionen des Objekts in gleicher Weise wahrgenommen wie die Mehrwegeausbreitungen. Hierdurch kann der gemessene Abstand geringfügig größer werden.In the 4th is an example of the effect of a reflection on the ground on a received radar signal. A relevant difference between radar and other active distance measurement methods is the comparatively high sensitivity with regard to multipath propagation. Multipath propagation means that the received signal does not come directly from a reflection on an object, but was reflected between the object and the radar sensor on another object or on a subsurface (ground level). Multipath propagation or reflections on the ground and especially on the road surface are particularly relevant. In this case, the reflections of the object are perceived in the same way as the multipath propagation. This can increase the measured distance slightly.

In der 4 ist schematisch ein Radarsensor 18 dargestellt. Mit dem Radarsensor 18 wird ein Objekt 13 in einem Abstand von R detektiert. Der Radarsensor 18 ist in einer Höhe von h über einer Bodenebene 36 angebracht. Neben der direkten Reflexion am Objekt 13 wird auch eine Mehrwegeausbreitung über eine Reflexion in der Bodenebene 36 detektiert. Die Strecke d ergibt sich dabei zu d = R 2 4 + h 2

Figure DE102019218059A1_0001
In the 4th is schematically a radar sensor 18th shown. With the radar sensor 18th becomes an object 13th detected at a distance of R. The radar sensor 18th is at a height of h above ground level 36 appropriate. In addition to direct reflection on the object 13th there will also be multipath propagation via a reflection in the ground plane 36 detected. The distance d results from this d = R. 2 4th + H 2
Figure DE102019218059A1_0001

Hieraus ergibt sich der indirekte Abstand ri zu r i = R + 2 d 2 = R 2 + R 2 4 + h 2

Figure DE102019218059A1_0002
This gives the indirect distance r i zu r i = R. + 2 d 2 = R. 2 + R. 2 4th + H 2
Figure DE102019218059A1_0002

Je nachdem, in welcher Höhe h der Radarsensor 18 über der Bodenebene 36 angebracht ist, ergeben sich insoweit relevante Unterschiede zwischen dem wahren Abstand R und dem gemessenen indirekten Abstand ri.Depending on the height h of the radar sensor 18th above ground level 36 is appropriate, there are relevant differences between the true distance R and the measured indirect distance r i .

In der 5 ist schematisch die Detektion eines pfostenartigen Objekts mit einer Höhe p mittels des Radarsensors 18 dargestellt. Durch die Reflexion an der Bodenebene 36 ergibt sich für den indirekten Abstand ri mit den Abständen d1 und d2 ausgehend von d 1 + d 2 = ( 1 + p h ) ( R 1 + p h ) 2 + h 2

Figure DE102019218059A1_0003
der indirekte Abstand ri r i = ( 1 + p h ) ( R 1 + p h ) 2 + h 2 + R 2 + ( p h ) 2 2
Figure DE102019218059A1_0004
basierend auf dem direkten Abstand rd r d = R 2 + ( p h ) 2
Figure DE102019218059A1_0005
In the 5 is a schematic of the detection of a post-like object with a height p by means of the radar sensor 18th shown. Through the reflection on the ground plane 36 results for the indirect distance r i with the distances d1 and d2 starting from d 1 + d 2 = ( 1 + p H ) ( R. 1 + p H ) 2 + H 2
Figure DE102019218059A1_0003
the indirect distance r i r i = ( 1 + p H ) ( R. 1 + p H ) 2 + H 2 + R. 2 + ( p - H ) 2 2
Figure DE102019218059A1_0004
based on the direct distance r d r d = R. 2 + ( p - H ) 2
Figure DE102019218059A1_0005

Basierend auf diesen Berechnungen ergibt sich, dass ein maximaler Abstand an einer oberen Spitze T des Objekts 13, wenn es sich um ein vertikales längliches Objekt handelt, für große Abstände zwischen Radarsensor 18 und Objekt 13 vergleichsweise gering ist. Hierdurch kann näherungsweise davon ausgegangen werden, dass in den allermeisten Fällen sowohl die Spitze T eines vertikalen länglichen Objekts als auch der Rest des vertikalen länglichen Objekts unter Berücksichtigung der Mehrwegeausbreitung in dieselbe Rasterzelle fallen.Based on these calculations, it results that a maximum distance at an upper tip T of the object 13th , if it is a vertical elongated object, for large distances between radar sensors 18th and object 13th is comparatively low. As a result, it can approximately be assumed that in the vast majority of cases both the tip T of a vertical elongated object and the rest of the vertical elongated object fall into the same grid cell, taking into account the multipath propagation.

Um ein vertikales längliches Objekt zu identifizieren, ist es möglich, dass ein einfaches Modell verwendet wird, um eine erwartete Anzahl an Radarzielen, die ein längliches Objekt mit einer bestimmten Höhe bei einer vorbekannten Winkelauflösung des Sensors verursacht, aufzustellen. Die erwartete Anzahl hängt dabei von der Distanz zwischen Radarsensor und länglichem Objekt ab. Zunächst wird ein Höhenwinkel berechnet. Dann kann dieser Höhenwinkel durch die Winkelauflösung des Radarsensors geteilt werden, um eine Anzahl an erwarteten Radarzielen für eine Messung zu dieser gegebenen Distanz zu erhalten.In order to identify a vertical elongated object, it is possible that a simple model is used to set up an expected number of radar targets that an elongated object with a certain height causes at a previously known angular resolution of the sensor. The expected number depends on the distance between the radar sensor and the elongated object. First, an elevation angle is calculated. This elevation angle can then be divided by the angular resolution of the radar sensor in order to obtain a number of expected radar targets for a measurement at this given distance.

Zusätzlich oder alternativ ist es möglich, einen Radarquerschnitt in einer entsprechenden Rasterdarstellung auszuwerten. Die Radarquerschnitte von Zielen einzelner Reflexionen an einem pfostenartigen Objekt, insbesondere an einem metallischen Objekt wie einer Halterung einer Straßenlaterne oder eines Verkehrsschilds, ist charakteristisch. Diese Charakteristik kann dazu verwendet werden, zwischen verschiedenen Arten bzw. Klassen von pfostenartigen Objekten zu differenzieren. Für ein ideales pfostenartiges Objekt ergibt sich eine maximale erwartete Reflexion in der Höhe, in der der Radarsensor angebracht ist. Andere Reflexionen an höheren oder niedrigeren Abschnitten des pfostenartigen Objekts weisen einen geringeren Radarquerschnitt auf. Verkehrsschilder oder Straßenlaternen oder andere Objekte, die oben an einem pfostenartigen Objekt angebracht sind, bedingen spezifische Reflexionen am Ende des pfostenartigen Objekts. Es ist möglich, ein Radarquerschnittsprofil über die Höhe des pfostenartigen Objekts durch ein Assoziieren zwischen Radarmessungen innerhalb eines zylindrischen Bereichs um das Objekt zu erzeugen.Additionally or alternatively, it is possible to evaluate a radar cross-section in a corresponding grid display. The radar cross-sections of targets for individual reflections on a post-like object, in particular on a metallic object such as a bracket for a street lamp or a traffic sign, is characteristic. This characteristic can be used to differentiate between different types or classes of post-like objects. For an ideal post-like object, there is a maximum expected reflection at the height at which the radar sensor is installed. Other reflections at higher or lower portions of the post-like object have a smaller radar cross-section. Traffic signs or street lamps or other objects attached to the top of a post-like object require specific reflections at the end of the post-like object. It is possible to generate a radar cross-sectional profile across the height of the post-like object by associating between radar measurements within a cylindrical area around the object.

In der 6 ist schematisch ein erfindungsgemäßer Ansatz zum Erkennen von länglichen vertikalen Objekten (pfostenartigen Objekten) dargestellt. Zunächst werden mehrere Rasterdarstellungen erzeugt. Im dargestellten Beispiel in der 6 werden eine gewichtete Evidenz-Rasterdarstellung (Expectancy Weighted Evidence Grid, WEG), eine Mehrwegeausbreitung-Rasterdarstellung (Multipath Grid, MG) sowie eine Radarquerschnitt-Rasterdarstellung (Radar Cross Section Grid, RCSG) erzeugt. Die Ausrichtung der zweidimensionalen Rasterdarstellungen WEG, MG, RCSG ist dabei parallel zu der Bodenebene. Es wird angenommen, dass die zu detektierenden länglichen vertikalen Objekte (Pfosten) senkrecht zur Bodenebene ausgerichtet sind. Die x-Achse der Rasterdarstellungen WEG, MG, RCSG ist in Bewegungsrichtung des Fahrzeugs bzw. des Radarsensors orientiert. Die y-Achse verläuft orthogonal hierzu und parallel zur Bodenebene. Jede Messung des Radarsensors wird einer Rasterzelle einer entsprechenden x- und y-Position zugeordnet.In the 6th an inventive approach for recognizing elongated vertical objects (post-like objects) is shown schematically. First, several raster displays are generated. In the example shown in the 6th a weighted evidence grid (Expectancy Weighted Evidence Grid, WEG), a multipath grid (MG) and a radar cross section grid (RCSG) are generated. The alignment of the two-dimensional raster representations WEG, MG, RCSG is parallel to the ground plane. It is assumed that the elongated vertical objects (posts) to be detected are oriented perpendicular to the ground plane. The x-axis of the raster representations WEG, MG, RCSG is oriented in the direction of movement of the vehicle or of the radar sensor. The y-axis runs orthogonally to this and parallel to the ground plane. Each measurement by the radar sensor is assigned to a grid cell of a corresponding x and y position.

Die Auswertung der gewichteten Evidenz-Rasterdarstellung WEG basiert dabei darauf, dass ein pfostenartiges vertikales längliches Objekt aufgrund seiner Geometrie von allen Seiten einen guten Reflektor bildet. Basierend auf der Winkelauflösung des Radarsensors in der Elevationsrichtung kann eine Anzahl an erwarteten Detektionen für ein bestimmtes pfostenartiges Objekt mit einer vorbekannten Höhe in einem bestimmten Abstand abgeleitet werden. In einer gewöhnlichen Evidenz-Rasterdarstellung würde der Wert in der entsprechenden Rasterzelle lediglich um 1 erhöht werden für eine Messung innerhalb dieser Rasterzelle. In der erfindungsgemäß vorgeschlagenen gewichteten Evidenz-Rasterdarstellung wird eine Gewichtung basierend auf der erwarteten Anzahl an Detektionen vorgenommen.The evaluation of the weighted evidence grid representation WEG is based on the fact that a post-like, vertical elongated object forms a good reflector from all sides due to its geometry. Based on the angular resolution of the radar sensor in the elevation direction, a number of expected detections for a specific post-like object with a previously known height at a specific distance can be derived. In a normal evidence grid display, the value in the corresponding grid cell would only be increased by 1 for a measurement within this grid cell. In the weighted evidence grid display proposed according to the invention, weighting is carried out based on the expected number of detections.

Die Mehrwegeausbreitung-Rasterdarstellung MG basiert auf der charakteristischen Mehrwegeausbreitung über die Bodenebene eines pfostenartigen vertikalen länglichen Objekts. Die Mehrwegeausbreitung über die Bodenebene führt lediglich zu einer geringen Verlängerung des gemessenen Abstands. Daher kann ein Minimum zwischen einer Höhe über- und unterhalb der Bodenebene als Indikator für den Mehrwegeausbreitungseffekt verwendet werden, um ein pfostenartiges Objekt zu identifizieren.The multipath raster representation MG is based on the characteristic multipath propagation over the ground plane of a post-like vertical elongated object. The multipath propagation over the ground level only leads to a slight increase in the measured distance. Therefore, a minimum between a height above and below the ground level can be used as an indicator of the Multipath can be used to identify a post-like object.

Die Radarquerschnitt-Rasterdarstellung RCSG kann dabei verschiedene Indikatoren, die basierend auf den Radarquerschnittswerten der einer Rasterzelle zugeordneten Radarziele basieren, aufgestellt werden. Insbesondere können Maximumwerte, Mittelwerte und Quantile der Radarquerschnitte der Messungen, die in die Rasterzelle fallen, eingetragen werden. Zusätzlich ist es möglich, dass ein Radarquerschnittsprofil entlang der Höhenachse des pfostenartigen vertikalen länglichen Objekts berechnet wird. Hierzu wird das pfostenartige Objekt in kleinere Abschnitte aufgeteilt und für jeden Abschnitt ein mittlerer Radarquerschnitt berechnet. Dies führt zu einem Radarquerschnittsprofil in Form einer Funktion des Radarquerschnitts über die Höhe eines pfostenartigen länglichen Objekts.The radar cross-section raster display RCSG can be used to set up various indicators based on the radar cross-section values of the radar targets assigned to a raster cell. In particular, maximum values, mean values and quantiles of the radar cross-sections of the measurements that fall into the grid cell can be entered. In addition, it is possible that a radar cross-sectional profile is calculated along the height axis of the post-like vertical elongated object. For this purpose, the post-like object is divided into smaller sections and a mean radar cross-section is calculated for each section. This results in a radar cross-sectional profile in the form of a function of the radar cross-section over the height of a post-like elongate object.

Auf die Mehrwegeausbreitung-Rasterdarstellung MG und der gewichteten Evidenz-Rasterdarstellung WEG kann eine Hochpunktdetektion PD angewendet werden. Hierzu kann ein entsprechendes Filterverfahren angewendet werden. Beispielsweise eine Laplace-Transformation oder ein Gaußfilter. Um einen derartigen Filter anzuwenden, muss eine Größenordnung des zu detektierenden Hochpunkts bekannt sein. Für bekannte pfostenartige vertikale längliche Objekte wie Verkehrsschilder oder Straßenbeleuchtungen kann hierzu eine vorbekannte Skalierung verwendet werden. Um andere Objekte, wie beispielsweise Bäume oder Werbesäulen zu detektieren, kann eine Anpassung vorgenommen werden.A high point detection PD can be applied to the multipath raster representation MG and the weighted evidence raster representation WEG. A corresponding filter method can be used for this purpose. For example a Laplace transform or a Gaussian filter. In order to use such a filter, an order of magnitude of the high point to be detected must be known. For known post-like, vertical elongated objects such as traffic signs or street lights, a previously known scaling can be used for this purpose. An adjustment can be made in order to detect other objects such as trees or advertising pillars.

Es ergeben sich verschiedene Kandidaten, die in einer Ergebnisliste PC zusammengefasst werden.There are various candidates that are summarized in a results list PC.

In weiteren Verarbeitungsschritten S1, S2, S3 kann die Ergebnisliste PC dann anhand eines weiteren Indikatorwerts sortiert werden. Insbesondere kann in einem Sortierschritt S1 eine Sortierung nach absteigenden Radarquerschnittswerten bzw. Eintragungen in der Radarquerschnitt-Rasterdarstellung vorgenommen werden. Anhang dieser Sortierung wird in einem zweiten Verarbeitungsschritt S2 eine lokale Nachbarschaft der identifizierten länglichen Objekte untersucht. Die detektierten länglichen Objekte in einer lokalen Nachbarschaft mit einem vordefinierten Radius von Objekten mit höherem Radarquerschnitt werden gelöscht, um Mehrfachdetektionen desselben Objekts auszuschließen. Es ergibt sich im letzten Verarbeitungsschritt S3 eine reduzierte Ergebnisliste mit Angaben zu pfostenartigen länglichen Objekten in der Umgebung des Fahrzeugs.In further processing steps S1, S2, S3, the result list PC can then be sorted on the basis of a further indicator value. In particular, in a sorting step S1, sorting according to descending radar cross-section values or entries in the radar cross-section raster display can be carried out. In addition to this sorting, a local neighborhood of the elongated objects identified is examined in a second processing step S2. The detected elongated objects in a local neighborhood with a predefined radius of objects with a higher radar cross-section are deleted in order to rule out multiple detections of the same object. In the last processing step S3 there is a reduced list of results with information on post-like elongated objects in the vicinity of the vehicle.

In der 7 ist schematisch ein erfindungsgemäßes Fahrzeug 14 dargestellt. Das Fahrzeug 14 weist einen Radarsensor 18 sowie eine erfindungsgemäße Vorrichtung 16 auf. Im dargestellten Beispiel weist das Fahrzeug 14 weiterhin einen Positionssensor 38 auf, der beispielsweise am Dach des Fahrzeugs angebracht sein kann. Zudem weist das abgebildete Fahrzeug 14 eine Inertialmesseinheit 40 auf, die dazu verwendet werden kann, Bewegungsdaten mit Informationen zu der Bewegung des Fahrzeugs 14 bzw. des am Fahrzeug angebrachten Radarsensors 18 zu ermitteln.In the 7th is schematically a vehicle according to the invention 14th shown. The vehicle 14th has a radar sensor 18th and a device according to the invention 16 on. In the example shown, the vehicle 14th furthermore a position sensor 38 on, which can be attached, for example, to the roof of the vehicle. In addition, the vehicle shown has 14th an inertial measuring unit 40 which can be used to provide movement data with information on the movement of the vehicle 14th or the radar sensor attached to the vehicle 18th to determine.

In der 8 ist schematisch ein erfindungsgemäßes Verfahren zum Erkennen von länglichen Objekten in einer Umgebung eines Fahrzeugs dargestellt. Das Verfahren umfasst Schritte des Empfangens S10 einer Radar-Zieleliste und von Bewegungsdaten, des Erzeugens S12 einer akkumulierten Radar-Zieleliste, des Erzeugens S14 mindestens einer Rasterdarstellung und des Ermittelns S16 einer Ergebnisliste. Das Verfahren kann insbesondere in Software implementiert sein, die auf einem Fahrzeugsteuergerät ausgeführt wird. Ebenfalls ist es möglich, dass das Verfahren in einem Radarsensor ausgeführt wird.In the 8th a method according to the invention for recognizing elongated objects in the surroundings of a vehicle is shown schematically. The method comprises the steps of receiving S10 a radar target list and movement data, generating S12 an accumulated radar target list, generating S14 at least one raster representation and determining S16 a list of results. The method can in particular be implemented in software that is executed on a vehicle control device. It is also possible for the method to be carried out in a radar sensor.

Die Erfindung wurde anhand der Zeichnungen und der Beschreibung umfassend beschrieben und erklärt. Die Beschreibung und Erklärung sind als Beispiel und nicht einschränkend zu verstehen. Die Erfindung ist nicht auf die offenbarten Ausführungsformen beschränkt. Andere Ausführungsformen oder Variationen ergeben sich für den Fachmann bei der Verwendung der vorliegenden Erfindung sowie bei einer genauen Analyse der Zeichnungen, der Offenbarung und der nachfolgenden Patentansprüche.The invention has been comprehensively described and explained with reference to the drawings and the description. The description and explanation are to be understood as examples and not restrictive. The invention is not limited to the disclosed embodiments. Other embodiments or variations will become apparent to those skilled in the art after using the present invention and after carefully analyzing the drawings, the disclosure and the following claims.

In den Patentansprüchen schließen die Wörter „umfassen“ und „mit“ nicht das Vorhandensein weiterer Elemente oder Schritte aus. Der undefinierte Artikel „ein“ oder „eine“ schließt nicht das Vorhandensein einer Mehrzahl aus. Ein einzelnes Element oder eine einzelne Einheit kann die Funktionen mehrerer der in den Patentansprüchen genannten Einheiten ausführen. Ein Element, eine Einheit, eine Schnittstelle, eine Vorrichtung und ein System können teilweise oder vollständig in Hard- und/oder in Software umgesetzt sein. Die bloße Nennung einiger Maßnahmen in mehreren verschiedenen abhängigen Patentansprüchen ist nicht dahingehend zu verstehen, dass eine Kombination dieser Maßnahmen nicht ebenfalls vorteilhaft verwendet werden kann. Ein Computerprogramm kann auf einem nichtflüchtigen Datenträger gespeichert/vertrieben werden, beispielsweise auf einem optischen Speicher oder auf einem Halbleiterlaufwerk (SSD). Ein Computerprogramm kann zusammen mit Hardware und/oder als Teil einer Hardware vertrieben werden, beispielsweise mittels des Internets oder mittels drahtgebundener oder drahtloser Kommunikationssysteme. Bezugszeichen in den Patentansprüchen sind nicht einschränkend zu verstehen.In the claims, the words “comprising” and “having” do not exclude the presence of further elements or steps. The undefined article “a” or “an” does not exclude the presence of a plural. A single element or a single unit can perform the functions of several of the units mentioned in the patent claims. An element, a unit, an interface, a device and a system can be implemented partially or completely in hardware and / or in software. The mere mention of some measures in several different dependent patent claims should not be understood to mean that a combination of these measures cannot also be used advantageously. A computer program can be stored / distributed on a non-volatile data carrier, for example on an optical memory or on a semiconductor drive (SSD). A computer program can be distributed together with hardware and / or as part of hardware, for example by means of the Internet or by means of wired or wireless communication systems. Reference signs in the patent claims are not to be understood as restrictive.

BezugszeichenlisteList of reference symbols

1010
Systemsystem
1212th
längliches Objektelongated object
1313th
Objektobject
1414th
Fahrzeugvehicle
1616
Vorrichtungcontraption
1818th
RadarsensorRadar sensor
2020th
EingangsschnittstelleInput interface
2222nd
AkkumulationseinheitAccumulation unit
2424
RastereinheitGrid unit
2626th
AuswerteeinheitEvaluation unit
2828
SichtfeldField of view
3030th
RadarzielRadar target
3232
RasterdarstellungRaster display
3636
BodenebeneGround level
3838
PositionssensorPosition sensor
4040
InertialmesseinheitInertial measurement unit

Claims (15)

Vorrichtung (16) zum Erkennen von länglichen Objekten (12) in einer Umgebung eines Fahrzeugs (14), mit: einer Eingangsschnittstelle (20) zum Empfangen einer Radar-Zieleliste eines Radarsensors (18) mit Informationen zu detektierten Radarzielen (30) in der Umgebung des Fahrzeugs und von Bewegungsdaten mit Informationen zu einer Bewegung des Radarsensors gegenüber der Umgebung; einer Akkumulationseinheit (22) zum Erzeugen einer akkumulierten Radar-Zieleliste in einem sensorfesten Koordinatensystem basierend auf der empfangenen Radar-Zieleliste und den Bewegungsdaten, wobei Radar-Zielelisten mehrerer Zeitschritte unter Kompensation der Bewegung des Radarsensors zusammengefasst werden; einer Rastereinheit (24) zum Erzeugen mindestens einer Rasterdarstellung (32) der Umgebung des Fahrzeugs basierend auf der akkumulierten Radar-Zieleliste, wobei Ziele der akkumulierten Radar-Zieleliste Rasterzellen der Rasterdarstellung zugeordnet werden, die Positionen in der Umgebung des Fahrzeugs entsprechen; und einer Auswerteeinheit (26) zum Ermitteln einer Ergebnisliste mit Angaben zu länglichen Objekten in der Umgebung des Fahrzeugs basierend auf einer Auswertung der mindestens einen Rasterdarstellung.Device (16) for recognizing elongated objects (12) in the surroundings of a vehicle (14), with: an input interface (20) for receiving a radar target list of a radar sensor (18) with information on detected radar targets (30) in the vicinity of the vehicle and movement data with information on a movement of the radar sensor in relation to the environment; an accumulation unit (22) for generating an accumulated radar target list in a sensor-fixed coordinate system based on the received radar target list and the movement data, with radar target lists of several time steps being combined with compensation for the movement of the radar sensor; a raster unit (24) for generating at least one raster representation (32) of the surroundings of the vehicle based on the accumulated radar target list, targets of the accumulated radar target list being assigned to raster cells of the raster representation which correspond to positions in the surroundings of the vehicle; and an evaluation unit (26) for determining a list of results with information on elongated objects in the vicinity of the vehicle based on an evaluation of the at least one raster representation. Vorrichtung (16) nach Anspruch 1, wobei die Eingangsschnittstelle (20) zum Empfangen der Radar-Zieleliste mit einer Angabe eines Radarquerschnitts für ein Radarziel (30) ausgebildet ist; die Rastereinheit (24) zum Erzeugen einer zweidimensionalen Radarquerschnitt-Rasterdarstellung (32) ausgebildet ist; und eine Rasterzelle der Radarquerschnitt-Rasterdarstellung eine Angabe eines maximalen Radarquerschnitts, eines mittleren Radarquerschnitts, eines Quantils eines Radarquerschnitts und/oder eines Verlaufs eines Radarquerschnitts in einer Vertikalrichtung umfasst.Device (16) after Claim 1 wherein the input interface (20) is designed to receive the radar target list with an indication of a radar cross section for a radar target (30); the raster unit (24) is designed to generate a two-dimensional radar cross-section raster representation (32); and a raster cell of the radar cross-section raster display includes an indication of a maximum radar cross-section, an average radar cross-section, a quantile of a radar cross-section and / or a profile of a radar cross-section in a vertical direction. Vorrichtung (16) nach einem der vorstehenden Ansprüche, wobei die Rastereinheit (24) zum Erzeugen einer zweidimensionalen Mehrwegeausbreitung-Rasterdarstellung (32) ausgebildet ist; und eine Rasterzelle der Mehrwegeausbreitung-Rasterdarstellung ein Minimum einer vertikalen Objektausdehnung oberhalb und unterhalb einer geschätzten Untergrundebene umfasst.Device (16) according to one of the preceding claims, wherein the raster unit (24) is configured to generate a two-dimensional multipath raster representation (32); and a grid cell of the multipath grid representation comprises a minimum of a vertical object extent above and below an estimated subsurface plane. Vorrichtung (16) nach einem der vorstehenden Ansprüche, wobei die Rastereinheit (24) zum Erzeugen einer zweidimensionalen gewichteten Evidenz-Rasterdarstellung ausgebildet ist; eine Rasterzelle der gewichteten Evidenz-Rasterdarstellung ein Verhältnis zwischen einer Anzahl an Radarzielen (30) in verschiedenen Höhen an einer der Rasterzelle entsprechenden zweidimensionalen Position und einer erwarteten Anzahl an Radarzielen eines vertikalen länglichen Objekts umfasst; und die Rastereinheit zum Vorberechnen der erwarteten Anzahl an Radarzielen des vertikalen länglichen Objekts basierend auf einem aus der akkumulierten Radar-Zieleliste ermittelten Höhenausdehnungswinkel und einer Winkelauflösung des Radarsensors (18) ausgebildet ist.Device (16) according to one of the preceding claims, wherein the raster unit (24) is designed to generate a two-dimensional weighted evidence raster representation; a grid cell of the weighted evidence grid representation comprises a ratio between a number of radar targets (30) at different heights at a two-dimensional position corresponding to the grid cell and an expected number of radar targets of a vertical elongated object; and the raster unit is designed to precalculate the expected number of radar targets of the vertical elongated object based on a height expansion angle determined from the accumulated radar target list and an angular resolution of the radar sensor (18). Vorrichtung (16) nach einem der vorstehenden Ansprüche, wobei die Rastereinheit (24) zum Erzeugen einer zweidimensionalen Evidenz-Rasterdarstellung ausgebildet ist; und eine Rasterzelle der Evidenz-Rasterdarstellung eine Anzahl an Radarzielen (30) in verschiedenen Höhen an einer der Rasterzelle entsprechenden zweidimensionalen Position umfasst.Device (16) according to one of the preceding claims, wherein the raster unit (24) is designed to generate a two-dimensional evidence raster representation; and a grid cell of the evidence grid display comprises a number of radar targets (30) at different heights at a two-dimensional position corresponding to the grid cell. Vorrichtung (16) nach einem der vorstehenden Ansprüche, wobei die Auswerteeinheit (26) zum Ermitteln einer Ergebnisliste mit Angaben zu vertikalen länglichen Objekten (12) basierend auf einer Hochpunktdetektion in der mindestens einen Rasterdarstellung (32) ausgebildet ist; einem Entscheidungsbaum-Algorithmus ausgebildet ist; und/oder einem vortrainierten lernenden Algorithmus ausgebildet ist.Device (16) according to one of the preceding claims, wherein the evaluation unit (26) for Determining a result list with information on vertical elongated objects (12) based on a high point detection in which at least one raster representation (32) is formed; a decision tree algorithm is formed; and / or a pre-trained learning algorithm. Vorrichtung (16) nach einem der vorstehenden Ansprüche, wobei die Auswerteeinheit (26) zum Ermitteln einer Ergebnisliste mit Angaben zu horizontalen länglichen Objekten (12) basierend auf einer Anwendung eines Computervisionsansatzes auf die mindestens eine Rasterdarstellung (32) ausgebildet ist.Device (16) according to one of the preceding claims, wherein the evaluation unit (26) is designed to determine a result list with information on horizontal elongated objects (12) based on an application of a computer vision approach to the at least one raster representation (32). Vorrichtung (16) nach einem der vorstehenden Ansprüche, wobei die Auswerteeinheit (26) zum Zuordnen der länglichen Objekte (12) zu vordefinierten Objektklassen ausgebildet ist; und die Ergebnisliste neben der Objektklasse vorzugsweise eine Zuordnungskonfidenz umfasst, die eine Zuverlässigkeit der Zuordnung angibt.Device (16) according to one of the preceding claims, wherein the evaluation unit (26) is designed to assign the elongated objects (12) to predefined object classes; and the result list, in addition to the object class, preferably includes an assignment confidence which indicates a reliability of the assignment. Vorrichtung (16) nach Anspruch 8, wobei die Auswerteeinheit (26) zum Zuordnen der länglichen Objekte (12) zu vordefinierten Objektklassen basierend auf einer zweidimensionalen Position des erkannten länglichen Objekts in Bezug zu einer voraussichtlichen Trajektorie des Radarsensors (18) ausgebildet ist; und/oder einem Klassifikator ausgebildet ist, der vorzugsweise basierend auf Lidardaten eines Lidarsensors vortrainiert ist.Device (16) after Claim 8 wherein the evaluation unit (26) is designed to assign the elongated objects (12) to predefined object classes based on a two-dimensional position of the recognized elongated object in relation to a probable trajectory of the radar sensor (18); and / or a classifier is formed, which is preferably pre-trained based on lidar data of a lidar sensor. Vorrichtung (16) nach einem der Ansprüche 8 und 9, wobei die Eingangsschnittstelle (20) zum Empfangen von Kameradaten einer Kamera mit Informationen zu länglichen Objekten (12) in der Umgebung des Fahrzeugs (14) ausgebildet ist; und die Auswerteeinheit (26) zum Zuordnen der länglichen Objekte zu vordefinierten Objektklassen basierend auf einer semantischen Segmentierung anhand der Kameradaten ausgebildet ist.Device (16) according to one of the Claims 8 and 9 wherein the input interface (20) is designed to receive camera data from a camera with information on elongated objects (12) in the vicinity of the vehicle (14); and the evaluation unit (26) is designed to assign the elongated objects to predefined object classes based on semantic segmentation using the camera data. Vorrichtung (16) nach einem der vorstehenden Ansprüche, wobei die Auswerteeinheit (26) zum Ermitteln einer Erkennungskonfidenz für ein längliches Objekt (12) ausgebildet ist, die eine Zuverlässigkeit der Erkennung angibt; und zum Entfernen erkannter länglicher Objekte aus der Ergebnisliste, die innerhalb einer vordefinierten unmittelbaren Nachbarschaft eines länglichen Objekts mit einer höheren Erkennungskonfidenz liegen, ausgebildet ist.Device (16) according to one of the preceding claims, wherein the evaluation unit (26) is designed to determine a recognition confidence for an elongated object (12) which indicates a reliability of the recognition; and is designed to remove recognized elongated objects from the list of results which are located within a predefined immediate neighborhood of an elongated object with a higher recognition confidence. Vorrichtung (16) nach einem der vorstehenden Ansprüche, wobei die Eingangsschnittstelle (20) zum Empfangen der Bewegungsdaten von einem Fahrzeugodometriesystem und/oder von einem Positionssensor ausgebildet ist.Device (16) according to one of the preceding claims, wherein the input interface (20) is designed to receive the movement data from a vehicle odometry system and / or from a position sensor. System (10) zum Erkennen von länglichen Objekten (12) in einer Umgebung eines Fahrzeugs (14), mit: einem Radarsensor (18) zum Detektieren von Radarzielen (30) in der Umgebung des Fahrzeugs, wobei der Radarsensor vorzugsweise als frequenzmodulierter Multipuls-Radarsensor ausgebildet ist; und einer Vorrichtung (16) nach einem der vorstehenden Ansprüche.System (10) for recognizing elongated objects (12) in the surroundings of a vehicle (14), comprising: a radar sensor (18) for detecting radar targets (30) in the vicinity of the vehicle, the radar sensor preferably being designed as a frequency-modulated multi-pulse radar sensor; and a device (16) according to any one of the preceding claims. Verfahren zum Erkennen von länglichen Objekten (12) in einer Umgebung eines Fahrzeugs (14), mit den Schritten: Empfangen (S10) einer Radar-Zieleliste eines Radarsensors (18) mit Informationen zu detektierten Radarzielen (30) in der Umgebung des Fahrzeugs und von Bewegungsdaten mit Informationen zu einer Bewegung des Radarsensors gegenüber der Umgebung; Erzeugen (S12) einer akkumulierten Radar-Zieleliste in einem sensorfesten Koordinatensystem basierend auf der empfangenen Radar-Zieleliste und den Bewegungsdaten, wobei Radar-Zielelisten mehrerer Zeitschritte unter Kompensation der Bewegung des Radarsensors zusammengefasst werden; Erzeugen (S14) mindestens einer Rasterdarstellung (32) der Umgebung des Fahrzeugs basierend auf der akkumulierten Radar-Zieleliste, wobei Ziele der akkumulierten Radar-Zieleliste Rasterzellen der Rasterdarstellung zugeordnet werden, die Positionen in der Umgebung des Fahrzeugs entsprechen; und Ermitteln (S16) einer Ergebnisliste mit Angaben zu länglichen Objekten in der Umgebung des Fahrzeugs basierend auf einer Auswertung der mindestens einen Rasterdarstellung .Method for recognizing elongated objects (12) in the vicinity of a vehicle (14), comprising the steps: Receiving (S10) a radar target list of a radar sensor (18) with information on detected radar targets (30) in the vicinity of the vehicle and movement data with information on a movement of the radar sensor in relation to the environment; Generating (S12) an accumulated radar target list in a sensor-fixed coordinate system based on the received radar target list and the movement data, with radar target lists of several time steps being combined with compensation for the movement of the radar sensor; Generating (S14) at least one grid representation (32) of the surroundings of the vehicle based on the accumulated radar target list, targets of the accumulated radar target list being assigned grid cells of the grid display which correspond to positions in the surroundings of the vehicle; and Determination (S16) of a list of results with information on elongated objects in the vicinity of the vehicle based on an evaluation of the at least one raster representation. Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens nach Anspruch 14, wenn der Programmcode auf einem Computer ausgeführt wird.Computer program product with program code for performing the steps of the method according to Claim 14 when the program code is executed on a computer.
DE102019218059.0A 2019-11-22 2019-11-22 Detection of elongated objects Pending DE102019218059A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019218059.0A DE102019218059A1 (en) 2019-11-22 2019-11-22 Detection of elongated objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019218059.0A DE102019218059A1 (en) 2019-11-22 2019-11-22 Detection of elongated objects

Publications (1)

Publication Number Publication Date
DE102019218059A1 true DE102019218059A1 (en) 2021-05-27

Family

ID=75784034

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019218059.0A Pending DE102019218059A1 (en) 2019-11-22 2019-11-22 Detection of elongated objects

Country Status (1)

Country Link
DE (1) DE102019218059A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021207609A1 (en) 2021-07-16 2023-01-19 Continental Autonomous Mobility Germany GmbH Procedure for marking a movement path

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017206436A1 (en) * 2017-04-13 2018-10-18 Bayerische Motoren Werke Aktiengesellschaft Method for detecting and / or tracking objects

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017206436A1 (en) * 2017-04-13 2018-10-18 Bayerische Motoren Werke Aktiengesellschaft Method for detecting and / or tracking objects

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WERBER, Klaudius [et al.]: Automotive radar gridmap representations. In: 2015 IEEE MTT-S International Conference on Microwaves for Intelligent Mobility, 27-29 April 2015. 4 S. – ISBN 978-1-4799-7215-9 – URL: https://ieeexplore.ieee.org/document/7117922 [abgerufen am 04.09.2020] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021207609A1 (en) 2021-07-16 2023-01-19 Continental Autonomous Mobility Germany GmbH Procedure for marking a movement path

Similar Documents

Publication Publication Date Title
DE102014223363B4 (en) Method and device for localizing a motor vehicle in a fixed reference map
DE102004016024B4 (en) Filtering a still object for a page object detection system
DE102017221691A1 (en) Method and device for self-localization of a vehicle
DE112010005977B4 (en) Road shape estimation apparatus
DE102012110595A1 (en) Method and device for detecting traffic signs for a vehicle
DE112017004333B4 (en) Environmental monitoring device and environmental monitoring method
DE102011117585A1 (en) Systems and methods for tracking objects
EP2856452B1 (en) Carriageway recognition
EP3259614B1 (en) Method for ascertaining a piece of local information for a motor vehicle in relation to a driving corridor, and motor vehicle
DE102016015405A1 (en) Comprehensive environmental detection for a car by means of radar
DE102018217533A1 (en) Procedure for classifying an object
DE102020000803A1 (en) Method for checking the plausibility of a detection of a LIDAR system of a vehicle, device set up to carry out such a method, and vehicle with such a device
EP3637311A1 (en) Device and method for determining the altitude information of an object in an environment of a vehicle
DE102020105192B4 (en) Method for detecting moving objects in a vehicle environment and motor vehicle
DE102018220114A1 (en) Device and method for detecting a sensor blockage of an environmental sensor
DE102019218059A1 (en) Detection of elongated objects
DE102020210380A1 (en) Method for determining a movement of an object
DE102019211459A1 (en) Method and device for checking a calibration of environmental sensors
EP3531167A1 (en) Method and device for optically measuring distances
WO2021239326A1 (en) Method for estimating an intrinsic speed
DE102019216373A1 (en) Method of detecting a target object
DE102019107396A1 (en) Detection and classification of raised road markings using LIDAR
DE102019218932B3 (en) Determining a relative movement
DE102019216152A1 (en) Adaptive high point neighborhood area
DE102019213927A1 (en) Grid-based delineator classification

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: SCHMIDT, DANIEL, DR., DE

R016 Response to examination communication