DE102020112825A1 - Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle - Google Patents

Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle Download PDF

Info

Publication number
DE102020112825A1
DE102020112825A1 DE102020112825.8A DE102020112825A DE102020112825A1 DE 102020112825 A1 DE102020112825 A1 DE 102020112825A1 DE 102020112825 A DE102020112825 A DE 102020112825A DE 102020112825 A1 DE102020112825 A1 DE 102020112825A1
Authority
DE
Germany
Prior art keywords
static
lane
vehicle
objects
static objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020112825.8A
Other languages
German (de)
Inventor
Dominik Kellner
Simon RADLER
Hanno Jaspers
Georg Tanzmeister
Matthias Stark
Carola Schroeter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102020112825.8A priority Critical patent/DE102020112825A1/en
Publication of DE102020112825A1 publication Critical patent/DE102020112825A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erfassen von relevanten statischen Objekten in einer Umgebung eines Fahrzeugs mit den Schritten: Empfangen von Sensordaten von zumindest einem Umfeldsensor des Fahrzeugs, wobei die Sensordaten die Umgebung beschreiben, Bestimmen einer statischen Belegungskarte anhand der Sensordaten, wobei die statische Belegungskarte nicht bewegte Anteile der Umgebung beschreibt, wobei die Sensordaten fortlaufend empfangen werden und die statische Belegungskarte anhand der Sensordaten akkumuliert wird, Bestimmen von Fahrspurdaten, welche zumindest eine Fahrspur in der Umgebung beschreiben, und Identifizieren von relevanten statischen Objekten, welche sich zumindest bereichsweise innerhalb der zumindest einen Fahrspur befinden, aus den statischen Objekten anhand der akkumulierten statischen Belegungskarte und der Fahrspurdaten.

Figure DE102020112825A1_0000
The invention relates to a method for detecting relevant static objects in the surroundings of a vehicle with the following steps: receiving sensor data from at least one surroundings sensor of the vehicle, the sensor data describing the surroundings, determining a static occupancy map based on the sensor data, whereby the static occupancy map is not describes moving parts of the environment, the sensor data being continuously received and the static occupancy map being accumulated using the sensor data, determining lane data that describe at least one lane in the environment, and identifying relevant static objects that are at least partially within the at least one Lane, from the static objects based on the accumulated static occupancy map and the lane data.
Figure DE102020112825A1_0000

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Erfassen von relevanten statischen Objekten in einer Umgebung eines Fahrzeugs. Des Weiteren betrifft die vorliegende Erfindung eine Recheneinrichtung für ein Fahrerassistenzsystem eines Fahrzeugs. Außerdem betrifft die vorliegende Erfindung ein Computerprogramm.The present invention relates to a method for detecting relevant static objects in the surroundings of a vehicle. The present invention also relates to a computing device for a driver assistance system of a vehicle. The present invention also relates to a computer program.

Bei Fahrerassistenzsystemen, welche ein automatisiertes oder ein autonomes Fahren ermöglichen, ist es essentiell, Objekte in der Umgebung des Fahrzeugs zuverlässig zu erkennen. Aus dem Stand der Technik ist es bekannt, dass alle relevanten Objekte in der Umgebung des Fahrzeugs über die Zeit verfolgt werden. Dabei wird meist nicht unterschieden, ob es sich bei diesen Objekten um statische bzw. stehende Objekte oder um dynamische bzw. bewegte Objekte handelt. Wenn beispielsweise alle parkenden Fahrzeuge auf dem Seitenstreifen und auf Parkplätzen neben der Straße sowie stehende Fußgänger und Fahrradfahrer, welche weit von der Fahrspur entfernt sind, erfasst werden, führt dies zu einer deutlich größeren Anzahl an relevanten Objekten.In driver assistance systems that enable automated or autonomous driving, it is essential to reliably detect objects in the vicinity of the vehicle. It is known from the prior art that all relevant objects in the vicinity of the vehicle are tracked over time. In most cases, no distinction is made as to whether these objects are static or stationary objects or dynamic or moving objects. If, for example, all vehicles parked on the hard shoulder and in parking lots next to the street as well as standing pedestrians and cyclists who are far from the lane are recorded, this leads to a significantly larger number of relevant objects.

Werden stehende und bewegte Objekte in einem gemeinsamen Ansatz verfolgt, entstehen häufig durch Messungenauigkeiten oder Fehler in der Objektextraktion virtuelle Bewegungen, sodass bei parkenden Fahrzeugen falsch erkannt wird, dass sich diese bewegen oder sich drehen. Das führt unter Umständen zu Falschbremsungen oder Ausweichmanövern auf nicht relevante statische Objekte oder zu einem Fehlverhalten auf relevante statische Objekte. Durch die große Anzahl an Objekten weisen die Algorithmen zudem eine hohe Rechenleistung auf, da für alle Objekte Eigenschaften, wie Form, Position und/oder Orientierung, geschätzt werden müssen. Diese Schätzungen basieren meist auf der aktuellen Messung und die extrahierten Eigenschaften werden über die Zeit gemittelt.If stationary and moving objects are tracked in a common approach, measurement inaccuracies or errors in object extraction often result in virtual movements, so that parked vehicles are incorrectly recognized as moving or rotating. This can lead to false braking or evasive maneuvers on irrelevant static objects or to incorrect behavior on relevant static objects. Due to the large number of objects, the algorithms also have a high computing power, since properties such as shape, position and / or orientation have to be estimated for all objects. These estimates are mostly based on the current measurement and the extracted properties are averaged over time.

Vorliegend gilt das Interesse insbesondere der Erkennung von relevanten statischen Objekten. Hierzu ist es aus dem Stand der Technik bekannt, auf Grundlage von Sensordaten von Umfeldsensoren entsprechende Belegungskarten zu bestimmen. Diese Belegungskarten können auch als gitterbasierte Karten bzw. als grid maps bezeichnet werden. Für die Fahrzeugumfelderfassung werden in den meisten Sensorsystemen bzw. Fahrerassistenzsystemen derartige Belegungskarten verwendet, um die große Anzahl von Sensordaten handhabbar zu machen. Dabei können über die Zeit auch statische Belegungskarten bestimmt werden, welche die statischen Objekte in der Umgebung beschreiben. Mit jeder Messung können die statischen Detektionen in die Belegungskarte eingetragen werden, sodass sich in der Belegungskarte nach einigen Messzyklen ein detailliertes Abbild der sichtbaren Objektform ergibt. Gemäß dem Stand der Technik wird aber nicht berücksichtigt, ob sich die erkannten statischen Objekte auf der Fahrspur, dem relevanten Fahrstreifen oder neben der Fahrspur befinden.In the present case, the focus is particularly on the detection of relevant static objects. For this purpose, it is known from the prior art to determine corresponding occupancy cards on the basis of sensor data from environment sensors. These occupancy maps can also be referred to as grid-based maps or as grid maps. Occupancy cards of this type are used in most sensor systems or driver assistance systems for recording the vehicle surroundings in order to make the large number of sensor data manageable. Static occupancy maps can also be determined over time, which describe the static objects in the area. With each measurement, the static detections can be entered in the occupancy card so that a detailed image of the visible object shape is obtained in the occupancy card after a few measuring cycles. According to the prior art, however, it is not taken into account whether the detected static objects are in the lane, the relevant lane or next to the lane.

Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie relevante statische Objekte bzw. Verkehrsteilnehmer in der Umgebung eines Fahrzeugs zuverlässiger erkannt werden können.The object of the present invention is to provide a solution for how relevant static objects or road users in the vicinity of a vehicle can be recognized more reliably.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Recheneinrichtung, sowie durch ein Computerprogramm mit den Merkmalen gemäß den unabhängigen Ansprüchen gelöst. Vorteilhafte Weiterbildungen der vorliegenden Erfindung sind in den abhängigen Ansprüchen angegeben.According to the invention, this object is achieved by a method, by a computing device, and by a computer program with the features according to the independent claims. Advantageous developments of the present invention are specified in the dependent claims.

Ein erfindungsgemäßes Verfahren dient zum Erfassen von relevanten statischen Objekten in einer Umgebung eines Fahrzeugs. Das Verfahren umfasst das Empfangen von Sensordaten von zumindest einem Umfeldsensor des Fahrzeugs, wobei die Sensordaten die Umgebung beschreiben. Des Weiteren umfasst das Verfahren das Bestimmen einer statischen Belegungskarte anhand der Sensordaten, wobei die statische Belegungskarte nicht bewegte Anteile der Umgebung beschreibt. Dabei werden die Sensordaten fortlaufend empfangen und die statische Belegungskarte wird anhand der Sensordaten akkumuliert. Außerdem umfasst das Verfahren das Bestimmen von Fahrspurdaten, welche zumindest eine Fahrspur in der Umgebung beschreiben. Ferner umfasst das Verfahren das Identifizieren von relevanten statischen Objekten, welche sich zumindest bereichsweise innerhalb der zumindest einen Fahrspur befinden, aus den statischen Objekten anhand der akkumulierten statischen Belegungskarte und der Fahrspurdaten.A method according to the invention is used to detect relevant static objects in the surroundings of a vehicle. The method includes receiving sensor data from at least one environment sensor of the vehicle, the sensor data describing the environment. Furthermore, the method includes the determination of a static occupancy card on the basis of the sensor data, the static occupancy card describing non-moving parts of the environment. The sensor data are continuously received and the static occupancy card is accumulated on the basis of the sensor data. The method also includes determining lane data which describe at least one lane in the vicinity. Furthermore, the method includes the identification of relevant static objects, which are located at least in regions within the at least one lane, from the static objects on the basis of the accumulated static occupancy map and the lane data.

Mithilfe des Verfahrens sollen relevante statische Objekt in der Umgebung des eigenen Fahrzeugs erkannt werden, welche sich auf einer Fahrspur befinden. In diesem Zusammenhang können alle Objekte als relevant definiert werden, die einen Einfluss auf die Trajektorie des eigenen Fahrzeugs aufweisen, d.h. die beispielsweise ein Abbremsen oder Ausweichen erfordern. Statische Hindernisse außerhalb der Fahrspuren, welche Teil der Infrastruktur, Pflanzen oder dergleichen sein können, sollen im Folgenden nicht berücksichtigt werden. Das Verfahren kann mit einer Recheneinrichtung eines Fahrerassistenzsystems des Fahrzeugs durchgeführt werden. Im Betrieb des Fahrzeugs bzw. während der Fahrt des Fahrzeugs werden mit den Umfeldsensoren des Fahrerassistenzsystems fortlaufend die Sensordaten bereitgestellt. Beispielsweise können mit den Umfeldsensoren zeitlich aufeinanderfolgende Messungen bzw. Messzyklen durchgeführt werden. Dabei werden in jedem Messzyklus die Sensordaten an die Recheneinrichtung übertragen. Bei den Umfeldsensoren kann es sich um Radarsensoren, Lidar-Sensoren, Ultraschallsensoren und/oder Kameras handeln. Die Sensordaten beschreiben die Umgebung des Fahrzeugs und insbesondere Objekte in der Umgebung des Fahrzeugs.With the help of the method, relevant static objects in the vicinity of one's own vehicle which are in a lane are to be recognized. In this context, all objects can be defined as relevant that have an influence on the trajectory of the own vehicle, that is to say that, for example, require braking or evasive action. Static obstacles outside the lanes, which can be part of the infrastructure, plants or the like, should not be taken into account in the following. The method can be carried out with a computing device of a driver assistance system of the vehicle. When the vehicle is in operation or while the vehicle is in motion, the sensor data are continuously provided with the environment sensors of the driver assistance system. For example, measurements or measurement cycles that follow one another in time can be carried out with the environment sensors will. The sensor data are transmitted to the computing device in each measurement cycle. The environment sensors can be radar sensors, lidar sensors, ultrasonic sensors and / or cameras. The sensor data describe the surroundings of the vehicle and in particular objects in the vicinity of the vehicle.

Darüber hinaus werden von der Recheneinrichtung fortlaufend Fahrspurdaten bestimmt. Diese Fahrspurdaten beschreiben eine oder mehrere Fahrspuren in der Umgebung des Fahrzeugs. Insbesondere können diese Fahrspurdaten Fahrbahnen und/oder Fahrstreifen beschreiben. Die Fahrspurdaten können auch einen Fahrschlauch, welcher die (zukünftige) Bewegung des Fahrzeugs oder eines anderen Verkehrsteilnehmers repräsentiert, beschreiben. Diese Fahrspurdaten können beispielsweise auf Grundlage einer digitalen Landkarte und mithilfe eines satellitengestützten Positionsbestimmungssystems ermittelt werden. Alternativ oder zusätzlich können die Fahrspurdaten anhand der Sensordaten bestimmt werden. Dabei können in den Sensordaten Fahrbahnmarkierungen und/oder die Fahrbahnen selbst erkannt werden. Dies gilt insbesondere für den Fall, wenn als Umfeldsensor eine Kamera oder ein Lidar-Sensor verwendet wird.In addition, lane data are continuously determined by the computing device. These lane data describe one or more lanes in the vicinity of the vehicle. In particular, these lane data can describe lanes and / or lanes. The lane data can also describe a driving envelope which represents the (future) movement of the vehicle or of another road user. This lane data can be determined, for example, on the basis of a digital map and with the aid of a satellite-supported position determination system. Alternatively or additionally, the lane data can be determined on the basis of the sensor data. In this case, lane markings and / or the lanes themselves can be recognized in the sensor data. This applies in particular to the case when a camera or a lidar sensor is used as the environment sensor.

Auf Grundlage der Sensordaten wird die statische Belegungskarte bestimmt. Die Belegungskarte kann auch als grid-basierte Karte oder grid map bezeichnet werden. Die statische Belegungskarte kann die nicht bewegten Anteile der Umgebung bzw. Umwelt repräsentiert. Aus dieser können in einem darauffolgenden Schritt die statischen Objekte, beispielsweise ein parkendes Fahrzeug, eine Kiste auf der Straße oder dergleichen, extrahiert werden. Diese statische Belegungskarte kann eine Mehrzahl von Zellen aufweisen, wobei jede Zelle einen bestimmten Bereich in der Umgebung des Fahrzeugs beschreibt. Des Weiteren beschreibt jede Zelle die Wahrscheinlichkeit, dass der Bereich der Umgebung, welchen die Zelle repräsentiert, mit einem statischen Element belegt ist. Die statische Belegungskarte ist demnach ein Abbild der statischen Anteile der Umgebung um das eigene Fahrzeug. Ein nachgelagerter Schritt erlaubt die Extraktion statischer Objekte aus der statischen Belegungskarte. Bevorzugt werden in die statische Belegungskarte ausschließlich Messungen statischer und keine Messungen dynamischer Objekten eingetragen. Wie zuvor erläutert, werden für zeitlich aufeinanderfolgende Messzyklen jeweils die Sensordaten empfangen. Dabei wird die statische Belegungskarte über die Zeit akkumuliert. Dies bedeutet, dass bei der Bestimmung der statischen Belegungskarte die zuvor empfangenen Sensordaten berücksichtigt werden. Insbesondere wird die statische Belegungskarte anhand der Sensordaten von mindestens einem Umfeldsensor über mindestens einen Zeitschritt akkumuliert. Die Zuordnung erfolgt insbesondere direkt über die statische Belegungskarte, sodass dadurch keine virtuellen Bewegungen und damit verbunden eine fälschliche Klassifizierung als dynamisches Objekt erfolgt.The static occupancy card is determined on the basis of the sensor data. The occupancy map can also be referred to as a grid-based map or grid map. The static occupancy card can represent the non-moving parts of the environment or environment. In a subsequent step, the static objects, for example a parked vehicle, a box on the street or the like, can be extracted from this. This static occupancy map can have a plurality of cells, each cell describing a specific area in the vicinity of the vehicle. Furthermore, each cell describes the probability that the area of the environment which the cell represents is occupied by a static element. The static occupancy card is therefore an image of the static components of the environment around the own vehicle. A subsequent step allows the extraction of static objects from the static occupancy map. Only measurements of static objects and no measurements of dynamic objects are preferably entered in the static occupancy card. As explained above, the sensor data are received for successive measurement cycles. The static occupancy card is accumulated over time. This means that the previously received sensor data are taken into account when determining the static occupancy card. In particular, the static occupancy card is accumulated over at least one time step on the basis of the sensor data from at least one environment sensor. The assignment takes place in particular directly via the static occupancy card, so that no virtual movements and, associated with this, a false classification as a dynamic object occurs.

Des Weiteren ist vorgesehen, dass aus den statischen Objekten die relevanten statischen Objekte, welche sich zumindest teilweise auf einer der Fahrspuren befinden, extrahiert werden. Aus der Menge aller statischen Objekte sollen basierend auf der akkumulierten statischen Belegungskarte die relevanten statischen Objekte extrahiert werden. Es sollen also zum einen angehaltene Verkehrsteilnehmer auf der Fahrspur erkannt werden, hinter denen das eigene Fahrzeug angehalten werden sollen. Zum anderen sollen relevante nicht angehaltene statische Objekte, welche sich zumindest bereichsweise auf einer der Fahrspuren befinden, bei der Trajektorienplanung berücksichtig werden. Beispielsweise können diese umfahren werden oder das Fahrzeug kann bei Vorhandensein von Gegenverkehr abgebremst werden. Bei dieser Art statischer Objekte, welche relevante statische Objekte aber keine angehaltenen Verkehrsteilnehmer sind, kann es sich beispielsweise um verlorene Ladung oder andere Gegenstände auf der Fahrbahn handeln. Des Weiteren können solche Objekte geparkte Fahrzeuge sein, welche seitlich in die Fahrspur hinein ragen. Auf Grundlage der statischen Belegungskarte und der Fahrbahndaten können die relevanten statischen Objekte inklusive der angehaltenen Verkehrsteilnehmer erkannt werden. Zudem können anhand der statischen Belegungskarte dann die Eigenschaften der statischen Objekte, wie die Form, Position und/oder Orientierung, geschätzt werden. Da sich die positionsbezogenen und geometrischen Eigenschaften eines statischen Objekts über die Zeit nicht ändern, ist die Schätzung auf Grundlage der akkumulierten statischen Belegungskarte vorteilhaft. Zudem kann beispielsweise überprüft werden, ob die Zellen der statischen Belegungskarte, welche ein statisches Objekt beschreiben, der Fahrspur zugeordnet werden können. Außerdem können die räumlichen Abmessungen der erkannten statischen Objekte bzw. der belegten Zellen und/oder die Form der statischen Objekte und/oder eine Bedeckung der Fahrspur durch die statischen Objekte berücksichtigt werden. Die Form kann beispielsweise mittels bekannter Verfahren, wie PCA (Principal Component Analysis) geschätzt werden. Insgesamt können somit auf zuverlässige Weise relevante statische Objekte in der Umgebung des eigenen Fahrzeugs erkannt werden.Furthermore, it is provided that the relevant static objects, which are at least partially located on one of the lanes, are extracted from the static objects. The relevant static objects are to be extracted from the set of all static objects based on the accumulated static occupancy map. On the one hand, stopped road users are to be recognized in the lane, behind which the own vehicle is to be stopped. On the other hand, relevant static objects which have not been stopped and which are located at least in some areas on one of the lanes should be taken into account in the trajectory planning. For example, these can be bypassed or the vehicle can be braked if there is oncoming traffic. This type of static objects, which are relevant static objects but not stopped road users, can be, for example, lost cargo or other objects on the roadway. Furthermore, such objects can be parked vehicles which protrude laterally into the lane. On the basis of the static occupancy map and the lane data, the relevant static objects, including the stopped road users, can be recognized. In addition, the properties of the static objects, such as the shape, position and / or orientation, can then be estimated on the basis of the static occupancy map. Since the position-related and geometric properties of a static object do not change over time, the estimate based on the accumulated static occupancy map is advantageous. In addition, it can be checked, for example, whether the cells of the static occupancy map which describe a static object can be assigned to the lane. In addition, the spatial dimensions of the recognized static objects or the occupied cells and / or the shape of the static objects and / or the lane being covered by the static objects can be taken into account. The shape can be estimated using known methods such as PCA (Principal Component Analysis), for example. Overall, relevant static objects in the vicinity of one's own vehicle can thus be recognized in a reliable manner.

Bevorzugt weist die akkumulierte statische Belegungskarte eine Mehrzahl von Zellen auf, wobei die jeweiligen Zellen eine Belegung durch den nicht bewegten Anteil der Umgebung beschreiben, und einzelne Zellen werden zum Identifizieren der relevanten statischen Objekte ausgewählt und/oder verbunden. Wie bereits erläutert, kann den jeweiligen Zellen der statischen Belegungskarte eine Wahrscheinlichkeit, dass diese von einem statischen Objekt belegt sind, zugeordnet sein. Dabei kann zunächst eine Binarisierung der statischen Belegungskarte vorgenommen werden. Hierbei können diejenigen belegten Zellen ausgewählt werden, bei welchen die Belegungswahrscheinlichkeit größer als ein Grenzwert, beispielsweise 0,5 bzw. 50 % ist. Im Anschluss daran kann ein Clustern der ausgewählten Zellen vorgenommen werden. Hierbei können beispielsweise Lücken zwischen nahen beieinanderliegenden Zellen geschlossen werden. Zur Extraktion der relevanten statischen Objekte aus den statischen Objekten können die einzelnen Zellen ausgewählt und/oder verbunden werden. Somit können statische Objekte in der Umgebung des Fahrzeugs mit geringem Rechenaufwand zuverlässig erkannt werden.The accumulated static occupancy map preferably has a plurality of cells, the respective cells describing an occupancy by the non-moving part of the environment, and individual cells are selected and / or connected to identify the relevant static objects. As already explained, the respective cells of the static occupancy map can be assigned a probability that these are occupied by a static object. The static occupancy card can first be binarized. In this case, those occupied cells can be selected for which the occupancy probability is greater than a limit value, for example 0.5 or 50%. The selected cells can then be clustered. In this way, for example, gaps between cells that are close together can be closed. To extract the relevant static objects from the static objects, the individual cells can be selected and / or connected. This means that static objects in the vicinity of the vehicle can be reliably identified with little computing effort.

Nachdem die Zellen der statischen Belegungskarte ausgewählt und/oder geclustert wurden, können diese Zellen dann den Fahrspuren zugeordnet werden. Hierzu kann beispielsweise der Scanline-Algorithmus verwendet werden. Alternativ oder zusätzlich kann für jede der Zellen überprüft werden, ob diese zumindest bereichsweise innerhalb einer der erkannten Fahrspuren liegt. Cluster bzw. statische Objekte außerhalb einer der erkannten Fahrspuren können nicht berücksichtigt werden oder gelöscht werden. Wenn ein Cluster bzw. ein statisches Objekt einer Fahrspur zugeordnet wird, kann diesem statischen Objekt eine Kennung bzw. ID der Fahrspur zugewiesen werden.After the cells of the static occupancy map have been selected and / or clustered, these cells can then be assigned to the lanes. The scanline algorithm, for example, can be used for this purpose. As an alternative or in addition, it can be checked for each of the cells whether this is at least partially within one of the detected lanes. Clusters or static objects outside one of the detected lanes cannot be taken into account or deleted. If a cluster or a static object is assigned to a lane, an identifier or ID of the lane can be assigned to this static object.

Bevorzugt werden aus den relevanten statischen Objekten angehaltene Verkehrsteilnehmer identifiziert. Ziel des Verfahrens ist es insbesondere, anhaltende Verkehrsteilnehmer und parkende Verkehrsteilnehmer bzw. statische Hindernisse zu differenzieren. Unter dem Begriff anhaltende Verkehrsteilnehmer sind in diesem Zusammenhang alle Objekte zu verstehen, die auf einer Fahrbahn stehen und potentiell anfahren können, wie beispielsweise ein stehendes Fahrzeug an einer roten Ampel oder abbiegende Fahrzeuge. Im Gegensatz zu parkenden Verkehrsteilnehmern, welche ggf. umfahren werden sollen, soll hinter anhaltenden Verkehrsteilnehmern ebenfalls angehalten werden. Bei den erkannten relevanten statischen Objekten sollen insbesondere die parkenden Verkehrsteilnehmer bzw. stationären Hindernisse (z.B. Karton auf der Straße) von den kurzzeitig angehaltenen Verkehrsteilnehmer (z.B. an einer roten Ampel) unterschieden werden.Stopped road users are preferably identified from the relevant static objects. The aim of the method is, in particular, to differentiate stopping road users and parked road users or static obstacles. In this context, the term stopping road users is to be understood as meaning all objects that are standing on a roadway and can potentially approach them, such as, for example, a stationary vehicle at a red traffic light or vehicles turning. In contrast to parked road users, who should be avoided if necessary, stopping should also be made behind stopping road users. In the case of the relevant static objects recognized, a distinction should be made, in particular, between the parked road users or stationary obstacles (e.g. cardboard boxes on the street) and the temporarily stopped road users (e.g. at a red traffic light).

In einer Ausführungsform wird die Identifizierung der jeweiligen angehaltenen Verkehrsteilnehmer anhand von räumlichen Abmessungen der jeweiligen relevanten statischen Objekte und/oder einer Form der jeweiligen relevanten statischen Objekte und/oder einer Bedeckung der Fahrspur durch die jeweiligen relevanten statischen Objekte plausibilisiert. Aus den erkannten relevanten statischen Objekten sollen die angehaltenen Verkehrsteilnehmer extrahiert werden. Dazu können die räumlichen Abmessungen des statischen Objekts überprüft werden. Handelt es sich um ein kleines Objekt bzw. unterschreiten die räumlichen Abmessungen des statischen Objekts einen vorbestimmten Grenzwert, kann dieses Objekt als relevantes statisches Objekt aber nicht als angehaltener Verkehrsteilnehmer angesehen werden. Bei einem kleinen Objekt auf der Fahrspur kann es sich beispielsweise um einen Gegenstand handeln. Alternativ oder zusätzlich kann eine Bedeckung der Fahrspur durch das statische Objekt berücksichtigt werden. Wenn das statische Objekt nur einen geringen Bereich bedeckt bzw. wenn die Bedeckung einen Mindestwert unterschreitet, kann dieses Objekt als relevantes statisches Objekt aber nicht als angehaltener Verkehrsteilnehmer angesehen werden. Hierbei kann auch berücksichtigt werden, welchen Bereich der Fahrbahn das Objekt bedeckt. Wenn das Objekt beispielsweise einen seitlichen Bereich der Fahrspur bedeckt, kann es als geparktes Fahrzeug, welches teilweise in die Fahrspur ragt, und nicht als kurzzeitig angehaltener Verkehrsteilnehmer erkannt werden. Auf diese Weise können angehaltene Verkehrsteilnehmer zuverlässig von parkenden Verkehrsteilnehmern bzw. statischen Hindernissen unterschieden werden.In one embodiment, the identification of the respective stopped traffic participants is checked for plausibility on the basis of spatial dimensions of the respective relevant static objects and / or a shape of the respective relevant static objects and / or a coverage of the lane by the respective relevant static objects. The stopped road users are to be extracted from the recognized relevant static objects. For this purpose, the spatial dimensions of the static object can be checked. If the object is a small object or if the spatial dimensions of the static object fall below a predetermined limit value, this object can be viewed as a relevant static object but not as a stopped road user. A small object in the lane can be an object, for example. As an alternative or in addition, the lane being covered by the static object can be taken into account. If the static object only covers a small area or if the coverage falls below a minimum value, this object can be viewed as a relevant static object but not as a stopped road user. This can also take into account which area of the roadway the object covers. If the object covers, for example, a side area of the lane, it can be recognized as a parked vehicle which partially protrudes into the lane and not as a temporarily stopped road user. In this way, stopped road users can be reliably distinguished from parked road users or static obstacles.

In einer weiteren Ausführungsform werden Kameradaten empfangen und eine Klassifizierung der relevanten statischen Objekte innerhalb der Fahrspur wird anhand der Kameradaten durchgeführt. Mittels der Recheneinrichtung können also Kameradaten von einer Kamera empfangen werden. Die Kamera kann ein Umfeldsensor des Fahrerassistenzsystems sein. In diesem Fall entsprechen die Kameradaten einer Teilmenge der Sensordaten. Anhand der Bilddaten bzw. Kameradaten können die jeweiligen statischen Objekte erkannt und/oder klassifiziert werden. Beispielsweise können die Objekte als Fahrzeug, Motorrad, Radfahrer, Fußgänger oder dergleichen erkannt werden. Diese Klassifizierung kann bei der zuvor beschriebenen Plausibilitätsprüfung berücksichtigt werden. Wenn ein Objekt auf Grundlage der Kameradaten als Motorrad erkannt wird, kann dies als angehaltener Verkehrsteilnehmer identifiziert werden, auch wenn die räumlichen Abmessungen und/oder die Bedeckung der Fahrspur durch das Objekt gering sind. In diesem Fall soll das Fahrzeug hinter dem Verkehrsteilnehmer angehalten werden, auch wenn ein Überholen möglich ist.In a further embodiment, camera data are received and a classification of the relevant static objects within the lane is carried out on the basis of the camera data. Camera data can therefore be received from a camera by means of the computing device. The camera can be an environment sensor of the driver assistance system. In this case the camera data correspond to a subset of the sensor data. The respective static objects can be recognized and / or classified on the basis of the image data or camera data. For example, the objects can be recognized as a vehicle, motorcycle, cyclist, pedestrian or the like. This classification can be taken into account in the plausibility check described above. If an object is recognized as a motorcycle on the basis of the camera data, this can be identified as a stopped road user, even if the spatial dimensions and / or the lane coverage by the object is small. In this case, the vehicle should be stopped behind the road user, even if overtaking is possible.

Weiterhin ist vorteilhaft, wenn anhand der akkumulierten statischen Belegungskarte eine Ausrichtung und/oder Bewegungsrichtung der jeweiligen angehaltenen Verkehrsteilnehmer bestimmt wird. Wenn die angehaltenen Verkehrsteilnehmer aus den relevanten statischen Objekten extrahiert wurden, kann eine Ausrichtung der angehaltenen Verkehrsteilnehmer bestimmt werden. Dies kann auf Grundlage der statischen Belegungskarte, insbesondere nach der Binarisierung und dem Clustern, erfolgen. Den belegten Zellen der Belegungskarten kann ein rechteckförmiger Hüllkörper bzw. eine sogenannte bounding box zugeordnet werden. Hierzu können unterschiedliche Boxen für die Ausrichtung der erkannten Fahrspuren bestimmt werden. Es kann auch vorgesehen sein, dass eine Box auf Grundlage der Ausrichtung des eigenen Fahrzeugs bestimmt wird. Diese unterschiedlichen Boxen, welche unterschiedliche Ausrichtungen aufweisen, können als Hypothesen dienen. Ferner kann eine Score-Funktion auf unterschiedlich orientierte Hypothesen angewendet werden. Somit kann eine der Boxen bzw. Hüllkörper den Zellen bzw. dem Cluster zugeordnet werden. Anhand der ausgewählten Box können dann die Ausrichtung und/oder die zukünftige Bewegungsrichtung des angehaltenen Verkehrsteilnehmers bestimmt werden. Grundsätzlich können die Hüllkörper jede beliebige Form aufweisen. Bei der Bestimmung der Ausrichtung und/oder der zukünftigen Bewegungsrichtung können auch die zuvor beschriebenen Kameradaten genutzt werden. Mittels des gewichteten Abstandes zwischen der Box und den Zellen kann zudem eine Aussage getroffen werden, wie gut das Objekt durch ein Rechteck abgebildet werden kann. Diese Formschätzung kann ein weiterer Indikator sein, ob es sich um einen angehaltenen Verkehrsteilnehmer handelt.It is also advantageous if an alignment and / or direction of movement of the respective stopped road users is determined on the basis of the accumulated static occupancy map. When the stopped road users have been extracted from the relevant static objects, an alignment of the stopped Road users are determined. This can be done on the basis of the static occupancy card, especially after binarization and clustering. A rectangular enveloping body or a so-called bounding box can be assigned to the occupied cells of the occupancy cards. For this purpose, different boxes can be determined for the alignment of the detected lanes. It can also be provided that a box is determined on the basis of the orientation of the own vehicle. These different boxes, which have different orientations, can serve as hypotheses. Furthermore, a score function can be applied to differently oriented hypotheses. One of the boxes or enveloping bodies can thus be assigned to the cells or the cluster. The alignment and / or the future direction of movement of the stopped road user can then be determined on the basis of the selected box. In principle, the enveloping bodies can have any shape. When determining the alignment and / or the future direction of movement, the camera data described above can also be used. Using the weighted distance between the box and the cells, a statement can also be made as to how well the object can be represented by a rectangle. This shape estimate can be a further indicator of whether the road user is stopped.

In einer weiteren Ausführungsform beschreiben die Fahrspurdaten zumindest zwei Fahrspuren in der Umgebung und die jeweiligen angehaltenen Verkehrsteilnehmer werden anhand ihrer Ausrichtung und/oder Bewegungsrichtung einer der zumindest zwei Fahrspuren zugeordnet. Wenn in der Umgebung mehrere Fahrspuren erkannt werden, kann dann auf Grundlage der Ausrichtung und/oder Bewegungsrichtung des angehaltenen Verkehrsteilnehmers erkannt werden, auf welcher der Fahrspuren sich der angehaltene Verkehrsteilnehmer befindet und/oder bewegen wird. Diese Informationen können von dem Fahrerassistenzsystem zum Manövrieren des Fahrzeugs und/oder zum Durchführen von Fahrmanövern genutzt werden.In a further embodiment, the lane data describe at least two lanes in the vicinity and the respective stopped road users are assigned to one of the at least two lanes on the basis of their alignment and / or direction of movement. If several lanes are recognized in the vicinity, it can then be recognized on the basis of the orientation and / or direction of movement of the stopped road user in which of the lanes the stopped road user is and / or will be moving. This information can be used by the driver assistance system to maneuver the vehicle and / or to carry out driving maneuvers.

Es kann zudem vorgesehen sein, dass Informationen bezüglich der Objekte von einem nachgelagerten Modul, welches der Pfadplanung dient, genutzt werden. Dabei können nur diejenigen angehaltenen Verkehrsteilnehmer berücksichtigt werden, welche sich in einem zukünftigen Pfad des Fahrzeugs befinden. Wenn beispielsweise kein Spurwechsel vorgesehen ist, können nur angehaltene Verkehrsteilnehmer auf der Fahrspur bzw. dem Fahrstreifen des Fahrzeugs berücksichtigt werden. Es kann ferner vorgesehen sein, dass bei der Erkennung der angehaltenen Verkehrsteilnehmer nur die Objekte in dem zukünftigen Pfad des Fahrzeugs berücksichtigt werden. Ferner können auch Objekten auf einer anderen Richtungsfahrbahn nicht berücksichtigt werden. Auf diese Weise kann der Rechenaufwand reduziert werden.Provision can also be made for information relating to the objects to be used by a downstream module which is used for path planning. Only those stopped road users who are in a future path of the vehicle can be taken into account. If, for example, no lane change is provided, only stopped road users in the lane or the lane of the vehicle can be taken into account. It can also be provided that only the objects in the future path of the vehicle are taken into account when the stopped road users are recognized. Furthermore, objects on a different lane cannot be taken into account. In this way, the computational effort can be reduced.

Wie bereits erläutert, können die Fahrspurdaten auf Grundlage einer digitalen Landkarte und/oder anhand der Sensordaten des zumindest einen Umfeldsensors bestimmt werden. Es kann ferner vorgesehen sein, dass Odometriedaten von einem Positionssensor des Fahrzeugs empfangen werden. Diese Odometriedaten können die aktuelle Geschwindigkeit und die Drehrate des Fahrzeugs beschreiben. Die Odometriedaten können bei der Bestimmung der statischen Belegungskarte berücksichtigt werden. Zudem können die Odometriedaten bei der zuvor beschriebenen Bestimmung der Ausrichtung der angehaltenen Verkehrsteilnehmer als zusätzliche Hypothese berücksichtig werden.As already explained, the lane data can be determined on the basis of a digital map and / or on the basis of the sensor data of the at least one environment sensor. Provision can also be made for odometry data to be received from a position sensor of the vehicle. This odometry data can describe the current speed and the rate of rotation of the vehicle. The odometry data can be taken into account when determining the static occupancy card. In addition, the odometry data can be taken into account as an additional hypothesis in the previously described determination of the orientation of the stopped road users.

In einer weiteren Ausgestaltung wird in Abhängigkeit von der Identifizierung der relevanten Objekte aber nicht angehaltenen Verkehrsteilnehmer (d.h. parkend oder stationäres Hindernis) innerhalb der Fahrspur aus den statischen Objekten ein Überholvorgang entschieden. Wenn ein statisches Objekt als relevantes statisches Objekt aber nicht kurzzeitig anhaltender Verkehrsteilnehmer identifiziert wird, kann mittels des Fahrerassistenzsystems ein Fahrmanöver zum Überholen des statischen Objekts bzw. zum Vorbeifahren an dem statischen Objekt durchgeführt werden. Ist ein Überholen aktuell nicht möglich, weil die Ausweichtrajektorie beispielsweise wegen Gegenverkehr belegt ist, kann ein gewisser Abstand in Fahrtrichtung zu dem statischen Objekt gehalten werden. Auf diese Weise ist ein Überholvorgang möglich, wenn die Trajektorie wieder frei ist. Falls ein statisches Objekt als angehaltener Verkehrsteilnehmer erkannt wird, kann mittels des Fahrerassistenzsystems das eigene Fahrzeug hinter dem angehaltenen Verkehrsteilnehmer zum Stehen kommen. Der Abstand ist in diesem Fall deutlich geringer, um die Abstände z.B. vor Ampeln oder im Stau gering zu halten. Ein kurzzeitig angehaltener Verkehrsteilnehmer soll also nicht überholt werden. Das Überholen kann zudem in Abhängigkeit von der Spurzuordnung und/oder der Spurbelegung des relevanten statischen Objekts bzw. des angehaltenen Verkehrsteilnehmers entschieden werden. Dies gilt beispielsweise für den Fall, wenn ein abbiegender angehaltener Verkehrsteilnehmer noch teilweise in die eigene Fahrspur ragt.In a further embodiment, depending on the identification of the relevant objects but not stopped traffic participants (i.e. parking or stationary obstacle) within the lane, an overtaking process is decided from the static objects. If a static object is identified as a relevant static object but not a short-term traffic participant, the driver assistance system can be used to carry out a driving maneuver to overtake the static object or to drive past the static object. If overtaking is currently not possible because the evasive trajectory is occupied, for example due to oncoming traffic, a certain distance can be maintained in the direction of travel from the static object. In this way, overtaking is possible when the trajectory is clear again. If a static object is recognized as a stopped road user, the driver assistance system can bring the driver's vehicle to a stop behind the stopped road user. In this case, the distance is significantly smaller in order to keep the distances short, e.g. in front of traffic lights or in a traffic jam. A road user who has stopped briefly should not be overtaken. Overtaking can also be decided as a function of the lane allocation and / or the lane occupancy of the relevant static object or the stopped road user. This applies, for example, to the case when a road user who has stopped turning is still partially protruding into his own lane.

Insgesamt kann also zwischen drei Typen von statischen Objekten unterschieden werden. Zum einen gibt es nicht relevante statische Objekte, wie Hindernisse oder Verkehrsteilnehmer außerhalb des eigenen Fahrschlauchs oder der Straße. Auf diese nicht relevanten Objekte soll nicht reagiert werden. Des Weiteren gibt es die zuvor beschriebenen relevanten statischen Objekte und die angehaltenen Verkehrsteilnehmer, wobei die angehaltenen Verkehrsteilnehmer eine Teilmenge der relevanten statischen Objekte sind.Overall, a distinction can be made between three types of static objects. On the one hand, there are static objects that are not relevant, such as obstacles or road users outside of your own driving path or the road. There should be no reaction to these irrelevant objects. There are also the relevant static objects described above and those that have been stopped Road users, the stopped road users being a subset of the relevant static objects.

Eine erfindungsgemäße Recheneinrichtung für ein Sensorsystem eines Fahrzeugs ist zum Durchführen eines erfindungsgemäßen Verfahrens unter vorteilhaften Ausgestaltungen davon ausgelegt bzw. eingerichtet. Die Recheneinrichtung kann insbesondere durch ein elektronisches Steuergerät eines Fahrzeugs gebildet sein.A computing device according to the invention for a sensor system of a vehicle is designed or set up to carry out a method according to the invention with advantageous embodiments thereof. The computing device can in particular be formed by an electronic control unit of a vehicle.

Ein erfindungsgemäßes Fahrerassistenzsystem für ein Fahrzeug umfasst eine erfindungsgemäße Recheneinrichtung. Des Weiteren kann das Fahrerassistenzsystem eine Mehrzahl von Umfeldsensoren aufweisen, mit denen die Sensordaten bereitgestellt werden können. Das Fahrerassistenzsystem kann auch einen Positionssensor zum Bereitstellen der Odometriedaten umfassen. Auf einem Speicher des Fahrzeugs bzw. des Fahrerassistenzsystems kann eine digitale Landkarte gespeichert sein. Zudem kann die Position des Fahrzeugs mittels eines satellitengestützten Positionsbestimmungssystems ermittelt werden. Mittels des Fahrerassistenzsystems kann das Fahrzeug automatisiert oder autonom manövriert werden. In Abhängigkeit davon, ob die statischen Objekte in der Umgebung als relevante angehaltene Verkehrsteilnehmer oder als relevante parkende Verkehrsteilnehmer bzw. statische Hindernisse erkannt werden, kann mit dem Fahrerassistenzsystem ein Fahrmanöver geplant werden.A driver assistance system according to the invention for a vehicle comprises a computing device according to the invention. Furthermore, the driver assistance system can have a plurality of environment sensors with which the sensor data can be provided. The driver assistance system can also include a position sensor for providing the odometry data. A digital map can be stored in a memory of the vehicle or of the driver assistance system. In addition, the position of the vehicle can be determined by means of a satellite-supported position determination system. The vehicle can be maneuvered automatically or autonomously by means of the driver assistance system. Depending on whether the static objects in the vicinity are recognized as relevant stopped traffic participants or as relevant parking traffic participants or static obstacles, a driving maneuver can be planned with the driver assistance system.

Ein erfindungsgemäßes Fahrzeug umfasst ein erfindungsgemäßes Fahrerassistenzsystems bzw. eine erfindungsgemäße Recheneinrichtung. Das Fahrzeug ist insbesondere als Personenkraftwagen ausgebildet. Es kann auch vorgesehen sein, dass das Fahrzeug als Nutzfahrzeug ausgebildet ist.A vehicle according to the invention comprises a driver assistance system according to the invention or a computing device according to the invention. The vehicle is designed in particular as a passenger car. It can also be provided that the vehicle is designed as a utility vehicle.

Ein weiterer Aspekt der Erfindung betrifft ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinrichtung diese veranlassen, ein erfindungsgemäßes Verfahren und die vorteilhaften Ausgestaltungen davon auszuführen. Des Weiteren betrifft die Erfindung ein computerlesbares (Speicher)medium, umfassend Befehle, die bei der Ausführung durch eine Recheneinrichtung diese veranlassen, ein erfindungsgemäßes Verfahren und die vorteilhaften Ausgestaltungen davon auszuführen.A further aspect of the invention relates to a computer program, comprising commands which, when the program is executed by a computing device, cause it to execute a method according to the invention and the advantageous refinements thereof. The invention further relates to a computer-readable (storage) medium, comprising instructions which, when executed by a computing device, cause the computing device to execute a method according to the invention and the advantageous embodiments thereof.

Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für die erfindungsgemäße Recheneinrichtung, für das erfindungsgemäße Fahrerassistenzsystem, für das erfindungsgemäße Fahrzeug, für das erfindungsgemäße Computerprogramm sowie für das erfindungsgemäße computerlesbare (Speicher)medium.The preferred embodiments presented with reference to the method according to the invention and their advantages apply accordingly to the computing device according to the invention, for the driver assistance system according to the invention, for the vehicle according to the invention, for the computer program according to the invention and for the computer-readable (memory) medium according to the invention.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.Further features of the invention emerge from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description, as well as the features and combinations of features mentioned below in the description of the figures and / or shown alone in the figures, can be used not only in the specified combination, but also in other combinations or on their own, without the frame to leave the invention.

Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Dabei zeigen:

  • 1 eine schematische Darstellung eines Fahrzeugs, welches ein Fahrerassistenzsystem aufweist;
  • 2 eine schematische Darstellung einer Verkehrssituation, bei welcher sich eine Mehrzahl von statischen Objekten in einer Umgebung des Fahrzeugs befindet;
  • 3 eine schematische Darstellung von Messpunkten eines statischen Objekts, wobei die Messpunkte zu unterschiedlichen Zeitpunkten aufgenommen werden;
  • 4 ein schematisches Ablaufdiagramm eines Verfahrens zum Erfassen von statischen Objekten in der Umgebung des Fahrzeugs gemäß einer ersten Ausführungsform;
  • 5 eine schematische Darstellung einer statischen Belegungskarte, bei welcher belegte Zellen ausgewählt werden und die ausgewählten Zellen geclustert werden;
  • 6 eine schematische Darstellung von mehreren Hypothesen-Boxen, welche den belegten Zellen einer statischen Belegungskarte zugeordnet werden; und
  • 7 ein schematisches Ablaufdiagramm eines Verfahrens zum Erfassen von statischen Objekten in der Umgebung des Fahrzeugs gemäß einer zweiten Ausführungsform.
The invention will now be explained in more detail using preferred exemplary embodiments and with reference to the accompanying drawings. Show:
  • 1 a schematic representation of a vehicle having a driver assistance system;
  • 2 a schematic representation of a traffic situation in which a plurality of static objects are in the vicinity of the vehicle;
  • 3 a schematic representation of measuring points of a static object, the measuring points being recorded at different times;
  • 4th a schematic flow diagram of a method for detecting static objects in the vicinity of the vehicle according to a first embodiment;
  • 5 a schematic representation of a static occupancy map, in which occupied cells are selected and the selected cells are clustered;
  • 6th a schematic representation of several hypothesis boxes, which are assigned to the occupied cells of a static occupancy card; and
  • 7th a schematic flow diagram of a method for detecting static objects in the vicinity of the vehicle according to a second embodiment.

In den Figuren werden gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.Identical or functionally identical elements are provided with the same reference symbols in the figures.

1 zeigt in einer schematischen Darstellung ein Fahrzeug 1, welches vorliegend als Personenkraftwagen ausgebildet ist, in einer Draufsicht. Das Fahrzeug 1 umfasst ein Fahrerassistenzsystem 2, mittels welchem das Fahrzeug 1 automatisiert oder autonom manövriert werden kann. Das Fahrerassistenzsystem 2 umfasst eine Recheneinrichtung 3, welche beispielsweise durch ein elektronisches Steuergerät des Fahrzeugs 1 gebildet sein kann. 1 shows a vehicle in a schematic representation 1 , which is designed here as a passenger car, in a plan view. The vehicle 1 includes a driver assistance system 2 , by means of which the vehicle 1 can be maneuvered automatically or autonomously. The driver assistance system 2 comprises a computing device 3 which, for example, by an electronic control unit of the vehicle 1 can be formed.

Des Weiteren umfasst das Fahrerassistenzsystem 2 zwei Umfeldsensoren 4, welche vorliegend als Radarsensoren und/oder Lidar-Sensoren ausgebildet sind. Außerdem umfasst das Fahrerassistenzsystem 2 einen weiteren Umfeldsensor 5, welcher als Kamera ausgebildet ist. Grundsätzlich kann das Fahrerassistenzsystem 2 eine Mehrzahl von Umfeldsensoren 4, 5 aufweisen. Mit den jeweiligen Umfeldsensoren 4, 5 werden Sensordaten bereitgestellt, welche eine Umgebung 6 des Fahrzeugs 1 beschreiben. Diese Sensordaten können von den Umfeldsensoren 4, 5 an die Recheneinrichtung 3 übertragen werden. Darüber hinaus umfasst das Fahrerassistenzsystem 2 einen Bewegungssensor 7, mittels welchem die aktuelle Geschwindigkeit und/oder Drehrate des Fahrzeugs 1 mittels Odometrie bestimmt werden kann.It also includes the driver assistance system 2 two environment sensors 4th , which in the present case are designed as radar sensors and / or lidar sensors. The driver assistance system also includes 2 another environment sensor 5 , which is designed as a camera. In principle, the driver assistance system 2 a plurality of environment sensors 4th , 5 exhibit. With the respective environment sensors 4th , 5 sensor data are provided, which an environment 6th of the vehicle 1 describe. This sensor data can from the environment sensors 4th , 5 to the computing device 3 be transmitted. It also includes the driver assistance system 2 a motion sensor 7th , by means of which the current speed and / or rate of rotation of the vehicle 1 can be determined by means of odometry.

2 zeigt in einer stark vereinfachten Darstellung eine Verkehrssituation, bei welcher sich eine Mehrzahl von statischen Objekten 8 in der Umgebung 6 des Fahrzeugs 1 befinden. Dabei bewegt sich das Fahrzeug 1 entlang einer Bewegungsrichtung 9. Das Fahrzeug 1 befindet sich auf einer ersten Fahrspur L1. In der Umgebung 6 des Fahrzeugs 1 ist zudem eine zweite Fahrspur L2 vorhanden. Die jeweiligen Fahrspuren L1, L2 können anhand einer digitalen Landkarte ermittelt werden. Alternativ oder zusätzlich können entsprechende Fahrspurmarkierungen der Fahrspuren L1, L2 anhand der Sensordaten bzw. Bilddaten der Kamera erkannt werden. 2 shows, in a greatly simplified representation, a traffic situation in which a plurality of static objects are located 8th in the neighborhood 6th of the vehicle 1 are located. The vehicle moves 1 along a direction of movement 9 . The vehicle 1 is in a first lane L1 . In the neighborhood 6th of the vehicle 1 is also a second lane L2 available. The respective lanes L1 , L2 can be determined using a digital map. Alternatively or additionally, corresponding lane markings of the lanes can be used L1 , L2 can be recognized on the basis of the sensor data or image data of the camera.

Die jeweiligen statischen Objekte 8 können anhand der Sensordaten erkannt werden, welche mit den Umfeldsensoren 4, 5 bereitgestellt werden. Vorliegend sind zudem Bereiche 10 der Objekte 8 dargestellt, welche mit den Umfeldsensoren 4, 5 erkannt werden können. In der gezeigten Verkehrssituation können als statische Objekte 8 nicht relevante Hindernisse 11 außerhalb der Fahrspuren L1, L2. Diese Hindernisse 11 sollen nicht berücksichtig werden, da diese stationär sind und sich nicht auf die Fahrspuren L1, L2 bewegen können. Auf der Fahrspur L1 des Fahrzeugs 1 befindet sich zudem ein relevantes statisches Objekt in Form eines statischen Hindernisses 12. Bei diesem statischen Hindernis 12 kann es sich beispielsweise um eine verlorene Ladung, beispielsweise eine Box, handeln. Dieses statische Hindernis 12 bedeckt nur einen kleinen Bereich der Fahrspur L1. In diesem Fall kann mittels des Fahrerassistenzsystems 2 ein Ausweichmanöver zum Vorbeifahren an dem statischen Hindernis 12 bestimmt werden. Es kann auch vorgesehen sein, dass das Fahrzeug 1 mittels des Fahrerassistenzsystems 2 in einem größeren Abstand zu dem statischen Hindernis 12 angehalten wird, sodass der Fahrer entscheiden kann bzw. Fahrmanöver durchführen kann. Darüber hinaus befindet sich als relevantes statisches Objekt 8 ein geparktes Fahrzeug 13 in der Umgebung 6 des Fahrzeugs 1. Von diesem geparkten Fahrzeug 13 ragt nur eine Seite so in die Fahrspur L1, sodass ein geringer Bereich der Fahrspur L1 bedeckt ist. An diesem geparkten Fahrzeug 13 kann das Fahrzeug 1 vorbei manövriert werden.The respective static objects 8th can be recognized on the basis of the sensor data, which with the environment sensors 4th , 5 to be provided. There are also areas here 10 of the objects 8th shown, which with the environment sensors 4th , 5 can be recognized. In the traffic situation shown, static objects 8th irrelevant obstacles 11th outside the lanes L1 , L2 . These obstacles 11th should not be taken into account, as these are stationary and not on the lanes L1 , L2 can move. In the lane L1 of the vehicle 1 there is also a relevant static object in the form of a static obstacle 12th . With this static obstacle 12th For example, it can be a lost load, for example a box. This static obstacle 12th covers only a small area of the lane L1 . In this case, by means of the driver assistance system 2 an evasive maneuver to drive past the static obstacle 12th to be determined. It can also be provided that the vehicle 1 by means of the driver assistance system 2 at a greater distance from the static obstacle 12th is stopped so that the driver can decide or carry out driving maneuvers. In addition, there is a relevant static object 8th a parked vehicle 13th in the neighborhood 6th of the vehicle 1 . From this parked vehicle 13th only one side protrudes into the lane L1 so that a small area of the lane L1 is covered. At this parked vehicle 13th can the vehicle 1 be maneuvered past.

Auf der Fahrspur L1 des Fahrzeugs 1 befindet sich als statisches Objekt 8 zudem ein erster angehaltener Verkehrsteilnehmer 14a. Bei dem angehaltenen Verkehrsteilnehmer 14a kann es sich beispielsweise um ein angehaltenes Fahrzeug handeln. Diesem angehaltenen ersten Verkehrsteilnehmer 14a nähert sich das Fahrzeug 1 von hinten an. Auf Grundlage der Sensordaten der Umfeldsensoren 4, 5 kann der hintere Bereich 10 des angehaltenen ersten Verkehrsteilnehmers 14a erfasst werden. Hier soll das Fahrzeug 1 hinter dem angehaltenen ersten Verkehrsteilnehmer 14a angehalten werden. Außerdem befindet sich als statisches Objekt 8 ein zweiter angehaltener Verkehrsteilnehmer 14b in der Umgebung 6 des Fahrzeugs 1. Auch diesem zweiten angehaltenen Verkehrsteilnehmer 14b nähert sich das Fahrzeug 1 von hinten an. Mithilfe der Umfeldsensoren 4, 5 kann als Bereich 10 das Heck und ein Teil der Seite des zweiten angehaltenen Verkehrsteilnehmers 14b erkannt werden. Das Ziel ist es, zu erkennen, dass dieser zweite angehaltene Verkehrsteilnehmer 14b nach rechts abbiegen möchte und dass das Fahrzeug 1 an dem zweiten angehaltenen Verkehrsteilnehmer 14b vorbeifahren kann.In the lane L1 of the vehicle 1 is located as a static object 8th also a first stopped road user 14a . At the stopped road user 14a it can be a stopped vehicle, for example. This stopped first road user 14a the vehicle approaches 1 from behind. Based on the sensor data of the environment sensors 4th , 5 can the rear area 10 of the stopped first road user 14a are recorded. This is where the vehicle should be 1 behind the stopped first road user 14a be stopped. It is also located as a static object 8th a second stopped road user 14b in the neighborhood 6th of the vehicle 1 . Also this second stopped road user 14b the vehicle approaches 1 from behind. With the help of the environment sensors 4th , 5 can be used as an area 10 the stern and part of the side of the second stopped road user 14b be recognized. The goal is to recognize that this second stopped road user 14b want to turn right and that the vehicle 1 on the second stopped road user 14b can drive past.

Bei der Erfassung der statischen Objekte 8 ist es vorgesehen, dass die Messungen mit den Umfeldsensoren 4, 5 über der Zeit akkumuliert werden. Hierzu werden zeitlich aufeinanderfolgenden Messungen bzw. Messzyklen durchgeführt. Dies wird nachfolgend anhand von 3 erläutert. Dabei wird davon ausgegangen, dass sich das Fahrzeug 1 einem statischen Objekt 8 von hinten nähert und links an diesem statischen Objekt 8 vorbeifährt. Bei dem statischen Objekt 8 kann es sich beispielsweise um das geparkte Fahrzeug 13 handeln. Dabei sind auf der linken Seite von 3 erste Messpunkte 15a dargestellt, die zu einem ersten Zeitpunkt bestimmt werden. Diese ersten Messpunkte 15a beschreiben die Rückseite des statischen Objekts 8.When capturing static objects 8th it is intended that the measurements with the environment sensors 4th , 5 are accumulated over time. For this purpose, measurements or measuring cycles that follow one another in time are carried out. This is illustrated below using 3 explained. It is assumed that the vehicle is 1 a static object 8th approaching from behind and to the left of this static object 8th drives past. With the static object 8th For example, it can be the parked vehicle 13th Act. Doing so are on the left of 3 first measuring points 15a shown, which are determined at a first point in time. These first measuring points 15a describe the back of the static object 8th .

Auf der rechten Seite von 3 sind zweite Messpunkte 15b dargestellt, welche zu einem zweiten Zeitpunkt bestimmt werden, welcher auf den ersten Zeitpunkt folgt. Die zweiten Messpunkte 15b beschreiben die Rückseite und einen Teil der linken Seite des statischen Objekts 8. Zusätzlich zu den zweiten Messpunkten 15b sind auch die ersten Messpunkte 15a gezeigt. In diesem vereinfachten Beispiel sind auf der rechten Seite von 3 alle bisher erfassten Messpunkte 15a, 15b des statischen Objekts 8 gezeigt. Dabei können die ersten Messpunkte 15a den korrespondierenden zweiten Messpunkten 15b zugeordnet werden bzw. die korrespondierenden Messpunkte 15a, 15b können fusioniert werden. Die zu den unterschiedlichen Zeitpunkten aufgenommenen Messpunkte 15a, 15b, weisen einen Versatz zueinander auf. Dies kann dadurch begründet sein, dass sich der Betrachtungswinkel zwischen den Zeitpunkten geändert hat. Wenn diese Messpunkte 15a, 15b unabhängig voneinander betrachtet werden, kann fälschlicherweise davon ausgegangen werden, dass sich das statische Objekt 8 bewegt und/oder dreht. Dies ist anhand der jeweiligen Box 16 ersichtlich, welche die Ausrichtung des Objekts 8 beschreibt. Durch das Akkumulieren der Messpunkte 15a, 15b kann dies verhindert werden. Wie nachfolgend näher erläutert, kann eine statische Belegungskarte M verwendet werden.To the right of 3 are second measuring points 15b shown, which are determined at a second point in time, which follows the first point in time. The second measuring points 15b describe the back and part of the left side of the static object 8th . In addition to the second measuring points 15b are also the first measuring points 15a shown. This simplified example is to the right of 3 all previously recorded measuring points 15a , 15b of the static object 8th shown. The first measuring points 15a the corresponding second measuring points 15b assigned or the corresponding measuring points 15a , 15b can be merged. Those at different times recorded measuring points 15a , 15b , are offset from one another. This can be due to the fact that the viewing angle has changed between the points in time. When these measuring points 15a , 15b viewed independently of one another, it can be mistakenly assumed that the static object is 8th moves and / or rotates. This is based on the respective box 16 can be seen which is the orientation of the object 8th describes. By accumulating the measurement points 15a , 15b this can be prevented. As explained in more detail below, a static occupancy card M can be used.

4 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zum Erfassen von statischen Objekten 8 in der Umgebung 6 des Fahrzeugs 1 gemäß einer ersten Ausführungsform. Dieses Verfahren kann mittels der Recheneinrichtung 3 durchgeführt werden. Hierzu kann ein Computerprogramm mittels der Recheneinrichtung 3 ausgeführt werden. In einem Schritt S1 werden auf Grundlage einer digitalen Landkarte und mithilfe eines satellitengestützten Positionsbestimmungssystems Daten zu den Fahrspuren L1, L2 ermittelt. Die Daten der Fahrspuren L1, L2 können die räumlichen Abmessungen bzw. die Geometrie der Fahrspuren L1, L2 beschreiben. Alternativ oder zusätzlich können in einem Schritt S2 die Daten zu den Fahrspuren L1, L2 anhand der Sensordaten der Umfeldsensoren 4, 5 und insbesondere der Kamera bestimmt werden. In einem Schritt S3 werden die Sensordaten von den Umfeldsensoren 4, 5 empfangen. In einem Schritt S4 werden Odometriedaten von dem Positionssensor 7 empfangen. Anhand der Sensordaten sowie der Odometriedaten, welche eine aktuelle Geschwindigkeit und Drehrate des Fahrzeugs 1 beschreiben, kann dann die statische Belegungskarte M bestimmt werden. 4th shows a schematic flow diagram of a method for detecting static objects 8th in the neighborhood 6th of the vehicle 1 according to a first embodiment. This method can be carried out by means of the computing device 3 be performed. A computer program can be used for this purpose using the computing device 3 are executed. In one step S1 data on the lanes are generated on the basis of a digital map and with the help of a satellite-supported positioning system L1 , L2 determined. The data of the lanes L1 , L2 the spatial dimensions or the geometry of the lanes L1 , L2 describe. Alternatively or additionally you can do this in one step S2 the data on the lanes L1 , L2 based on the sensor data of the environment sensors 4th , 5 and in particular the camera. In one step S3 the sensor data from the environment sensors 4th , 5 receive. In one step S4 becomes odometry data from the position sensor 7th receive. Using the sensor data and the odometry data, which shows the current speed and rate of rotation of the vehicle 1 describe, the static occupancy map M can then be determined.

Eine solche statische Belegungskarte M ist in dem Abschnitt a) von 5 schematisch dargestellt. Die statische Belegungskarte M weist eine Mehrzahl von Zellen 16, 17 auf, wobei jede der Zellen 16, 17 einen bestimmten Bereich in der Umgebung 6 des Fahrzeugs 1 beschreibt. Die Belegungskarte M umfasst belegte Zellen 16, welche ein statisches Objekt 8 in der Umgebung 6 beschreiben, sowie unbelegte Zellen 17, welche kein statisches Objekt 8 in der Umgebung 6 beschreiben. Die gezeigte statische Belegungskarte M beschreibt den zweiten angehaltenen Verkehrsteilnehmer 14b gemäß 2. Wie zuvor im Zusammenhang mit 3 erläutert wurde, kann diese statische Belegungskarte M zeitlich akkumuliert werden. Insbesondere können zeitlich aufeinanderfolgende Messungen mit den Umfeldsensoren 4, 5 durchgeführt werden und hieraus die statische Belegungskarte M abgeleitet werden. Zudem beschreiben die jeweiligen belegten Zellen 16 der statischen Belegungskarte M mit welcher Wahrscheinlichkeit der Bereich in der Umgebung 6, welcher dieser Zelle 16 zugeordnet ist, mit einem statischen Objekt 8 belegt ist. Vorliegend sind die Wahrscheinlichkeiten durch unterschiedliche Schraffuren verdeutlicht.Such a static occupancy card M is in section a) of 5 shown schematically. The static occupancy card M has a plurality of cells 16 , 17th on, with each of the cells 16 , 17th a certain area in the area 6th of the vehicle 1 describes. The occupancy card M includes occupied cells 16 , which is a static object 8th in the neighborhood 6th describe, as well as unoccupied cells 17th which is not a static object 8th in the neighborhood 6th describe. The static occupancy map M shown describes the second stopped road user 14b according to 2 . As previously in connection with 3 has been explained, this static occupancy card M can be accumulated over time. In particular, measurements with the environment sensors that follow one another in time 4th , 5 are carried out and the static occupancy card M can be derived from this. In addition, describe the respective occupied cells 16 the static occupancy map M with what probability the area in the area 6th which one of this cell 16 is associated with a static object 8th is occupied. In the present case, the probabilities are illustrated by different hatching.

In einem Schritt S5 des Verfahrens gemäß 4 wird auf Grundlage der statische Belegungskarte M zunächst eine Binarisierung durchgeführt. Diese Binarisierung ist in dem Abschnitt b) von 5 schematisch dargestellt. Aus der statische Belegungskarte M werden ausgewählte Zellen 18 bestimmt. Die ausgewählten Zellen 18 sind diejenigen belegten Zellen 16 der Belegungskarte M, welche wahrscheinlich mit einem statischen Objekt 8 belegt sind. Hierzu werden diejenigen belegten Zellen 16, bei denen die Wahrscheinlichkeit über einen vorbestimmten Schwellwert, beispielsweise 0,5, liegt, ausgewählt. Im Anschluss daran wird auf Grundlage dieser ausgewählten Zellen 18 ein Clustern durchgeführt. Dies ist in Abschnitt c) von 5 verdeutlicht. Dabei werden weitere Zellen 19 zwischen die ausgewählten Zellen 18 eingefügt. Bei dem Clustern können diejenigen ausgewählten Zellen 18 bestimmt werden, welche nahe beieinander liegen. Hierzu kann beispielsweise das sogenannte Closing verwendet werden. Das Closing ist eine morphologische Basis-Operation in der digitalen Bildverarbeitung. Alternativ oder zusätzlich kann das sogenannte Connected-component labeling verwendet werden. Das Ergebnis des Clusterns ist in Abschnitt d) von 5 dargestellt und zeigt eine optimierte Belegungskarte M' mit belegten Zellen 16' und unbelegten Zellen 17'. Auf diese Weise können diejenigen Zellen 16' bestimmt werden, welche zu dem gleichen statischen Objekt 8 gehören.In one step S5 the procedure according to 4th a binarization is first carried out on the basis of the static occupancy card M. This binarization is in section b) of 5 shown schematically. The static occupancy map M becomes selected cells 18th certainly. The selected cells 18th are those occupied cells 16 the occupancy card M, which is likely to be a static object 8th are occupied. For this purpose, those occupied cells 16 at which the probability is above a predetermined threshold value, for example 0.5, is selected. It is then based on these selected cells 18th carried out a clustering. This is in section c) of 5 made clear. There are more cells 19th between the selected cells 18th inserted. When clustering, those selected cells 18th determine which are close to each other. For example, the so-called closing can be used for this purpose. Closing is a basic morphological operation in digital image processing. As an alternative or in addition, so-called connected-component labeling can be used. The result of the clustering is in section d) of 5 shown and shows an optimized occupancy map M 'with occupied cells 16 ' and blank cells 17 ' . That way, those cells can 16 ' be determined which to the same static object 8th belong.

In einem Schritt S6 des Verfahrens gemäß 4 erfolgt eine Extraktion der Zellen 16' der optimierten statische Belegungskarte M' bzw. der ausgewählten und geclusterten Zellen der statische Belegungskarte M. Hierzu werden die Daten über die Fahrspuren L1, L2 verwendet, um Informationen über die relevanten Fahrspuren L1, L2 in der Umgebung 6 des Fahrzeugs 1 zu erhalten. Diese Informationen können beispielsweise Polygone, die durch eine Mittellinie in der Mitte der jeweiligen Fahrspur L1, L2 und zwei Grenzlinien beschrieben werden, sein. Dabei können diejenigen belegten Zellen 16' ausgewählt werden, welche innerhalb der relevanten Fahrspuren L1, L2 liegen. Zu diesem Zweck kann beispielsweise der Scanline-Algorithmus verwendet werden. Wenn die Zellen 16' einem Cluster zugeordnet sind, kann dem Cluster eine Kennzahl der Fahrspur L1, L2 zugeordnet werden. Ein Cluster kann auch mehreren Fahrspuren L1, L2 zugeordnet werden. Für die Extraktion der Zellen 16' kann auch eine Brute-Force-Methode verwendet werden, bei welche für jede der belegten Zellen 16' einzeln überprüft wird, ob diese einer Fahrspur L1, L2 zugeordnet werden kann. Wenn eine Zelle 16' innerhalb einer Fahrspur L1, L2 angeordnet ist, kann diese behalten werden und dieser kann eine Kennzahl der Fahrspur L1, L2 zugeordnet werden. Falls eine Zelle 16' außerhalb der Fahrspuren L1, L2 ist, kann diese gelöscht werden.In one step S6 the procedure according to 4th the cells are extracted 16 ' the optimized static occupancy card M 'or the selected and clustered cells of the static occupancy card M. For this purpose, the data about the lanes L1 , L2 used to provide information about the relevant lanes L1 , L2 in the neighborhood 6th of the vehicle 1 to obtain. This information can, for example, be polygons, which are defined by a center line in the middle of the respective lane L1 , L2 and two boundary lines are described. In doing so, those occupied cells 16 ' selected which are within the relevant lanes L1 , L2 lie. The scanline algorithm, for example, can be used for this purpose. When the cells 16 ' are assigned to a cluster, the cluster can have an identification number of the lane L1 , L2 be assigned. A cluster can also have multiple lanes L1 , L2 be assigned. For the extraction of the cells 16 ' A brute force method can also be used, in which for each of the occupied cells 16 ' it is checked individually whether this is a lane L1 , L2 can be assigned. If a cell 16 ' within a lane L1 , L2 is arranged, this can be kept and this can be an identification number of the lane L1 , L2 be assigned. If a cell 16 ' outside the lanes L1 , L2 it can be deleted.

Wenn dieses Verfahren auf die Verkehrssituation gemäß 2 angewandt wird, können die statischen Hindernisse 11 nicht berücksichtigt werden, da diese keiner Fahrspur L1, L2 zugeordnet werden können. Der erste angehaltene Verkehrsteilnehmer 14a kann der ersten Fahrspur L1 zugeordnet werden. Der zweite angehaltene Verkehrsteilnehmer 14b, das statische Hindernis 12 und das geparkte Fahrzeug 13 können sowohl der ersten Fahrspur L1 als auch der zweiten Fahrspur L2 zugeordnet werden.If this procedure is appropriate to the traffic situation 2 applied, the static obstacles 11th not be taken into account as this is not a lane L1 , L2 can be assigned. The first road user to be stopped 14a can the first lane L1 be assigned. The second stopped road user 14b , the static obstacle 12th and the parked vehicle 13th can use both the first lane L1 as well as the second lane L2 be assigned.

Im Anschluss sollen aus den verbleibenden statischen Objekten 8, welche einer Fahrspur L1, L2 zugeordnet wurden, die stehenden Verkehrsteilnehmer 14a, 14b identifiziert werden. Zu diesem Zweck wird gemäß dem Verfahren von 4 in einem Schritt S7 eine Plausibilitätsprüfung durchgeführt. Bei kleinen statischen Objekten 8 oder bei statischen Objekten 8, welche die Fahrspur L1, L2 nur geringfügig bedecken, kann ein Ausweichmanöver durchgeführt werden. Vorliegend sollen die angehaltenen Verkehrsteilnehmer 14a, 14b ermittelt werden, hinter denen das Fahrzeug 1 zum Stehen kommen soll bzw. auf welche gebremst werden soll. Hierzu kann für die jeweiligen Cluster, welche die statischen Objekte 8 beschreiben, zumindest eines der nachfolgenden Kriterien überprüft werden: Die Größe bzw. die räumlichen Abmessungen des Clusters können überprüft werden. Wenn die räumlichen Abmessungen klein sind bzw. einen vorbestimmten Grenzwert unterschreiten, kann das Cluster bzw. das statische Objekt 8 nicht als kurzzeitig angehaltener Verkehrsteilnehmer 14a, 14b berücksichtig werden. Somit kann das in der Verkehrssituation von 2 dargestellte statische Hindernis 12 nicht als kurzzeitig angehaltener Verkehrsteilnehmer 14a, 14b berücksichtigt werden.Subsequently, the remaining static objects 8th which one lane L1 , L2 were assigned to the standing road users 14a , 14b be identified. For this purpose, according to the procedure of 4th in one step S7 a plausibility check carried out. With small static objects 8th or with static objects 8th showing the lane L1 , L2 cover only a little, an evasive maneuver can be carried out. In the present case, the stopped road users should 14a , 14b can be determined behind which the vehicle 1 should come to a stop or which should be braked. This can be done for the respective cluster, which the static objects 8th describe, at least one of the following criteria can be checked: The size or the spatial dimensions of the cluster can be checked. If the spatial dimensions are small or fall below a predetermined limit value, the cluster or the static object can 8th not as a temporarily stopped road user 14a , 14b must be taken into account. Thus, in the traffic situation of 2 illustrated static obstacle 12th not as a temporarily stopped road user 14a , 14b must be taken into account.

Als weiteres Kriterium kann die Bedeckung der Fahrspur L1, L2 durch das Objekt 8 herangezogen werden. Wenn das statische Objekt 8 nur einen geringen, vorbestimmten Bereich der Fahrspur L1, L2 bedeckt, kann das Objekt 8 ebenfalls nicht als kurzzeitig angehaltener Verkehrsteilnehmer 14a, 14b berücksichtigt werden. Beispielsweise kann überprüft werden, ob die Überdeckung so gering ist, dass das Fahrzeug 1 an dem Objekt 8 vorbeibewegt werden kann. Damit kann das in der Verkehrssituation von 2 dargestellte geparkte Fahrzeug 13, welches die Fahrspur L1 nur geringfügig bedeckt, nicht als kurzzeitig angehaltener Verkehrsteilnehmer 14a, 14b berücksichtigt werden. Als weiteres Kriterium kann eine Klassifikation auf Grundlage der Sensordaten und insbesondere der Bilddaten der Kamera durchgeführt werden. Wenn beispielsweise ein statisches Objekt 8 als stehendes Motorrad klassifiziert wird, soll dies nicht überholt werden. Insgesamt können somit die angehaltenen Verkehrsteilnehmer 14a, 14b identifiziert werden.The coverage of the lane can be used as a further criterion L1 , L2 through the object 8th can be used. If the static object 8th only a small, predetermined area of the lane L1 , L2 covered, the object can 8th also not as a temporarily stopped road user 14a , 14b must be taken into account. For example, it can be checked whether the overlap is so small that the vehicle 1 on the object 8th can be moved past. This can be done in the traffic situation of 2 depicted parked vehicle 13th which is the lane L1 only slightly covered, not as a briefly stopped road user 14a , 14b must be taken into account. As a further criterion, a classification can be carried out on the basis of the sensor data and in particular the image data of the camera. For example, if a static object 8th is classified as a stationary motorcycle, it should not be overtaken. Overall, the stopped road users can 14a , 14b be identified.

In einem Schritt S8 des Verfahrens gemäß 4 werden für die relevanten angehaltenen Verkehrsteilnehmer 14a, 14b Hüllkörper, beispielsweise rechteckförmige Hüllkörper (bounding box), bestimmt. Auf diese Weise können die Orientierung und die (zukünftige) Bewegungsrichtung der angehaltenen Verkehrsteilnehmer 14a, 14b bestimmt werden. Dazu kann beispielsweise eine Score-Funktion auf unterschiedlich orientierte Hypothesen angewendet werden. Die Hypothese kann die Ausrichtung bzw. Orientierung der Fahrspur L1, L2 an der Objektposition sein, da sich die meisten Objekte 8 parallel zu einer Fahrspur bewegen. Die Hypothese kann auch die Ausrichtung des Fahrzeugs 1 oder der Kamera des Fahrzeugs 1 sein, falls die Zellen 16' mit einem Kameraobjekt assoziiert werden. Basierend auf diesen Hypothesen können dann Hypothesen-Boxen B1, B2, B3 generiert werden, die alle Zellen 16' des Objekts 8 enthalten.In one step S8 the procedure according to 4th are for the relevant stopped road users 14a , 14b Enveloping body, for example rectangular enveloping body (bounding box), determined. In this way, the orientation and the (future) direction of movement of the stopped road users can be determined 14a , 14b to be determined. For this purpose, for example, a score function can be applied to differently oriented hypotheses. The hypothesis can be the alignment or orientation of the lane L1 , L2 be at the object position as most objects are 8th move parallel to a lane. The hypothesis can also include the orientation of the vehicle 1 or the vehicle's camera 1 be in case the cells 16 ' associated with a camera object. Based on these hypotheses, hypothesis boxes can then be created B1 , B2 , B3 will be generated that all cells 16 ' of the object 8th contain.

Dies ist beispielhaft in 6 veranschaulicht. Hier sind die Zellen 16' der optimierten statischen Belegungskarte M' dargestellt. Des Weiteren ist eine Hypothesen-Box B1 für die ersten Fahrspur L1, eine Hypothesen-Box B2 für die zweite Fahrspur L2 und eine Hypothesen-Box B3 für die Bewegungsrichtung 9 des Fahrzeugs 1 gezeigt. Die Score-Funktion optimiert, dass die statische Belegung so nahe wie möglich an der Grenze der Hypothesen-Box B1, B2, B3 liegt. Eine Lösung besteht darin, die Mitte der Zellen 16' in das jeweilige Koordinatensystem der Hypothesen-Box B1, B2, B3 zu transformieren. Dann ist der minimale Abstand zur sichtbaren Kante das Minimum des x- und y-Werts. Die Punktzahl der Score-Funktion ist die Summe dieser Werte. Vorliegend wird dem Cluster die Hypothesen-Box B2 zugeordnet. Hieraus kann dann abgeleitet werden, dass der zweite angehaltene Verkehrsteilnehmer 14b in die zweite Fahrspur L2 abbiegen möchte.This is exemplified in 6th illustrated. Here are the cells 16 ' the optimized static occupancy map M 'shown. There is also a hypothesis box B1 for the first lane L1 , a hypothesis box B2 for the second lane L2 and a hypothesis box B3 for the direction of movement 9 of the vehicle 1 shown. The score function optimizes that the static occupancy is as close as possible to the limit of the hypothesis box B1 , B2 , B3 lies. One solution is the center of the cells 16 ' into the respective coordinate system of the hypothesis box B1 , B2 , B3 to transform. Then the minimum distance to the visible edge is the minimum of the x and y values. The score of the score function is the sum of these values. In the present case, the cluster is given the hypothesis box B2 assigned. From this it can then be deduced that the second stopped road user 14b into the second lane L2 want to turn.

Eine mögliche Erweiterung kann darin bestehen, dass nicht nur die genauen Hypothesen ausgewählt werden. Beispielsweise können die Hypothesen durch mehrere Hypothesen mit geringerer Abweichung in beide Richtungen erweitert werden. Wenn die Ausrichtung 20° beträgt, können zum Beispiel Hypothesen für die Winkel 10°, 15°, 18°, 20°, 22°, 25° und 30° bewertet werden. Eine andere Strategie könnte darin bestehen, eine direkte Anpassung einer Hypothesen-Box B1, B2, B3 für alle Zellen 16' anzuwenden. Es kann auch vorgesehen sein, dass ein Belegungswert in der ursprünglichen Belegungskarte M bestimmt wird, um die Zellen 16' basierend auf der Belegungswahrscheinlichkeit zu gewichten. In einem Schritt S9 des Verfahrens gemäß 4 wird dann eine Plausibilitätsprüfung für das Objekt 8 durchgeführt werden.A possible extension can be that not only the exact hypotheses are selected. For example, the hypotheses can be expanded in both directions by several hypotheses with less deviation. For example, if the orientation is 20 °, hypotheses can be evaluated for the angles 10 °, 15 °, 18 °, 20 °, 22 °, 25 °, and 30 °. Another strategy could be to directly adapt a hypothesis box B1 , B2 , B3 for all cells 16 ' apply. It can also be provided that an occupancy value is determined in the original occupancy card M in order to store the cells 16 ' weighted based on the probability of occupancy. In one step S9 the procedure according to 4th a plausibility check is then carried out for the object 8th be performed.

7 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zum Erfassen von statischen Objekten 8 in der Umgebung 6 des Fahrzeugs 1 gemäß einer zweiten Ausführungsform. Im Vergleich zu dem Verfahren gemäß 4 umfasst dieses Verfahren zusätzlich einen Schritt S10, bei welchem auf Grundlage der Sensordaten bzw. Bilddaten der Kamera Objekte 8 erkannt werden. In einem weiteren zusätzlichen Schritt S11 werden kann die Kameraobjekte den Detektionen der Umfeldsensoren 4, welche als Radarsensoren und/oder Lidar-Sensoren ausgebildet sind, zugeordnet. Jede Detektionen erhält als Bezeichnung eine Objekt-ID des Kameraobjekts. Diese Objekt-ID kann dann zusätzlich zu der statischen Belegungskarte M bzw. der optimierten statischen Belegungskarte M' gespeichert werden. Auf Grundlage dieser Information kann dann in einem nachfolgenden Schritt bestimmt werden, welche Zellen 16' zu dem gleichen Objekt 8 gehören. Des Weiteren wird die Möglichkeit geboten, Eigenschaften des Kameraobjekts, wie die Klasse des Objekts 8 oder die Ausrichtung des Objekts 8, zu bestimmten. 7th shows a schematic flow diagram of a method for detecting static objects 8th in the neighborhood 6th of the vehicle 1 according to a second embodiment. Compared to the method according to 4th this procedure also includes one step S10 , in which objects based on the sensor data or image data of the camera 8th be recognized. In another additional step S11 the camera objects can be the detections of the environment sensors 4th , which are designed as radar sensors and / or lidar sensors, assigned. Each detection is given an object ID of the camera object as a designation. This object ID can then be stored in addition to the static occupancy card M or the optimized static occupancy card M '. On the basis of this information, it can then be determined in a subsequent step which cells 16 ' to the same object 8th belong. Furthermore, there is the option of defining properties of the camera object, such as the class of the object 8th or the orientation of the object 8th , To determine.

Mit diesen Informationen können folgende Verbesserungen erzielt werden: Ein Clustern kann basierend auf der Objekt-ID durchgeführt werden. Des Weiteren kann ein Cluster geteilt werden, wenn dieses zwei verschiedenen Kameraobjekten zugeordnet ist. Zudem können Cluster ignoriert werden, welche keine Zuordnung zu einem Kameraobjekt haben. Es können auch sehr kleiner Cluster berücksichtigt werden, wenn diese beispielsweise als Radfahrer, Motorrad, Fußgänger oder dergleichen klassifiziert werden. Ferner kann die Ausrichtung als eine Hypothese für die Anpassung der Hypothesen-Box B1, B2, B3 verwendet werden. Außerdem können die Objektklasse und andere Eigenschaften, wie beispielsweise eine aktivierte Warnblinkanlage oder dergleichen, extrahieren werden.With this information, the following improvements can be made: Clustering can be performed based on the object ID. Furthermore, a cluster can be divided if it is assigned to two different camera objects. In addition, clusters that have no assignment to a camera object can be ignored. Very small clusters can also be taken into account if they are classified, for example, as cyclists, motorcycles, pedestrians or the like. Furthermore, the alignment can be used as a hypothesis for adapting the hypothesis box B1 , B2 , B3 be used. In addition, the object class and other properties, such as an activated hazard warning system or the like, can be extracted.

Claims (11)

Verfahren zum Erfassen von relevanten statischen Objekten (12, 13, 14a, 14b) in einer Umgebung (6) eines Fahrzeugs (1) mit den Schritten: - Empfangen von Sensordaten von zumindest einem Umfeldsensor (4, 5) des Fahrzeugs (1), wobei die Sensordaten die Umgebung (6) beschreiben, - Bestimmen einer statischen Belegungskarte (M) anhand der Sensordaten, wobei die statische Belegungskarte (M) nicht bewegte Anteile der Umgebung (6) beschreibt, - wobei die Sensordaten fortlaufend empfangen werden und die statische Belegungskarte (M) anhand der Sensordaten akkumuliert wird, - Bestimmen von Fahrspurdaten, welche zumindest eine Fahrspur (L1, L2) in der Umgebung (6) beschreiben, und - Identifizieren der relevanten statischen Objekten (12, 13, 14a, 14b), welche sich zumindest bereichsweise innerhalb der zumindest einen Fahrspur (L1, L2) befinden, aus den statischen Objekten (8) anhand der akkumulierten statischen Belegungskarte (M) und der Fahrspurdaten.Method for detecting relevant static objects (12, 13, 14a, 14b) in an environment (6) of a vehicle (1) with the following steps: - Receiving sensor data from at least one environment sensor (4, 5) of the vehicle (1), the sensor data describing the environment (6), - Determination of a static occupancy card (M) on the basis of the sensor data, the static occupancy card (M) describing non-moving parts of the environment (6), - The sensor data are continuously received and the static occupancy card (M) is accumulated on the basis of the sensor data, - Determination of lane data which describe at least one lane (L1, L2) in the environment (6), and - Identifying the relevant static objects (12, 13, 14a, 14b), which are at least partially within the at least one lane (L1, L2), from the static objects (8) using the accumulated static occupancy map (M) and the lane data . Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die akkumulierte statische Belegungskarte (M) eine Mehrzahl von Zellen (16) aufweist, wobei die jeweiligen Zellen (16) eine Belegung durch den nicht bewegten Anteil der Umgebung (6) beschreiben, und einzelne Zellen (16) zum Identifizieren der relevanten statischen Objekte (14a, 14b) ausgewählt und/oder verbunden werden.Procedure according to Claim 1 , characterized in that the accumulated static occupancy map (M) has a plurality of cells (16), the respective cells (16) describing an occupancy by the non-moving part of the environment (6), and individual cells (16) for identification of the relevant static objects (14a, 14b) are selected and / or connected. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass aus den relevanten statischen Objekten (12, 13, 14a, 14b) angehaltene Verkehrsteilnehmer (14a, 14b) identifiziert werden.Procedure according to Claim 1 or 2 , characterized in that stopped road users (14a, 14b) are identified from the relevant static objects (12, 13, 14a, 14b). Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Identifizierung der jeweiligen angehaltenen Verkehrsteilnehmer (14a, 14b) anhand von räumlichen Abmessungen der jeweiligen relevanten statischen Objekte (12, 13, 14a, 14b), einer Form der jeweiligen relevanten statischen Objekte (12, 13, 14a, 14b) und/oder einer Bedeckung der Fahrspur (L1, L2) durch die jeweiligen relevanten statischen Objekte (12, 13, 14a, 14b) plausibilisiert wird.Procedure according to Claim 3 , characterized in that the identification of the respective stopped road users (14a, 14b) on the basis of spatial dimensions of the respective relevant static objects (12, 13, 14a, 14b), a shape of the respective relevant static objects (12, 13, 14a, 14b ) and / or if the lane (L1, L2) is covered by the respective relevant static objects (12, 13, 14a, 14b). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Kameradaten empfangen werden und eine Klassifizierung der relevanten statischen Objekte (12, 13,14a, 14b) innerhalb der Fahrspur (L1, L2) anhand der Kameradaten durchgeführt wird.Method according to one of the preceding claims, characterized in that camera data are received and a classification of the relevant static objects (12, 13, 14a, 14b) within the lane (L1, L2) is carried out on the basis of the camera data. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass anhand der akkumulierten statischen Belegungskarte (M) eine Ausrichtung und/oder Bewegungsrichtung der jeweiligen identifizierten angehaltenen Verkehrsteilnehmer (14a, 14b) bestimmt wird.Method according to one of the Claims 3 until 5 , characterized in that an orientation and / or direction of movement of the respective identified stopped road users (14a, 14b) is determined on the basis of the accumulated static occupancy map (M). Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Fahrspurdaten zumindest zwei Fahrspuren (L1, L2) in der Umgebung (6) beschreiben und die jeweiligen identifizierten angehaltenen Verkehrsteilnehmer (14a, 14b) anhand ihrer Ausrichtung und/oder Bewegungsrichtung einer der zumindest zwei Fahrspuren (L1, L2) zugeordnet werden.Procedure according to Claim 6 , characterized in that the lane data describe at least two lanes (L1, L2) in the vicinity (6) and the respective identified stopped road users (14a, 14b) based on their alignment and / or direction of movement of one of the at least two lanes (L1, L2) be assigned. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Fahrspurdaten auf Grundlage einer digitalen Landkarte und/oder anhand der Sensordaten des zumindest einen Umfeldsensors (4, 5) bestimmt werden.Method according to one of the preceding claims, characterized in that the lane data are determined on the basis of a digital map and / or on the basis of the sensor data of the at least one environment sensor (4, 5). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Abhängigkeit von der Identifizierung der relevanten statischen Objekte (12, 13,14a, 14b) aus den statischen Objekten (8) ein Überholen entschieden wird.Method according to one of the preceding claims, characterized in that overtaking is decided as a function of the identification of the relevant static objects (12, 13, 14a, 14b) from the static objects (8). Recheneinrichtung (3) für ein Fahrerassistenzsystem (2) eines Fahrzeugs (1), wobei die Recheneinrichtung (3) zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche eingerichtet ist.Computing device (3) for a driver assistance system (2) of a vehicle (1), the computing device (3) being set up to carry out a method according to one of the preceding claims. Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinrichtung (3) diese veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 9 auszuführen.Computer program, comprising instructions which, when the program is executed by a computing device (3), cause them, a method according to one of the Claims 1 until 9 to execute.
DE102020112825.8A 2020-05-12 2020-05-12 Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle Pending DE102020112825A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020112825.8A DE102020112825A1 (en) 2020-05-12 2020-05-12 Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020112825.8A DE102020112825A1 (en) 2020-05-12 2020-05-12 Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle

Publications (1)

Publication Number Publication Date
DE102020112825A1 true DE102020112825A1 (en) 2021-11-18

Family

ID=78280551

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020112825.8A Pending DE102020112825A1 (en) 2020-05-12 2020-05-12 Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle

Country Status (1)

Country Link
DE (1) DE102020112825A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022102000A1 (en) 2022-01-28 2023-08-03 Bayerische Motoren Werke Aktiengesellschaft Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium)
DE102023001762A1 (en) 2022-05-24 2023-11-30 Sew-Eurodrive Gmbh & Co Kg Mobile system
DE102022128787A1 (en) 2022-10-28 2024-05-08 Bayerische Motoren Werke Aktiengesellschaft Method and assistance system for detecting static obstacles and correspondingly equipped motor vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016203086A1 (en) 2016-02-26 2017-08-31 Robert Bosch Gmbh Method and device for driver assistance
DE102018105293A1 (en) 2017-03-08 2018-09-20 GM Global Technology Operations LLC METHOD AND DEVICE FOR A NETWORKED SCENE REPRESENTATION AND EXPANSION IN VEHICLE ENVIRONMENTS IN AUTONOMOUS DRIVING SYSTEMS
EP3627386A1 (en) 2018-09-21 2020-03-25 Volkswagen AG Method and device for providing an image of the vicinity of a mobile device and motor vehicle comprising such a device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016203086A1 (en) 2016-02-26 2017-08-31 Robert Bosch Gmbh Method and device for driver assistance
DE102018105293A1 (en) 2017-03-08 2018-09-20 GM Global Technology Operations LLC METHOD AND DEVICE FOR A NETWORKED SCENE REPRESENTATION AND EXPANSION IN VEHICLE ENVIRONMENTS IN AUTONOMOUS DRIVING SYSTEMS
EP3627386A1 (en) 2018-09-21 2020-03-25 Volkswagen AG Method and device for providing an image of the vicinity of a mobile device and motor vehicle comprising such a device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022102000A1 (en) 2022-01-28 2023-08-03 Bayerische Motoren Werke Aktiengesellschaft Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium)
DE102023001762A1 (en) 2022-05-24 2023-11-30 Sew-Eurodrive Gmbh & Co Kg Mobile system
DE102022128787A1 (en) 2022-10-28 2024-05-08 Bayerische Motoren Werke Aktiengesellschaft Method and assistance system for detecting static obstacles and correspondingly equipped motor vehicle

Similar Documents

Publication Publication Date Title
DE102015203016B4 (en) Method and device for optical self-localization of a motor vehicle in an environment
EP2888604B1 (en) Method for determining the course of a lane for a vehicle
DE102015209467A1 (en) Method of estimating lanes
DE102020112825A1 (en) Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle
DE102018133441A1 (en) Method and system for determining landmarks in the surroundings of a vehicle
DE102018221054A1 (en) Method for providing map data in a motor vehicle, motor vehicle and central data processing device
WO2020078727A1 (en) Method and system for determining a model of the environment of a vehicle
DE102018123393A1 (en) Detection of parking areas
DE102019123483B4 (en) Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level
WO2020048669A1 (en) Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle
EP4088224A1 (en) Method for combining a plurality of data sets for generating a current lane model of a road and device for data processing
DE102021003567A1 (en) Process for the recognition of object relationships and attributions from sensor data
DE102016120066A1 (en) A computer implemented method for controlling an object recognition system
DE102021204687A1 (en) Process for scene interpretation of an environment of a vehicle
DE102020129802A1 (en) VEHICLE OPERATIONAL IDENTIFICATION
DE102020118589A1 (en) IMPROVED VEHICLE OPERATION
DE102021119871B4 (en) Method and processor circuit for operating an automated driving function with an object classifier in a motor vehicle, and motor vehicle
DE102017216802A1 (en) METHOD AND DEVICE FOR DETECTING LICENSES, DRIVER ASSISTANCE SYSTEM AND VEHICLE
DE102021127028A1 (en) SYSTEMS AND PROCEDURES FOR CUSTOMIZABLE REAR COLLISION ALERTS
DE102017105721A1 (en) Method for identifying at least one parking space for a vehicle and parking assistance system of a vehicle
EP2696310B1 (en) Method for identifying the edge of a road
DE102016119592A1 (en) Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle
DE102019132151A1 (en) Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system
WO2020001690A1 (en) Method and system for identifying obstacles
DE102022102000A1 (en) Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium)

Legal Events

Date Code Title Description
R163 Identified publications notified