DE102020112825A1 - Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle - Google Patents
Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle Download PDFInfo
- Publication number
- DE102020112825A1 DE102020112825A1 DE102020112825.8A DE102020112825A DE102020112825A1 DE 102020112825 A1 DE102020112825 A1 DE 102020112825A1 DE 102020112825 A DE102020112825 A DE 102020112825A DE 102020112825 A1 DE102020112825 A1 DE 102020112825A1
- Authority
- DE
- Germany
- Prior art keywords
- static
- lane
- vehicle
- objects
- static objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003068 static effect Effects 0.000 title claims abstract description 184
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000033001 locomotion Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 6
- 238000005259 measurement Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Erfassen von relevanten statischen Objekten in einer Umgebung eines Fahrzeugs mit den Schritten: Empfangen von Sensordaten von zumindest einem Umfeldsensor des Fahrzeugs, wobei die Sensordaten die Umgebung beschreiben, Bestimmen einer statischen Belegungskarte anhand der Sensordaten, wobei die statische Belegungskarte nicht bewegte Anteile der Umgebung beschreibt, wobei die Sensordaten fortlaufend empfangen werden und die statische Belegungskarte anhand der Sensordaten akkumuliert wird, Bestimmen von Fahrspurdaten, welche zumindest eine Fahrspur in der Umgebung beschreiben, und Identifizieren von relevanten statischen Objekten, welche sich zumindest bereichsweise innerhalb der zumindest einen Fahrspur befinden, aus den statischen Objekten anhand der akkumulierten statischen Belegungskarte und der Fahrspurdaten.
The invention relates to a method for detecting relevant static objects in the surroundings of a vehicle with the following steps: receiving sensor data from at least one surroundings sensor of the vehicle, the sensor data describing the surroundings, determining a static occupancy map based on the sensor data, whereby the static occupancy map is not describes moving parts of the environment, the sensor data being continuously received and the static occupancy map being accumulated using the sensor data, determining lane data that describe at least one lane in the environment, and identifying relevant static objects that are at least partially within the at least one Lane, from the static objects based on the accumulated static occupancy map and the lane data.
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Erfassen von relevanten statischen Objekten in einer Umgebung eines Fahrzeugs. Des Weiteren betrifft die vorliegende Erfindung eine Recheneinrichtung für ein Fahrerassistenzsystem eines Fahrzeugs. Außerdem betrifft die vorliegende Erfindung ein Computerprogramm.The present invention relates to a method for detecting relevant static objects in the surroundings of a vehicle. The present invention also relates to a computing device for a driver assistance system of a vehicle. The present invention also relates to a computer program.
Bei Fahrerassistenzsystemen, welche ein automatisiertes oder ein autonomes Fahren ermöglichen, ist es essentiell, Objekte in der Umgebung des Fahrzeugs zuverlässig zu erkennen. Aus dem Stand der Technik ist es bekannt, dass alle relevanten Objekte in der Umgebung des Fahrzeugs über die Zeit verfolgt werden. Dabei wird meist nicht unterschieden, ob es sich bei diesen Objekten um statische bzw. stehende Objekte oder um dynamische bzw. bewegte Objekte handelt. Wenn beispielsweise alle parkenden Fahrzeuge auf dem Seitenstreifen und auf Parkplätzen neben der Straße sowie stehende Fußgänger und Fahrradfahrer, welche weit von der Fahrspur entfernt sind, erfasst werden, führt dies zu einer deutlich größeren Anzahl an relevanten Objekten.In driver assistance systems that enable automated or autonomous driving, it is essential to reliably detect objects in the vicinity of the vehicle. It is known from the prior art that all relevant objects in the vicinity of the vehicle are tracked over time. In most cases, no distinction is made as to whether these objects are static or stationary objects or dynamic or moving objects. If, for example, all vehicles parked on the hard shoulder and in parking lots next to the street as well as standing pedestrians and cyclists who are far from the lane are recorded, this leads to a significantly larger number of relevant objects.
Werden stehende und bewegte Objekte in einem gemeinsamen Ansatz verfolgt, entstehen häufig durch Messungenauigkeiten oder Fehler in der Objektextraktion virtuelle Bewegungen, sodass bei parkenden Fahrzeugen falsch erkannt wird, dass sich diese bewegen oder sich drehen. Das führt unter Umständen zu Falschbremsungen oder Ausweichmanövern auf nicht relevante statische Objekte oder zu einem Fehlverhalten auf relevante statische Objekte. Durch die große Anzahl an Objekten weisen die Algorithmen zudem eine hohe Rechenleistung auf, da für alle Objekte Eigenschaften, wie Form, Position und/oder Orientierung, geschätzt werden müssen. Diese Schätzungen basieren meist auf der aktuellen Messung und die extrahierten Eigenschaften werden über die Zeit gemittelt.If stationary and moving objects are tracked in a common approach, measurement inaccuracies or errors in object extraction often result in virtual movements, so that parked vehicles are incorrectly recognized as moving or rotating. This can lead to false braking or evasive maneuvers on irrelevant static objects or to incorrect behavior on relevant static objects. Due to the large number of objects, the algorithms also have a high computing power, since properties such as shape, position and / or orientation have to be estimated for all objects. These estimates are mostly based on the current measurement and the extracted properties are averaged over time.
Vorliegend gilt das Interesse insbesondere der Erkennung von relevanten statischen Objekten. Hierzu ist es aus dem Stand der Technik bekannt, auf Grundlage von Sensordaten von Umfeldsensoren entsprechende Belegungskarten zu bestimmen. Diese Belegungskarten können auch als gitterbasierte Karten bzw. als grid maps bezeichnet werden. Für die Fahrzeugumfelderfassung werden in den meisten Sensorsystemen bzw. Fahrerassistenzsystemen derartige Belegungskarten verwendet, um die große Anzahl von Sensordaten handhabbar zu machen. Dabei können über die Zeit auch statische Belegungskarten bestimmt werden, welche die statischen Objekte in der Umgebung beschreiben. Mit jeder Messung können die statischen Detektionen in die Belegungskarte eingetragen werden, sodass sich in der Belegungskarte nach einigen Messzyklen ein detailliertes Abbild der sichtbaren Objektform ergibt. Gemäß dem Stand der Technik wird aber nicht berücksichtigt, ob sich die erkannten statischen Objekte auf der Fahrspur, dem relevanten Fahrstreifen oder neben der Fahrspur befinden.In the present case, the focus is particularly on the detection of relevant static objects. For this purpose, it is known from the prior art to determine corresponding occupancy cards on the basis of sensor data from environment sensors. These occupancy maps can also be referred to as grid-based maps or as grid maps. Occupancy cards of this type are used in most sensor systems or driver assistance systems for recording the vehicle surroundings in order to make the large number of sensor data manageable. Static occupancy maps can also be determined over time, which describe the static objects in the area. With each measurement, the static detections can be entered in the occupancy card so that a detailed image of the visible object shape is obtained in the occupancy card after a few measuring cycles. According to the prior art, however, it is not taken into account whether the detected static objects are in the lane, the relevant lane or next to the lane.
Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie relevante statische Objekte bzw. Verkehrsteilnehmer in der Umgebung eines Fahrzeugs zuverlässiger erkannt werden können.The object of the present invention is to provide a solution for how relevant static objects or road users in the vicinity of a vehicle can be recognized more reliably.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Recheneinrichtung, sowie durch ein Computerprogramm mit den Merkmalen gemäß den unabhängigen Ansprüchen gelöst. Vorteilhafte Weiterbildungen der vorliegenden Erfindung sind in den abhängigen Ansprüchen angegeben.According to the invention, this object is achieved by a method, by a computing device, and by a computer program with the features according to the independent claims. Advantageous developments of the present invention are specified in the dependent claims.
Ein erfindungsgemäßes Verfahren dient zum Erfassen von relevanten statischen Objekten in einer Umgebung eines Fahrzeugs. Das Verfahren umfasst das Empfangen von Sensordaten von zumindest einem Umfeldsensor des Fahrzeugs, wobei die Sensordaten die Umgebung beschreiben. Des Weiteren umfasst das Verfahren das Bestimmen einer statischen Belegungskarte anhand der Sensordaten, wobei die statische Belegungskarte nicht bewegte Anteile der Umgebung beschreibt. Dabei werden die Sensordaten fortlaufend empfangen und die statische Belegungskarte wird anhand der Sensordaten akkumuliert. Außerdem umfasst das Verfahren das Bestimmen von Fahrspurdaten, welche zumindest eine Fahrspur in der Umgebung beschreiben. Ferner umfasst das Verfahren das Identifizieren von relevanten statischen Objekten, welche sich zumindest bereichsweise innerhalb der zumindest einen Fahrspur befinden, aus den statischen Objekten anhand der akkumulierten statischen Belegungskarte und der Fahrspurdaten.A method according to the invention is used to detect relevant static objects in the surroundings of a vehicle. The method includes receiving sensor data from at least one environment sensor of the vehicle, the sensor data describing the environment. Furthermore, the method includes the determination of a static occupancy card on the basis of the sensor data, the static occupancy card describing non-moving parts of the environment. The sensor data are continuously received and the static occupancy card is accumulated on the basis of the sensor data. The method also includes determining lane data which describe at least one lane in the vicinity. Furthermore, the method includes the identification of relevant static objects, which are located at least in regions within the at least one lane, from the static objects on the basis of the accumulated static occupancy map and the lane data.
Mithilfe des Verfahrens sollen relevante statische Objekt in der Umgebung des eigenen Fahrzeugs erkannt werden, welche sich auf einer Fahrspur befinden. In diesem Zusammenhang können alle Objekte als relevant definiert werden, die einen Einfluss auf die Trajektorie des eigenen Fahrzeugs aufweisen, d.h. die beispielsweise ein Abbremsen oder Ausweichen erfordern. Statische Hindernisse außerhalb der Fahrspuren, welche Teil der Infrastruktur, Pflanzen oder dergleichen sein können, sollen im Folgenden nicht berücksichtigt werden. Das Verfahren kann mit einer Recheneinrichtung eines Fahrerassistenzsystems des Fahrzeugs durchgeführt werden. Im Betrieb des Fahrzeugs bzw. während der Fahrt des Fahrzeugs werden mit den Umfeldsensoren des Fahrerassistenzsystems fortlaufend die Sensordaten bereitgestellt. Beispielsweise können mit den Umfeldsensoren zeitlich aufeinanderfolgende Messungen bzw. Messzyklen durchgeführt werden. Dabei werden in jedem Messzyklus die Sensordaten an die Recheneinrichtung übertragen. Bei den Umfeldsensoren kann es sich um Radarsensoren, Lidar-Sensoren, Ultraschallsensoren und/oder Kameras handeln. Die Sensordaten beschreiben die Umgebung des Fahrzeugs und insbesondere Objekte in der Umgebung des Fahrzeugs.With the help of the method, relevant static objects in the vicinity of one's own vehicle which are in a lane are to be recognized. In this context, all objects can be defined as relevant that have an influence on the trajectory of the own vehicle, that is to say that, for example, require braking or evasive action. Static obstacles outside the lanes, which can be part of the infrastructure, plants or the like, should not be taken into account in the following. The method can be carried out with a computing device of a driver assistance system of the vehicle. When the vehicle is in operation or while the vehicle is in motion, the sensor data are continuously provided with the environment sensors of the driver assistance system. For example, measurements or measurement cycles that follow one another in time can be carried out with the environment sensors will. The sensor data are transmitted to the computing device in each measurement cycle. The environment sensors can be radar sensors, lidar sensors, ultrasonic sensors and / or cameras. The sensor data describe the surroundings of the vehicle and in particular objects in the vicinity of the vehicle.
Darüber hinaus werden von der Recheneinrichtung fortlaufend Fahrspurdaten bestimmt. Diese Fahrspurdaten beschreiben eine oder mehrere Fahrspuren in der Umgebung des Fahrzeugs. Insbesondere können diese Fahrspurdaten Fahrbahnen und/oder Fahrstreifen beschreiben. Die Fahrspurdaten können auch einen Fahrschlauch, welcher die (zukünftige) Bewegung des Fahrzeugs oder eines anderen Verkehrsteilnehmers repräsentiert, beschreiben. Diese Fahrspurdaten können beispielsweise auf Grundlage einer digitalen Landkarte und mithilfe eines satellitengestützten Positionsbestimmungssystems ermittelt werden. Alternativ oder zusätzlich können die Fahrspurdaten anhand der Sensordaten bestimmt werden. Dabei können in den Sensordaten Fahrbahnmarkierungen und/oder die Fahrbahnen selbst erkannt werden. Dies gilt insbesondere für den Fall, wenn als Umfeldsensor eine Kamera oder ein Lidar-Sensor verwendet wird.In addition, lane data are continuously determined by the computing device. These lane data describe one or more lanes in the vicinity of the vehicle. In particular, these lane data can describe lanes and / or lanes. The lane data can also describe a driving envelope which represents the (future) movement of the vehicle or of another road user. This lane data can be determined, for example, on the basis of a digital map and with the aid of a satellite-supported position determination system. Alternatively or additionally, the lane data can be determined on the basis of the sensor data. In this case, lane markings and / or the lanes themselves can be recognized in the sensor data. This applies in particular to the case when a camera or a lidar sensor is used as the environment sensor.
Auf Grundlage der Sensordaten wird die statische Belegungskarte bestimmt. Die Belegungskarte kann auch als grid-basierte Karte oder grid map bezeichnet werden. Die statische Belegungskarte kann die nicht bewegten Anteile der Umgebung bzw. Umwelt repräsentiert. Aus dieser können in einem darauffolgenden Schritt die statischen Objekte, beispielsweise ein parkendes Fahrzeug, eine Kiste auf der Straße oder dergleichen, extrahiert werden. Diese statische Belegungskarte kann eine Mehrzahl von Zellen aufweisen, wobei jede Zelle einen bestimmten Bereich in der Umgebung des Fahrzeugs beschreibt. Des Weiteren beschreibt jede Zelle die Wahrscheinlichkeit, dass der Bereich der Umgebung, welchen die Zelle repräsentiert, mit einem statischen Element belegt ist. Die statische Belegungskarte ist demnach ein Abbild der statischen Anteile der Umgebung um das eigene Fahrzeug. Ein nachgelagerter Schritt erlaubt die Extraktion statischer Objekte aus der statischen Belegungskarte. Bevorzugt werden in die statische Belegungskarte ausschließlich Messungen statischer und keine Messungen dynamischer Objekten eingetragen. Wie zuvor erläutert, werden für zeitlich aufeinanderfolgende Messzyklen jeweils die Sensordaten empfangen. Dabei wird die statische Belegungskarte über die Zeit akkumuliert. Dies bedeutet, dass bei der Bestimmung der statischen Belegungskarte die zuvor empfangenen Sensordaten berücksichtigt werden. Insbesondere wird die statische Belegungskarte anhand der Sensordaten von mindestens einem Umfeldsensor über mindestens einen Zeitschritt akkumuliert. Die Zuordnung erfolgt insbesondere direkt über die statische Belegungskarte, sodass dadurch keine virtuellen Bewegungen und damit verbunden eine fälschliche Klassifizierung als dynamisches Objekt erfolgt.The static occupancy card is determined on the basis of the sensor data. The occupancy map can also be referred to as a grid-based map or grid map. The static occupancy card can represent the non-moving parts of the environment or environment. In a subsequent step, the static objects, for example a parked vehicle, a box on the street or the like, can be extracted from this. This static occupancy map can have a plurality of cells, each cell describing a specific area in the vicinity of the vehicle. Furthermore, each cell describes the probability that the area of the environment which the cell represents is occupied by a static element. The static occupancy card is therefore an image of the static components of the environment around the own vehicle. A subsequent step allows the extraction of static objects from the static occupancy map. Only measurements of static objects and no measurements of dynamic objects are preferably entered in the static occupancy card. As explained above, the sensor data are received for successive measurement cycles. The static occupancy card is accumulated over time. This means that the previously received sensor data are taken into account when determining the static occupancy card. In particular, the static occupancy card is accumulated over at least one time step on the basis of the sensor data from at least one environment sensor. The assignment takes place in particular directly via the static occupancy card, so that no virtual movements and, associated with this, a false classification as a dynamic object occurs.
Des Weiteren ist vorgesehen, dass aus den statischen Objekten die relevanten statischen Objekte, welche sich zumindest teilweise auf einer der Fahrspuren befinden, extrahiert werden. Aus der Menge aller statischen Objekte sollen basierend auf der akkumulierten statischen Belegungskarte die relevanten statischen Objekte extrahiert werden. Es sollen also zum einen angehaltene Verkehrsteilnehmer auf der Fahrspur erkannt werden, hinter denen das eigene Fahrzeug angehalten werden sollen. Zum anderen sollen relevante nicht angehaltene statische Objekte, welche sich zumindest bereichsweise auf einer der Fahrspuren befinden, bei der Trajektorienplanung berücksichtig werden. Beispielsweise können diese umfahren werden oder das Fahrzeug kann bei Vorhandensein von Gegenverkehr abgebremst werden. Bei dieser Art statischer Objekte, welche relevante statische Objekte aber keine angehaltenen Verkehrsteilnehmer sind, kann es sich beispielsweise um verlorene Ladung oder andere Gegenstände auf der Fahrbahn handeln. Des Weiteren können solche Objekte geparkte Fahrzeuge sein, welche seitlich in die Fahrspur hinein ragen. Auf Grundlage der statischen Belegungskarte und der Fahrbahndaten können die relevanten statischen Objekte inklusive der angehaltenen Verkehrsteilnehmer erkannt werden. Zudem können anhand der statischen Belegungskarte dann die Eigenschaften der statischen Objekte, wie die Form, Position und/oder Orientierung, geschätzt werden. Da sich die positionsbezogenen und geometrischen Eigenschaften eines statischen Objekts über die Zeit nicht ändern, ist die Schätzung auf Grundlage der akkumulierten statischen Belegungskarte vorteilhaft. Zudem kann beispielsweise überprüft werden, ob die Zellen der statischen Belegungskarte, welche ein statisches Objekt beschreiben, der Fahrspur zugeordnet werden können. Außerdem können die räumlichen Abmessungen der erkannten statischen Objekte bzw. der belegten Zellen und/oder die Form der statischen Objekte und/oder eine Bedeckung der Fahrspur durch die statischen Objekte berücksichtigt werden. Die Form kann beispielsweise mittels bekannter Verfahren, wie PCA (Principal Component Analysis) geschätzt werden. Insgesamt können somit auf zuverlässige Weise relevante statische Objekte in der Umgebung des eigenen Fahrzeugs erkannt werden.Furthermore, it is provided that the relevant static objects, which are at least partially located on one of the lanes, are extracted from the static objects. The relevant static objects are to be extracted from the set of all static objects based on the accumulated static occupancy map. On the one hand, stopped road users are to be recognized in the lane, behind which the own vehicle is to be stopped. On the other hand, relevant static objects which have not been stopped and which are located at least in some areas on one of the lanes should be taken into account in the trajectory planning. For example, these can be bypassed or the vehicle can be braked if there is oncoming traffic. This type of static objects, which are relevant static objects but not stopped road users, can be, for example, lost cargo or other objects on the roadway. Furthermore, such objects can be parked vehicles which protrude laterally into the lane. On the basis of the static occupancy map and the lane data, the relevant static objects, including the stopped road users, can be recognized. In addition, the properties of the static objects, such as the shape, position and / or orientation, can then be estimated on the basis of the static occupancy map. Since the position-related and geometric properties of a static object do not change over time, the estimate based on the accumulated static occupancy map is advantageous. In addition, it can be checked, for example, whether the cells of the static occupancy map which describe a static object can be assigned to the lane. In addition, the spatial dimensions of the recognized static objects or the occupied cells and / or the shape of the static objects and / or the lane being covered by the static objects can be taken into account. The shape can be estimated using known methods such as PCA (Principal Component Analysis), for example. Overall, relevant static objects in the vicinity of one's own vehicle can thus be recognized in a reliable manner.
Bevorzugt weist die akkumulierte statische Belegungskarte eine Mehrzahl von Zellen auf, wobei die jeweiligen Zellen eine Belegung durch den nicht bewegten Anteil der Umgebung beschreiben, und einzelne Zellen werden zum Identifizieren der relevanten statischen Objekte ausgewählt und/oder verbunden. Wie bereits erläutert, kann den jeweiligen Zellen der statischen Belegungskarte eine Wahrscheinlichkeit, dass diese von einem statischen Objekt belegt sind, zugeordnet sein. Dabei kann zunächst eine Binarisierung der statischen Belegungskarte vorgenommen werden. Hierbei können diejenigen belegten Zellen ausgewählt werden, bei welchen die Belegungswahrscheinlichkeit größer als ein Grenzwert, beispielsweise 0,5 bzw. 50 % ist. Im Anschluss daran kann ein Clustern der ausgewählten Zellen vorgenommen werden. Hierbei können beispielsweise Lücken zwischen nahen beieinanderliegenden Zellen geschlossen werden. Zur Extraktion der relevanten statischen Objekte aus den statischen Objekten können die einzelnen Zellen ausgewählt und/oder verbunden werden. Somit können statische Objekte in der Umgebung des Fahrzeugs mit geringem Rechenaufwand zuverlässig erkannt werden.The accumulated static occupancy map preferably has a plurality of cells, the respective cells describing an occupancy by the non-moving part of the environment, and individual cells are selected and / or connected to identify the relevant static objects. As already explained, the respective cells of the static occupancy map can be assigned a probability that these are occupied by a static object. The static occupancy card can first be binarized. In this case, those occupied cells can be selected for which the occupancy probability is greater than a limit value, for example 0.5 or 50%. The selected cells can then be clustered. In this way, for example, gaps between cells that are close together can be closed. To extract the relevant static objects from the static objects, the individual cells can be selected and / or connected. This means that static objects in the vicinity of the vehicle can be reliably identified with little computing effort.
Nachdem die Zellen der statischen Belegungskarte ausgewählt und/oder geclustert wurden, können diese Zellen dann den Fahrspuren zugeordnet werden. Hierzu kann beispielsweise der Scanline-Algorithmus verwendet werden. Alternativ oder zusätzlich kann für jede der Zellen überprüft werden, ob diese zumindest bereichsweise innerhalb einer der erkannten Fahrspuren liegt. Cluster bzw. statische Objekte außerhalb einer der erkannten Fahrspuren können nicht berücksichtigt werden oder gelöscht werden. Wenn ein Cluster bzw. ein statisches Objekt einer Fahrspur zugeordnet wird, kann diesem statischen Objekt eine Kennung bzw. ID der Fahrspur zugewiesen werden.After the cells of the static occupancy map have been selected and / or clustered, these cells can then be assigned to the lanes. The scanline algorithm, for example, can be used for this purpose. As an alternative or in addition, it can be checked for each of the cells whether this is at least partially within one of the detected lanes. Clusters or static objects outside one of the detected lanes cannot be taken into account or deleted. If a cluster or a static object is assigned to a lane, an identifier or ID of the lane can be assigned to this static object.
Bevorzugt werden aus den relevanten statischen Objekten angehaltene Verkehrsteilnehmer identifiziert. Ziel des Verfahrens ist es insbesondere, anhaltende Verkehrsteilnehmer und parkende Verkehrsteilnehmer bzw. statische Hindernisse zu differenzieren. Unter dem Begriff anhaltende Verkehrsteilnehmer sind in diesem Zusammenhang alle Objekte zu verstehen, die auf einer Fahrbahn stehen und potentiell anfahren können, wie beispielsweise ein stehendes Fahrzeug an einer roten Ampel oder abbiegende Fahrzeuge. Im Gegensatz zu parkenden Verkehrsteilnehmern, welche ggf. umfahren werden sollen, soll hinter anhaltenden Verkehrsteilnehmern ebenfalls angehalten werden. Bei den erkannten relevanten statischen Objekten sollen insbesondere die parkenden Verkehrsteilnehmer bzw. stationären Hindernisse (z.B. Karton auf der Straße) von den kurzzeitig angehaltenen Verkehrsteilnehmer (z.B. an einer roten Ampel) unterschieden werden.Stopped road users are preferably identified from the relevant static objects. The aim of the method is, in particular, to differentiate stopping road users and parked road users or static obstacles. In this context, the term stopping road users is to be understood as meaning all objects that are standing on a roadway and can potentially approach them, such as, for example, a stationary vehicle at a red traffic light or vehicles turning. In contrast to parked road users, who should be avoided if necessary, stopping should also be made behind stopping road users. In the case of the relevant static objects recognized, a distinction should be made, in particular, between the parked road users or stationary obstacles (e.g. cardboard boxes on the street) and the temporarily stopped road users (e.g. at a red traffic light).
In einer Ausführungsform wird die Identifizierung der jeweiligen angehaltenen Verkehrsteilnehmer anhand von räumlichen Abmessungen der jeweiligen relevanten statischen Objekte und/oder einer Form der jeweiligen relevanten statischen Objekte und/oder einer Bedeckung der Fahrspur durch die jeweiligen relevanten statischen Objekte plausibilisiert. Aus den erkannten relevanten statischen Objekten sollen die angehaltenen Verkehrsteilnehmer extrahiert werden. Dazu können die räumlichen Abmessungen des statischen Objekts überprüft werden. Handelt es sich um ein kleines Objekt bzw. unterschreiten die räumlichen Abmessungen des statischen Objekts einen vorbestimmten Grenzwert, kann dieses Objekt als relevantes statisches Objekt aber nicht als angehaltener Verkehrsteilnehmer angesehen werden. Bei einem kleinen Objekt auf der Fahrspur kann es sich beispielsweise um einen Gegenstand handeln. Alternativ oder zusätzlich kann eine Bedeckung der Fahrspur durch das statische Objekt berücksichtigt werden. Wenn das statische Objekt nur einen geringen Bereich bedeckt bzw. wenn die Bedeckung einen Mindestwert unterschreitet, kann dieses Objekt als relevantes statisches Objekt aber nicht als angehaltener Verkehrsteilnehmer angesehen werden. Hierbei kann auch berücksichtigt werden, welchen Bereich der Fahrbahn das Objekt bedeckt. Wenn das Objekt beispielsweise einen seitlichen Bereich der Fahrspur bedeckt, kann es als geparktes Fahrzeug, welches teilweise in die Fahrspur ragt, und nicht als kurzzeitig angehaltener Verkehrsteilnehmer erkannt werden. Auf diese Weise können angehaltene Verkehrsteilnehmer zuverlässig von parkenden Verkehrsteilnehmern bzw. statischen Hindernissen unterschieden werden.In one embodiment, the identification of the respective stopped traffic participants is checked for plausibility on the basis of spatial dimensions of the respective relevant static objects and / or a shape of the respective relevant static objects and / or a coverage of the lane by the respective relevant static objects. The stopped road users are to be extracted from the recognized relevant static objects. For this purpose, the spatial dimensions of the static object can be checked. If the object is a small object or if the spatial dimensions of the static object fall below a predetermined limit value, this object can be viewed as a relevant static object but not as a stopped road user. A small object in the lane can be an object, for example. As an alternative or in addition, the lane being covered by the static object can be taken into account. If the static object only covers a small area or if the coverage falls below a minimum value, this object can be viewed as a relevant static object but not as a stopped road user. This can also take into account which area of the roadway the object covers. If the object covers, for example, a side area of the lane, it can be recognized as a parked vehicle which partially protrudes into the lane and not as a temporarily stopped road user. In this way, stopped road users can be reliably distinguished from parked road users or static obstacles.
In einer weiteren Ausführungsform werden Kameradaten empfangen und eine Klassifizierung der relevanten statischen Objekte innerhalb der Fahrspur wird anhand der Kameradaten durchgeführt. Mittels der Recheneinrichtung können also Kameradaten von einer Kamera empfangen werden. Die Kamera kann ein Umfeldsensor des Fahrerassistenzsystems sein. In diesem Fall entsprechen die Kameradaten einer Teilmenge der Sensordaten. Anhand der Bilddaten bzw. Kameradaten können die jeweiligen statischen Objekte erkannt und/oder klassifiziert werden. Beispielsweise können die Objekte als Fahrzeug, Motorrad, Radfahrer, Fußgänger oder dergleichen erkannt werden. Diese Klassifizierung kann bei der zuvor beschriebenen Plausibilitätsprüfung berücksichtigt werden. Wenn ein Objekt auf Grundlage der Kameradaten als Motorrad erkannt wird, kann dies als angehaltener Verkehrsteilnehmer identifiziert werden, auch wenn die räumlichen Abmessungen und/oder die Bedeckung der Fahrspur durch das Objekt gering sind. In diesem Fall soll das Fahrzeug hinter dem Verkehrsteilnehmer angehalten werden, auch wenn ein Überholen möglich ist.In a further embodiment, camera data are received and a classification of the relevant static objects within the lane is carried out on the basis of the camera data. Camera data can therefore be received from a camera by means of the computing device. The camera can be an environment sensor of the driver assistance system. In this case the camera data correspond to a subset of the sensor data. The respective static objects can be recognized and / or classified on the basis of the image data or camera data. For example, the objects can be recognized as a vehicle, motorcycle, cyclist, pedestrian or the like. This classification can be taken into account in the plausibility check described above. If an object is recognized as a motorcycle on the basis of the camera data, this can be identified as a stopped road user, even if the spatial dimensions and / or the lane coverage by the object is small. In this case, the vehicle should be stopped behind the road user, even if overtaking is possible.
Weiterhin ist vorteilhaft, wenn anhand der akkumulierten statischen Belegungskarte eine Ausrichtung und/oder Bewegungsrichtung der jeweiligen angehaltenen Verkehrsteilnehmer bestimmt wird. Wenn die angehaltenen Verkehrsteilnehmer aus den relevanten statischen Objekten extrahiert wurden, kann eine Ausrichtung der angehaltenen Verkehrsteilnehmer bestimmt werden. Dies kann auf Grundlage der statischen Belegungskarte, insbesondere nach der Binarisierung und dem Clustern, erfolgen. Den belegten Zellen der Belegungskarten kann ein rechteckförmiger Hüllkörper bzw. eine sogenannte bounding box zugeordnet werden. Hierzu können unterschiedliche Boxen für die Ausrichtung der erkannten Fahrspuren bestimmt werden. Es kann auch vorgesehen sein, dass eine Box auf Grundlage der Ausrichtung des eigenen Fahrzeugs bestimmt wird. Diese unterschiedlichen Boxen, welche unterschiedliche Ausrichtungen aufweisen, können als Hypothesen dienen. Ferner kann eine Score-Funktion auf unterschiedlich orientierte Hypothesen angewendet werden. Somit kann eine der Boxen bzw. Hüllkörper den Zellen bzw. dem Cluster zugeordnet werden. Anhand der ausgewählten Box können dann die Ausrichtung und/oder die zukünftige Bewegungsrichtung des angehaltenen Verkehrsteilnehmers bestimmt werden. Grundsätzlich können die Hüllkörper jede beliebige Form aufweisen. Bei der Bestimmung der Ausrichtung und/oder der zukünftigen Bewegungsrichtung können auch die zuvor beschriebenen Kameradaten genutzt werden. Mittels des gewichteten Abstandes zwischen der Box und den Zellen kann zudem eine Aussage getroffen werden, wie gut das Objekt durch ein Rechteck abgebildet werden kann. Diese Formschätzung kann ein weiterer Indikator sein, ob es sich um einen angehaltenen Verkehrsteilnehmer handelt.It is also advantageous if an alignment and / or direction of movement of the respective stopped road users is determined on the basis of the accumulated static occupancy map. When the stopped road users have been extracted from the relevant static objects, an alignment of the stopped Road users are determined. This can be done on the basis of the static occupancy card, especially after binarization and clustering. A rectangular enveloping body or a so-called bounding box can be assigned to the occupied cells of the occupancy cards. For this purpose, different boxes can be determined for the alignment of the detected lanes. It can also be provided that a box is determined on the basis of the orientation of the own vehicle. These different boxes, which have different orientations, can serve as hypotheses. Furthermore, a score function can be applied to differently oriented hypotheses. One of the boxes or enveloping bodies can thus be assigned to the cells or the cluster. The alignment and / or the future direction of movement of the stopped road user can then be determined on the basis of the selected box. In principle, the enveloping bodies can have any shape. When determining the alignment and / or the future direction of movement, the camera data described above can also be used. Using the weighted distance between the box and the cells, a statement can also be made as to how well the object can be represented by a rectangle. This shape estimate can be a further indicator of whether the road user is stopped.
In einer weiteren Ausführungsform beschreiben die Fahrspurdaten zumindest zwei Fahrspuren in der Umgebung und die jeweiligen angehaltenen Verkehrsteilnehmer werden anhand ihrer Ausrichtung und/oder Bewegungsrichtung einer der zumindest zwei Fahrspuren zugeordnet. Wenn in der Umgebung mehrere Fahrspuren erkannt werden, kann dann auf Grundlage der Ausrichtung und/oder Bewegungsrichtung des angehaltenen Verkehrsteilnehmers erkannt werden, auf welcher der Fahrspuren sich der angehaltene Verkehrsteilnehmer befindet und/oder bewegen wird. Diese Informationen können von dem Fahrerassistenzsystem zum Manövrieren des Fahrzeugs und/oder zum Durchführen von Fahrmanövern genutzt werden.In a further embodiment, the lane data describe at least two lanes in the vicinity and the respective stopped road users are assigned to one of the at least two lanes on the basis of their alignment and / or direction of movement. If several lanes are recognized in the vicinity, it can then be recognized on the basis of the orientation and / or direction of movement of the stopped road user in which of the lanes the stopped road user is and / or will be moving. This information can be used by the driver assistance system to maneuver the vehicle and / or to carry out driving maneuvers.
Es kann zudem vorgesehen sein, dass Informationen bezüglich der Objekte von einem nachgelagerten Modul, welches der Pfadplanung dient, genutzt werden. Dabei können nur diejenigen angehaltenen Verkehrsteilnehmer berücksichtigt werden, welche sich in einem zukünftigen Pfad des Fahrzeugs befinden. Wenn beispielsweise kein Spurwechsel vorgesehen ist, können nur angehaltene Verkehrsteilnehmer auf der Fahrspur bzw. dem Fahrstreifen des Fahrzeugs berücksichtigt werden. Es kann ferner vorgesehen sein, dass bei der Erkennung der angehaltenen Verkehrsteilnehmer nur die Objekte in dem zukünftigen Pfad des Fahrzeugs berücksichtigt werden. Ferner können auch Objekten auf einer anderen Richtungsfahrbahn nicht berücksichtigt werden. Auf diese Weise kann der Rechenaufwand reduziert werden.Provision can also be made for information relating to the objects to be used by a downstream module which is used for path planning. Only those stopped road users who are in a future path of the vehicle can be taken into account. If, for example, no lane change is provided, only stopped road users in the lane or the lane of the vehicle can be taken into account. It can also be provided that only the objects in the future path of the vehicle are taken into account when the stopped road users are recognized. Furthermore, objects on a different lane cannot be taken into account. In this way, the computational effort can be reduced.
Wie bereits erläutert, können die Fahrspurdaten auf Grundlage einer digitalen Landkarte und/oder anhand der Sensordaten des zumindest einen Umfeldsensors bestimmt werden. Es kann ferner vorgesehen sein, dass Odometriedaten von einem Positionssensor des Fahrzeugs empfangen werden. Diese Odometriedaten können die aktuelle Geschwindigkeit und die Drehrate des Fahrzeugs beschreiben. Die Odometriedaten können bei der Bestimmung der statischen Belegungskarte berücksichtigt werden. Zudem können die Odometriedaten bei der zuvor beschriebenen Bestimmung der Ausrichtung der angehaltenen Verkehrsteilnehmer als zusätzliche Hypothese berücksichtig werden.As already explained, the lane data can be determined on the basis of a digital map and / or on the basis of the sensor data of the at least one environment sensor. Provision can also be made for odometry data to be received from a position sensor of the vehicle. This odometry data can describe the current speed and the rate of rotation of the vehicle. The odometry data can be taken into account when determining the static occupancy card. In addition, the odometry data can be taken into account as an additional hypothesis in the previously described determination of the orientation of the stopped road users.
In einer weiteren Ausgestaltung wird in Abhängigkeit von der Identifizierung der relevanten Objekte aber nicht angehaltenen Verkehrsteilnehmer (d.h. parkend oder stationäres Hindernis) innerhalb der Fahrspur aus den statischen Objekten ein Überholvorgang entschieden. Wenn ein statisches Objekt als relevantes statisches Objekt aber nicht kurzzeitig anhaltender Verkehrsteilnehmer identifiziert wird, kann mittels des Fahrerassistenzsystems ein Fahrmanöver zum Überholen des statischen Objekts bzw. zum Vorbeifahren an dem statischen Objekt durchgeführt werden. Ist ein Überholen aktuell nicht möglich, weil die Ausweichtrajektorie beispielsweise wegen Gegenverkehr belegt ist, kann ein gewisser Abstand in Fahrtrichtung zu dem statischen Objekt gehalten werden. Auf diese Weise ist ein Überholvorgang möglich, wenn die Trajektorie wieder frei ist. Falls ein statisches Objekt als angehaltener Verkehrsteilnehmer erkannt wird, kann mittels des Fahrerassistenzsystems das eigene Fahrzeug hinter dem angehaltenen Verkehrsteilnehmer zum Stehen kommen. Der Abstand ist in diesem Fall deutlich geringer, um die Abstände z.B. vor Ampeln oder im Stau gering zu halten. Ein kurzzeitig angehaltener Verkehrsteilnehmer soll also nicht überholt werden. Das Überholen kann zudem in Abhängigkeit von der Spurzuordnung und/oder der Spurbelegung des relevanten statischen Objekts bzw. des angehaltenen Verkehrsteilnehmers entschieden werden. Dies gilt beispielsweise für den Fall, wenn ein abbiegender angehaltener Verkehrsteilnehmer noch teilweise in die eigene Fahrspur ragt.In a further embodiment, depending on the identification of the relevant objects but not stopped traffic participants (i.e. parking or stationary obstacle) within the lane, an overtaking process is decided from the static objects. If a static object is identified as a relevant static object but not a short-term traffic participant, the driver assistance system can be used to carry out a driving maneuver to overtake the static object or to drive past the static object. If overtaking is currently not possible because the evasive trajectory is occupied, for example due to oncoming traffic, a certain distance can be maintained in the direction of travel from the static object. In this way, overtaking is possible when the trajectory is clear again. If a static object is recognized as a stopped road user, the driver assistance system can bring the driver's vehicle to a stop behind the stopped road user. In this case, the distance is significantly smaller in order to keep the distances short, e.g. in front of traffic lights or in a traffic jam. A road user who has stopped briefly should not be overtaken. Overtaking can also be decided as a function of the lane allocation and / or the lane occupancy of the relevant static object or the stopped road user. This applies, for example, to the case when a road user who has stopped turning is still partially protruding into his own lane.
Insgesamt kann also zwischen drei Typen von statischen Objekten unterschieden werden. Zum einen gibt es nicht relevante statische Objekte, wie Hindernisse oder Verkehrsteilnehmer außerhalb des eigenen Fahrschlauchs oder der Straße. Auf diese nicht relevanten Objekte soll nicht reagiert werden. Des Weiteren gibt es die zuvor beschriebenen relevanten statischen Objekte und die angehaltenen Verkehrsteilnehmer, wobei die angehaltenen Verkehrsteilnehmer eine Teilmenge der relevanten statischen Objekte sind.Overall, a distinction can be made between three types of static objects. On the one hand, there are static objects that are not relevant, such as obstacles or road users outside of your own driving path or the road. There should be no reaction to these irrelevant objects. There are also the relevant static objects described above and those that have been stopped Road users, the stopped road users being a subset of the relevant static objects.
Eine erfindungsgemäße Recheneinrichtung für ein Sensorsystem eines Fahrzeugs ist zum Durchführen eines erfindungsgemäßen Verfahrens unter vorteilhaften Ausgestaltungen davon ausgelegt bzw. eingerichtet. Die Recheneinrichtung kann insbesondere durch ein elektronisches Steuergerät eines Fahrzeugs gebildet sein.A computing device according to the invention for a sensor system of a vehicle is designed or set up to carry out a method according to the invention with advantageous embodiments thereof. The computing device can in particular be formed by an electronic control unit of a vehicle.
Ein erfindungsgemäßes Fahrerassistenzsystem für ein Fahrzeug umfasst eine erfindungsgemäße Recheneinrichtung. Des Weiteren kann das Fahrerassistenzsystem eine Mehrzahl von Umfeldsensoren aufweisen, mit denen die Sensordaten bereitgestellt werden können. Das Fahrerassistenzsystem kann auch einen Positionssensor zum Bereitstellen der Odometriedaten umfassen. Auf einem Speicher des Fahrzeugs bzw. des Fahrerassistenzsystems kann eine digitale Landkarte gespeichert sein. Zudem kann die Position des Fahrzeugs mittels eines satellitengestützten Positionsbestimmungssystems ermittelt werden. Mittels des Fahrerassistenzsystems kann das Fahrzeug automatisiert oder autonom manövriert werden. In Abhängigkeit davon, ob die statischen Objekte in der Umgebung als relevante angehaltene Verkehrsteilnehmer oder als relevante parkende Verkehrsteilnehmer bzw. statische Hindernisse erkannt werden, kann mit dem Fahrerassistenzsystem ein Fahrmanöver geplant werden.A driver assistance system according to the invention for a vehicle comprises a computing device according to the invention. Furthermore, the driver assistance system can have a plurality of environment sensors with which the sensor data can be provided. The driver assistance system can also include a position sensor for providing the odometry data. A digital map can be stored in a memory of the vehicle or of the driver assistance system. In addition, the position of the vehicle can be determined by means of a satellite-supported position determination system. The vehicle can be maneuvered automatically or autonomously by means of the driver assistance system. Depending on whether the static objects in the vicinity are recognized as relevant stopped traffic participants or as relevant parking traffic participants or static obstacles, a driving maneuver can be planned with the driver assistance system.
Ein erfindungsgemäßes Fahrzeug umfasst ein erfindungsgemäßes Fahrerassistenzsystems bzw. eine erfindungsgemäße Recheneinrichtung. Das Fahrzeug ist insbesondere als Personenkraftwagen ausgebildet. Es kann auch vorgesehen sein, dass das Fahrzeug als Nutzfahrzeug ausgebildet ist.A vehicle according to the invention comprises a driver assistance system according to the invention or a computing device according to the invention. The vehicle is designed in particular as a passenger car. It can also be provided that the vehicle is designed as a utility vehicle.
Ein weiterer Aspekt der Erfindung betrifft ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinrichtung diese veranlassen, ein erfindungsgemäßes Verfahren und die vorteilhaften Ausgestaltungen davon auszuführen. Des Weiteren betrifft die Erfindung ein computerlesbares (Speicher)medium, umfassend Befehle, die bei der Ausführung durch eine Recheneinrichtung diese veranlassen, ein erfindungsgemäßes Verfahren und die vorteilhaften Ausgestaltungen davon auszuführen.A further aspect of the invention relates to a computer program, comprising commands which, when the program is executed by a computing device, cause it to execute a method according to the invention and the advantageous refinements thereof. The invention further relates to a computer-readable (storage) medium, comprising instructions which, when executed by a computing device, cause the computing device to execute a method according to the invention and the advantageous embodiments thereof.
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für die erfindungsgemäße Recheneinrichtung, für das erfindungsgemäße Fahrerassistenzsystem, für das erfindungsgemäße Fahrzeug, für das erfindungsgemäße Computerprogramm sowie für das erfindungsgemäße computerlesbare (Speicher)medium.The preferred embodiments presented with reference to the method according to the invention and their advantages apply accordingly to the computing device according to the invention, for the driver assistance system according to the invention, for the vehicle according to the invention, for the computer program according to the invention and for the computer-readable (memory) medium according to the invention.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.Further features of the invention emerge from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description, as well as the features and combinations of features mentioned below in the description of the figures and / or shown alone in the figures, can be used not only in the specified combination, but also in other combinations or on their own, without the frame to leave the invention.
Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Dabei zeigen:
-
1 eine schematische Darstellung eines Fahrzeugs, welches ein Fahrerassistenzsystem aufweist; -
2 eine schematische Darstellung einer Verkehrssituation, bei welcher sich eine Mehrzahl von statischen Objekten in einer Umgebung des Fahrzeugs befindet; -
3 eine schematische Darstellung von Messpunkten eines statischen Objekts, wobei die Messpunkte zu unterschiedlichen Zeitpunkten aufgenommen werden; -
4 ein schematisches Ablaufdiagramm eines Verfahrens zum Erfassen von statischen Objekten in der Umgebung des Fahrzeugs gemäß einer ersten Ausführungsform; -
5 eine schematische Darstellung einer statischen Belegungskarte, bei welcher belegte Zellen ausgewählt werden und die ausgewählten Zellen geclustert werden; -
6 eine schematische Darstellung von mehreren Hypothesen-Boxen, welche den belegten Zellen einer statischen Belegungskarte zugeordnet werden; und -
7 ein schematisches Ablaufdiagramm eines Verfahrens zum Erfassen von statischen Objekten in der Umgebung des Fahrzeugs gemäß einer zweiten Ausführungsform.
-
1 a schematic representation of a vehicle having a driver assistance system; -
2 a schematic representation of a traffic situation in which a plurality of static objects are in the vicinity of the vehicle; -
3 a schematic representation of measuring points of a static object, the measuring points being recorded at different times; -
4th a schematic flow diagram of a method for detecting static objects in the vicinity of the vehicle according to a first embodiment; -
5 a schematic representation of a static occupancy map, in which occupied cells are selected and the selected cells are clustered; -
6th a schematic representation of several hypothesis boxes, which are assigned to the occupied cells of a static occupancy card; and -
7th a schematic flow diagram of a method for detecting static objects in the vicinity of the vehicle according to a second embodiment.
In den Figuren werden gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.Identical or functionally identical elements are provided with the same reference symbols in the figures.
Des Weiteren umfasst das Fahrerassistenzsystem
Die jeweiligen statischen Objekte
Auf der Fahrspur
Bei der Erfassung der statischen Objekte
Auf der rechten Seite von
Eine solche statische Belegungskarte M ist in dem Abschnitt a) von
In einem Schritt
In einem Schritt
Wenn dieses Verfahren auf die Verkehrssituation gemäß
Im Anschluss sollen aus den verbleibenden statischen Objekten
Als weiteres Kriterium kann die Bedeckung der Fahrspur
In einem Schritt
Dies ist beispielhaft in
Eine mögliche Erweiterung kann darin bestehen, dass nicht nur die genauen Hypothesen ausgewählt werden. Beispielsweise können die Hypothesen durch mehrere Hypothesen mit geringerer Abweichung in beide Richtungen erweitert werden. Wenn die Ausrichtung 20° beträgt, können zum Beispiel Hypothesen für die Winkel 10°, 15°, 18°, 20°, 22°, 25° und 30° bewertet werden. Eine andere Strategie könnte darin bestehen, eine direkte Anpassung einer Hypothesen-Box
Mit diesen Informationen können folgende Verbesserungen erzielt werden: Ein Clustern kann basierend auf der Objekt-ID durchgeführt werden. Des Weiteren kann ein Cluster geteilt werden, wenn dieses zwei verschiedenen Kameraobjekten zugeordnet ist. Zudem können Cluster ignoriert werden, welche keine Zuordnung zu einem Kameraobjekt haben. Es können auch sehr kleiner Cluster berücksichtigt werden, wenn diese beispielsweise als Radfahrer, Motorrad, Fußgänger oder dergleichen klassifiziert werden. Ferner kann die Ausrichtung als eine Hypothese für die Anpassung der Hypothesen-Box
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020112825.8A DE102020112825A1 (en) | 2020-05-12 | 2020-05-12 | Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020112825.8A DE102020112825A1 (en) | 2020-05-12 | 2020-05-12 | Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020112825A1 true DE102020112825A1 (en) | 2021-11-18 |
Family
ID=78280551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020112825.8A Pending DE102020112825A1 (en) | 2020-05-12 | 2020-05-12 | Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020112825A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022102000A1 (en) | 2022-01-28 | 2023-08-03 | Bayerische Motoren Werke Aktiengesellschaft | Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium) |
DE102023001762A1 (en) | 2022-05-24 | 2023-11-30 | Sew-Eurodrive Gmbh & Co Kg | Mobile system |
DE102022128787A1 (en) | 2022-10-28 | 2024-05-08 | Bayerische Motoren Werke Aktiengesellschaft | Method and assistance system for detecting static obstacles and correspondingly equipped motor vehicle |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016203086A1 (en) | 2016-02-26 | 2017-08-31 | Robert Bosch Gmbh | Method and device for driver assistance |
DE102018105293A1 (en) | 2017-03-08 | 2018-09-20 | GM Global Technology Operations LLC | METHOD AND DEVICE FOR A NETWORKED SCENE REPRESENTATION AND EXPANSION IN VEHICLE ENVIRONMENTS IN AUTONOMOUS DRIVING SYSTEMS |
EP3627386A1 (en) | 2018-09-21 | 2020-03-25 | Volkswagen AG | Method and device for providing an image of the vicinity of a mobile device and motor vehicle comprising such a device |
-
2020
- 2020-05-12 DE DE102020112825.8A patent/DE102020112825A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016203086A1 (en) | 2016-02-26 | 2017-08-31 | Robert Bosch Gmbh | Method and device for driver assistance |
DE102018105293A1 (en) | 2017-03-08 | 2018-09-20 | GM Global Technology Operations LLC | METHOD AND DEVICE FOR A NETWORKED SCENE REPRESENTATION AND EXPANSION IN VEHICLE ENVIRONMENTS IN AUTONOMOUS DRIVING SYSTEMS |
EP3627386A1 (en) | 2018-09-21 | 2020-03-25 | Volkswagen AG | Method and device for providing an image of the vicinity of a mobile device and motor vehicle comprising such a device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022102000A1 (en) | 2022-01-28 | 2023-08-03 | Bayerische Motoren Werke Aktiengesellschaft | Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium) |
DE102023001762A1 (en) | 2022-05-24 | 2023-11-30 | Sew-Eurodrive Gmbh & Co Kg | Mobile system |
DE102022128787A1 (en) | 2022-10-28 | 2024-05-08 | Bayerische Motoren Werke Aktiengesellschaft | Method and assistance system for detecting static obstacles and correspondingly equipped motor vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015203016B4 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
EP2888604B1 (en) | Method for determining the course of a lane for a vehicle | |
DE102015209467A1 (en) | Method of estimating lanes | |
DE102020112825A1 (en) | Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle | |
DE102018133441A1 (en) | Method and system for determining landmarks in the surroundings of a vehicle | |
DE102018221054A1 (en) | Method for providing map data in a motor vehicle, motor vehicle and central data processing device | |
WO2020078727A1 (en) | Method and system for determining a model of the environment of a vehicle | |
DE102018123393A1 (en) | Detection of parking areas | |
DE102019123483B4 (en) | Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level | |
WO2020048669A1 (en) | Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle | |
EP4088224A1 (en) | Method for combining a plurality of data sets for generating a current lane model of a road and device for data processing | |
DE102021003567A1 (en) | Process for the recognition of object relationships and attributions from sensor data | |
DE102016120066A1 (en) | A computer implemented method for controlling an object recognition system | |
DE102021204687A1 (en) | Process for scene interpretation of an environment of a vehicle | |
DE102020129802A1 (en) | VEHICLE OPERATIONAL IDENTIFICATION | |
DE102020118589A1 (en) | IMPROVED VEHICLE OPERATION | |
DE102021119871B4 (en) | Method and processor circuit for operating an automated driving function with an object classifier in a motor vehicle, and motor vehicle | |
DE102017216802A1 (en) | METHOD AND DEVICE FOR DETECTING LICENSES, DRIVER ASSISTANCE SYSTEM AND VEHICLE | |
DE102021127028A1 (en) | SYSTEMS AND PROCEDURES FOR CUSTOMIZABLE REAR COLLISION ALERTS | |
DE102017105721A1 (en) | Method for identifying at least one parking space for a vehicle and parking assistance system of a vehicle | |
EP2696310B1 (en) | Method for identifying the edge of a road | |
DE102016119592A1 (en) | Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle | |
DE102019132151A1 (en) | Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system | |
WO2020001690A1 (en) | Method and system for identifying obstacles | |
DE102022102000A1 (en) | Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |