DE102022102000A1 - Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium) - Google Patents

Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium) Download PDF

Info

Publication number
DE102022102000A1
DE102022102000A1 DE102022102000.2A DE102022102000A DE102022102000A1 DE 102022102000 A1 DE102022102000 A1 DE 102022102000A1 DE 102022102000 A DE102022102000 A DE 102022102000A DE 102022102000 A1 DE102022102000 A1 DE 102022102000A1
Authority
DE
Germany
Prior art keywords
objects
static
dynamic
vehicle
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022102000.2A
Other languages
German (de)
Inventor
Dominik Kellner
Christoph Seeger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102022102000.2A priority Critical patent/DE102022102000A1/en
Publication of DE102022102000A1 publication Critical patent/DE102022102000A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs mit den Schritten: Empfangen von Detektionsdaten und von Objektdaten von zumindest einem Umfeldsensor, Identifizieren von relevanten statischen Objekten und von dynamischen Objekten in den Objektdaten auf Grundlage von zumindest einem vorbestimmten Zuordnungskriterium, Zuordnen der Detektionsdaten zu denjenigen Objektdaten, welche als relevante statische Objekte und als dynamische Objekte identifiziert werden, Zuordnen der nicht den relevanten statischen Objekten und den dynamischen Objekten zugeordneten Detektionsdaten zu einer statischen Objektliste, wobei die statische Objektliste statische Objekte in der Umgebung beschreibt, Zuordnen der relevanten statischen Objekte und der dynamischen Objekten zu einer dynamischen Objektliste, wobei die dynamische Objektliste potentielle dynamische Objekte in der Umgebung beschreibt.The invention relates to a method for detecting objects in an area surrounding a vehicle, with the steps: receiving detection data and object data from at least one environment sensor, identifying relevant static objects and dynamic objects in the object data on the basis of at least one predetermined assignment criterion, assigning of the detection data to those object data which are identified as relevant static objects and as dynamic objects, assigning the detection data not assigned to the relevant static objects and the dynamic objects to a static object list, the static object list describing static objects in the environment, assigning the relevant ones static objects and the dynamic objects into a dynamic object list, the dynamic object list describing potential dynamic objects in the environment.

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs. Des Weiteren betrifft die vorliegende Erfindung eine Recheneinrichtung für ein Fahrerassistenzsystem eines Fahrzeugs. Außerdem betrifft die vorliegende Erfindung ein Computerprogramm sowie ein computerlesbares Speicher(medium).The present invention relates to a method for detecting objects in an area surrounding a vehicle. Furthermore, the present invention relates to a computing device for a driver assistance system of a vehicle. The present invention also relates to a computer program and a computer-readable memory (medium).

Für Fahrerassistenzsysteme und insbesondere für solche Fahrerassistenzsysteme, welche ein hochautomatisiertes Fahren ermöglichen, ist es essenziell auf stehende Objekte bzw. Hindernisse und bewegte Objekte zu reagieren. Dabei ist für bewegte Objekte unter anderem neben der Position noch der Bewegungszustand entscheidend, wohingegen für stehende Objekte die genaue Ausdehnung entscheidend ist. Ein bewegtes Objekt, welches beispielsweise angehalten hat, muss bei Wiederanfahrt möglichst schnell erkannt werden. Dies gilt besonders für den Fall eines Objekts, das gerade in die Spur einfährt bzw. die Spur verlässt.For driver assistance systems and in particular for those driver assistance systems that enable highly automated driving, it is essential to react to stationary objects or obstacles and moving objects. In addition to the position, the state of motion is also decisive for moving objects, whereas the exact extent is decisive for stationary objects. A moving object that has stopped, for example, must be detected as quickly as possible when it starts moving again. This is especially true in the case of an object entering or exiting the lane.

Bei Hindernissen bzw. stehendem Objekten ist hingegen die exakte Ausdehnung entscheidend. Insbesondere soll erkannt werden, wie weit das Hindernis in die Fahrspur des eigenen Fahrzeugs hineinragt bzw. ob das Fahrzeug an dem Hindernis vorbei manövriert werden kann. Derartige statische Objekte können stehende Fahrzeuge, Hindernisse, wie beispielsweise die Vegetation, oder verlorene Ladung sein. Die relevanten statischen Objekte sollten zuverlässig und so schnell wie möglich erkannt werden.In the case of obstacles or stationary objects, on the other hand, the exact extent is decisive. In particular, it should be recognized how far the obstacle protrudes into the lane of one's own vehicle or whether the vehicle can be maneuvered past the obstacle. Such static objects can be stationary vehicles, obstacles such as vegetation, or lost cargo. The relevant static objects should be detected reliably and as quickly as possible.

Ein üblicher Ansatz zur Erfassung von statischen Objekten ist die Verwendung von statischen Belegungsgittern. Ein solches Belegungsgitter stützt sich nicht auf eine Annahme der Form der Objekte, sondern die Umgebung wird durch Gitterzellen dargestellt. Ferner kann aus den besetzten Zellen eine Liste statischer Hindernisse bzw. eine statische Objektliste extrahiert werden.A common approach to detecting static objects is to use static occupancy grids. Such an occupancy grid does not rely on an assumption of the shape of the objects, but the environment is represented by grid cells. Furthermore, a list of static obstacles or a static object list can be extracted from the occupied cells.

Darüber hinaus ist es erforderlich, dass potenzielle bewegte bzw. dynamische Verkehrsteilnehmer erfasst und im Laufe der Zeit in einer dynamischen Objektliste nachverfolgt werden. Dies ist notwendig, um zusätzlich zu ihrer Position ihre Geschwindigkeit und/oder Beschleunigung zu bestimmen. Ferner kann diesen dynamischen Objekten eine konsistente ID bzw. Kennung zugeordnet werden. Somit können diese Objekte nachverfolgt werden, wenn sie anhalten oder die Fahrt wieder aufnehmen. Ein gemeinsamer Ansatz besteht darin, eine sogenannte Bounding-Box zu verwenden, welche die Form gewöhnlicher Fahrzeuge annähert.In addition, it is necessary that potential moving or dynamic road users are recorded and tracked over time in a dynamic object list. This is necessary in order to determine their speed and/or acceleration in addition to their position. Furthermore, a consistent ID or identifier can be assigned to these dynamic objects. Thus, these objects can be tracked when they stop or resume driving. A common approach is to use a so-called bounding box, which approximates the shape of ordinary vehicles.

Häufig werden alle relevanten Objekte über die Zeit verfolgt - unabhängig davon, ob diese bewegt oder stehend sind. Das führt zu einer deutlich größeren Anzahl an relevanten Objekten. Beispielsweise werden alle parkenden Fahrzeuge auf dem Seitenstreifen, Fahrzeuge auf Parkplätzen neben der Straße, stehende Fußgänger und/oder Fahrradfahrer, weit von der Straße entfernte Objekte oder dergleichen erfasst. Dabei wird nicht berücksichtigt, ob sich die Objekte auf der Straße, auf der relevanten Spur oder neben der Straße befinden. Nur Bereiche, die nicht von einem Objekt abgedeckt sind, werden in einem statischem Belegungsgitter berücksichtigt und daraus Hindernisse generiert.All relevant objects are often tracked over time - regardless of whether they are moving or stationary. This leads to a significantly larger number of relevant objects. For example, all parked vehicles on the hard shoulder, vehicles in parking lots next to the road, stationary pedestrians and/or cyclists, objects far from the road, or the like are detected. It does not take into account whether the objects are on the road, in the relevant lane or next to the road. Only areas that are not covered by an object are taken into account in a static occupancy grid and obstacles are generated from this.

Werden stehende und bewegte Objekte in einem gemeinsamen Ansatz verfolgt, entstehen häufig durch Messfehler oder Fehler in der Objektextraktion virtuelle Bewegungen, so dass sich parkende Fahrzeuge quasi bewegen oder sich drehen. Das führt zu einer größeren Anzahl an Falschbremsungen auf stehende, aber nicht relevante Fahrzeuge. Durch die große Anzahl an Objekten benötigen die Algorithmen eine hohe Rechenleistung, da für alle Objekte Eigenschaften wie Form, Position und/oder Orientierung geschätzt werden müssen. Diese Schätzung basiert immer auf der aktuellen Messung und die extrahierten Eigenschaften werden über die Zeit gemittelt. Werden beispielsweise anhaltende Objekte nur in einem statischen Belegungsgitter erfasst, dauert es einige Zeit bis die Hindernisse wieder verschwinden, da für mehrere Messzyklen keine Messung in diesem Bereich enthalten sein darf. Das führt zum einem zu einem schlechteren Komfortverhalten, beispielsweise durch verspätetes Anfahren, aber kann auch zu Fehlreaktionen, beispielsweise wenn ein stehendes Fahrzeug gerade aus der bzw. in die eigene Spur einschert.If stationary and moving objects are tracked in a joint approach, virtual movements often occur due to measurement errors or errors in object extraction, so that parked vehicles move or turn. This leads to a larger number of false stops on stationary, but irrelevant vehicles. Due to the large number of objects, the algorithms require high computing power, since properties such as shape, position and/or orientation have to be estimated for all objects. This estimate is always based on the current measurement and the extracted properties are averaged over time. If, for example, persistent objects are only recorded in a static occupancy grid, it takes some time for the obstacles to disappear again, since no measurement may be contained in this area for several measurement cycles. On the one hand, this leads to poorer comfort behavior, for example due to delayed starting, but can also lead to incorrect reactions, for example if a stationary vehicle just cuts out of or into its own lane.

Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie Objekte in einer Umgebung eines Fahrzeugs mit geringem Rechenaufwand aber dennoch zuverlässig erfasst werden können.It is the object of the present invention to show a solution as to how objects in the surroundings of a vehicle can be detected with little computing effort but nevertheless reliably.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Recheneinrichtung, durch ein Computerprogramm sowie durch ein computerlesbares Speicher(medium) mit den Merkmalen gemäß den unabhängigen Ansprüchen gelöst. Vorteilhafte Weiterbildungen der vorliegenden Erfindung sind in den abhängigen Ansprüchen angegeben.According to the invention, this object is achieved by a method, by a computing device, by a computer program and by a computer-readable storage (medium) having the features according to the independent claims. Advantageous developments of the present invention are specified in the dependent claims.

Ein erfindungsgemäßes Verfahren dient zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs. Das Verfahren umfasst das Empfangen von Detektionsdaten und von Objektdaten von zumindest einem Umfeldsensor. Dabei beschreiben die Detektionsdaten Messergebnisse von Messungen mit dem zumindest einen Umfeldsensor in der Umgebung und die Objektdaten beschreiben in den Detektionsdaten erkannte Objekte. Außerdem umfasst das Verfahren das Identifizieren von relevanten statischen Objekten und von dynamischen Objekten in den Objektdaten. Dabei erfolgt das Identifizieren auf Grundlage von zumindest einem vorbestimmten Zuordnungskriterium. Des Weiteren umfasst das Verfahren das Zuordnen der Detektionsdaten zu denjenigen Objektdaten, welche als relevante statische Objekte und als dynamische Objekte identifiziert werden bzw. wurden. Ferner umfasst das Verfahren das Zuordnen der nicht den relevanten statischen Objekten und nicht den dynamischen Objekten zugeordneten Detektionsdaten zu einer statischen Objektliste, wobei die statische Objektliste statische Objekte in der Umgebung beschreibt. Darüber hinaus umfasst das Verfahren das Zuordnen der relevanten statischen Objekte und der dynamischen Objekte zu einer dynamischen Objektliste, wobei die dynamische Objektliste potentielle dynamische Objekte in der Umgebung beschreibt.A method according to the invention is used to detect objects in the surroundings of a vehicle. The method includes receiving detection data and object data from at least one environment sensor. The detection data describe measurement results from measurements with the at least one environment sensor in the Environment and the object data describe objects recognized in the detection data. The method also includes identifying relevant static objects and dynamic objects in the object data. In this case, the identification takes place on the basis of at least one predetermined assignment criterion. Furthermore, the method includes the assignment of the detection data to those object data which are or were identified as relevant static objects and as dynamic objects. The method also includes assigning the detection data that is not assigned to the relevant static objects and not to the dynamic objects to a static object list, with the static object list describing static objects in the environment. In addition, the method includes assigning the relevant static objects and the dynamic objects to a dynamic object list, the dynamic object list describing potential dynamic objects in the environment.

Mit Hilfe des Verfahrens sollen die relevanten Objekte in der Umgebung des eigenen Fahrzeugs erfasst werden. Zudem soll insbesondere zwischen dynamischen, also sich bewegenden Objekten und statischen bzw. stehenden Hindernissen unterschieden werden. Zudem sollen auch Objekte, welche sich potentiell bewegen können, erfasst werden. Das Verfahren kann insbesondere mit einer Recheneinrichtung eines Fahrerassistenzsystems eines Fahrzeugs durchgeführt werden. Diese Recheneinrichtung kann durch zumindest ein elektronisches Steuergerät des Fahrzeugs gebildet sein. Im Betrieb des Fahrerassistenzsystems werden von zumindest einem fahrzeugseitigen Umfeldsensor fortlaufend Detektionsdaten und Objektdaten bereitgestellt. Bei dem zumindest einen Umfeldsensor kann es sich um einen Radarsensor, einen Lidar-Sensor, eine Kamera, einen Ultraschallsensor oder dergleichen handeln. Grundsätzlich können auch Detektionsdaten und/oder Objektdaten von mehreren Umfeldsensoren empfangen werden.With the help of the method, the relevant objects in the vicinity of one's own vehicle are to be detected. In addition, a distinction should be made between dynamic, i.e. moving objects and static or stationary obstacles. In addition, objects that can potentially move should also be recorded. The method can be carried out in particular with a computing device of a driver assistance system of a vehicle. This computing device can be formed by at least one electronic control unit of the vehicle. During operation of the driver assistance system, detection data and object data are continuously made available by at least one environment sensor on the vehicle. The at least one environment sensor can be a radar sensor, a lidar sensor, a camera, an ultrasonic sensor or the like. In principle, detection data and/or object data can also be received from a number of surroundings sensors.

Die Detektionsdaten stammen von Messungen des zumindest einen Umfeldsensors. Die Detektionsdaten können auch als Sensordaten bezeichnet werden. Die Detektionsdaten können beispielsweise einzelne Messpunkte beschreiben. Bei einem Radarsensor können die Detektionsdaten den Abstand, den Winkel und/oder die Relativgeschwindigkeit beschreiben. Bei einem Lidarsensor können die Detektionsdaten den Abstand und/oder den Winkel beschreiben. Bei dem Winkel kann es sich um den Winkel in Azimut-Richtung handeln. Der Winkel kann auch bezüglich eines Koordinatensystems des Fahrzeugs oder bezüglich der Fahrbahnebene bestimmt werden. Bei einer Kamera können die Detektionsdaten beispielsweise einzelne Bildpunkte beschreiben.The detection data come from measurements of the at least one environment sensor. The detection data can also be referred to as sensor data. The detection data can describe individual measurement points, for example. In the case of a radar sensor, the detection data can describe the distance, the angle and/or the relative speed. With a lidar sensor, the detection data can describe the distance and/or the angle. The angle can be the angle in the azimuth direction. The angle can also be determined in relation to a coordinate system of the vehicle or in relation to the plane of the road. In the case of a camera, the detection data can describe individual pixels, for example.

Die Objektdaten werden auf Grundlage der Detektionsdaten erzeugt. Die Objektdaten können auch aus Detektionsdaten von mehreren zeitlich aufeinanderfolgenden Messzyklen bestimmt werden. Die Objektdaten können beispielsweise in dem Umfeldsensor selbst bzw. einer dem Umfeldsensor zugeordneten Sensor-Recheneinrichtung bestimmt werden. Zur Bestimmung der Objektdaten können bekannte Methoden der Objekterkennung genutzt werden.The object data is generated based on the detection data. The object data can also be determined from detection data from a number of consecutive measurement cycles. The object data can be determined, for example, in the surroundings sensor itself or in a sensor computing device assigned to the surroundings sensor. Known methods of object recognition can be used to determine the object data.

Die Objektdaten können mittels der Recheneinrichtung des Fahrerassistenzsystems näher untersucht werden. Die Objektdaten beschreiben mögliche Objekte in der Umgebung des Fahrzeugs. Diese möglichen Objekte werden nun insbesondere in die statischen Objekte und in die dynamischen Objekte eingeteilt. Dabei beschreiben die statischen Objekte diejenigen der Objektdaten, welche als statische bzw. stehende Objekte eingeschätzt werden. Im Gegensatz dazu beschreiben die dynamischen Objekte diejenigen der Objektdaten, welche als dynamische bzw. sich bewegende Objekte eingeschätzt werden. Wenn sich beispielsweise ein mögliches Objekt über mehrere Messzyklen des Umfeldsensors hinweg nicht bewegt, kann dieses Objekt als statisches Objekt eingestuft werden. Falls sich aber das mögliches Objekt über mehrere Messzyklen des Umfeldsensors hinweg bewegt, kann dies als dynamisches Objekt eingestuft werden. Die Einteilung der Objektdaten in prädizierte statische Objekte und in prädizierte dynamische Objekte kann innerhalb des Sensors, aber auch innerhalb der Recheneinrichtung erfolgen.The object data can be examined in more detail using the computing device of the driver assistance system. The object data describe possible objects in the area surrounding the vehicle. These possible objects are now divided in particular into static objects and dynamic objects. The static objects describe those of the object data which are assessed as static or standing objects. In contrast to this, the dynamic objects describe those of the object data which are estimated to be dynamic or moving objects. For example, if a possible object does not move over several measurement cycles of the surroundings sensor, this object can be classified as a static object. However, if the possible object moves over several measurement cycles of the surroundings sensor, this can be classified as a dynamic object. The object data can be divided into predicted static objects and predicted dynamic objects within the sensor, but also within the computing device.

Die statischen Objekte können weiter in die relevanten statischen Objekte und in die nicht-relevanten statischen Objekte eingeteilt werden. Dabei beschreiben die relevanten statischen Objekte insbesondere diejenigen Objekte, auf welche mit dem Fahrerassistenzsystem eine Reaktion zu erfolgen hat. Unter der Reaktion kann insbesondere eine Anpassung der Längsgeschwindigkeit, beispielsweise ein Bremseingriff, verstanden werden. Diese relevanten statischen Objekte können sich zum Überwiegenden Teil in einem Fahrschlauch bzw. Fahrstreifen des eigenen Fahrzeugs befinden. Ferner kann die äußere Form der relevanten statischen Objekte abgeschätzt werden. Beispielsweise kann diesen relevanten statischen Objekten eine sogenannte Bounding-Box zugeordnet werden. Die relevanten statischen Objekte können insbesondere andere Verkehrsteilnehmer sein. Die relevanten statischen Objekte können aktuell bzw. kurzzeitig stillstehen und sich in der Zukunft aber wieder bewegen.The static objects can be further divided into the relevant static objects and the non-relevant static objects. The relevant static objects describe in particular those objects to which the driver assistance system has to react. The reaction can be understood in particular as an adaptation of the longitudinal speed, for example a braking intervention. Most of these relevant static objects can be located in a driving path or lane of your own vehicle. Furthermore, the outer shape of the relevant static objects can be estimated. For example, a so-called bounding box can be assigned to these relevant static objects. The relevant static objects can in particular be other road users. The relevant static objects can currently or briefly stand still and move again in the future.

Die nicht-relevanten statischen Objekte können beispielsweise Hindernisse sein. Die nicht-relevanten statischen Objekte können bereichsweise in den Fahrschlauch bzw. den Fahrstreifen des eigenen Fahrzeugs hineinragen. Beispielsweise kann verlorene Ladung oder ein geparktes Fahrzeug, welches teilweise in den Fahrstreifen ragt, ein nicht-relevantes statisches Objekt darstellen. Auf ein nicht-relevantes statisches Objekt kann beispielswiese mittels des Fahrerassistenzsystems mit einem Ausweichmanöver reagiert werden. Zudem können nicht-relevante statische Objekte oft nicht ausreichend durch eine Bounding-Box beschrieben werden.The non-relevant static objects can be obstacles, for example. The non-relevant static objects can be placed in the driving path or the driving lane of your own area vehicle. For example, lost cargo or a parked vehicle that partially protrudes into the lane can represent an irrelevant static object. For example, the driver assistance system can react to an irrelevant static object with an evasive maneuver. In addition, non-relevant static objects often cannot be adequately described by a bounding box.

Diejenigen Detektionsdaten, welche nicht den relevanten statischen Objekten und auch nicht den dynamischen Objekten zugeordnet wurden, können einem statischen Belegungsgitter (Static Grid) bzw. einer statischen Objektliste zugeführt werden. Es kann auch vorgesehen sein, dass diese nicht zugeordneten Detektionsdaten zunächst einem statischen Belegungsgitter zugeführt werden und aus dem statischen Belegungsgitter dann die statische Objektliste erzeugt wird. Die statische Objektliste dient zur Beschreibung der statischen Objekte in der Umgebung des Fahrzeugs. Auf diese statischen Objekte kann dann im Betrieb des Fahrerassistenzsystems entsprechend reagiert werden. Beispielsweise kann solchen statischen Objekten ausgewichen werden oder mit einem ausreichendem Abstand angehalten werden, damit der Fahrer die Möglichkeit hat, das Hindernis zu umfahren.Those detection data which have not been assigned to the relevant static objects and also not to the dynamic objects can be supplied to a static occupancy grid (static grid) or a static object list. It can also be provided that these unassigned detection data are first supplied to a static occupancy grid and then the static object list is generated from the static occupancy grid. The static object list is used to describe the static objects in the vehicle's surroundings. It is then possible to react appropriately to these static objects during operation of the driver assistance system. For example, such static objects can be avoided or stopped at a sufficient distance so that the driver has the opportunity to drive around the obstacle.

Die relevanten statischen Objekte und die dynamischen Objekte werden der dynamischen Objektliste zugeordnet. Es kann auch vorgesehen sein, dass die Detektionsdaten und/oder die Objektdaten, welche den relevanten statischen Objekten und den dynamischen Objekten zugeordnet wurden, der dynamischen Objektliste zugeordnet werden. Die dynamische Objektliste dient zur Beschreibung bzw. Repräsentation der potentiellen dynamischen Objekte in der Umgebung des Fahrzeugs. Auch auf diese dynamischen Objekte kann dann im Betrieb des Fahrerassistenzsystems entsprechend reagiert werden. Beispielsweise kann auf solche dynamischen Objekte gebremst werden bzw. das eigene Fahrzeug kann einen geringen Abstand zu dem dynamischen Objekt einhalten.The relevant static objects and the dynamic objects are assigned to the dynamic object list. Provision can also be made for the detection data and/or the object data which have been assigned to the relevant static objects and the dynamic objects to be assigned to the dynamic object list. The dynamic object list is used to describe or represent the potential dynamic objects in the area surrounding the vehicle. It is then also possible to react appropriately to these dynamic objects during operation of the driver assistance system. For example, such dynamic objects can be braked or the driver's own vehicle can maintain a small distance from the dynamic object.

Das zuvor beschriebene Identifizieren der relevanten statischen Objekte und der dynamischen Objekte erfolgt gemäß zumindest einem vorbestimmten Zuordnungskriterium. Wie nachfolgend näher beschrieben, kann das Zuordnungskriterium das Objekt selbst, die Erfassung des Objekts mit dem zumindest einen Umfeldsensor, den Kontext, in welchem das Objekt erfasst wurde, oder dergleichen beschreiben. Somit kann insbesondere vermieden werden, dass reale statische Objekte als dynamische Objekte eingeschätzt werden. Insgesamt kann somit der Rechenaufwand deutlich reduziert werden und zugleich die Objekterkennung zuverlässig durchgeführt werden.The previously described identification of the relevant static objects and the dynamic objects takes place according to at least one predetermined assignment criterion. As described in more detail below, the assignment criterion can describe the object itself, the detection of the object with the at least one environment sensor, the context in which the object was detected, or the like. Thus, in particular, it can be avoided that real static objects are assessed as dynamic objects. Overall, the computing effort can thus be significantly reduced and, at the same time, the object recognition can be carried out reliably.

Grundsätzlich können alle Objektdaten bzw. alle möglichen Objekte in die dynamische Objektliste eingetragen werden. Wenn die nicht-relevanten statischen Objekte dann der statischen Objektliste bzw. dem statischen Belegungsgitter zugeordnet werden, kann diese Objekte dann aus der dynamischen Objektliste gelöscht werden bzw. als nicht bestätigt eingetragen werden. Es kann auch vorgesehen sein, dass das Objekt in der dynamischen Objektliste als vorläufig nicht bestätigt gekennzeichnet wird.In principle, all object data or all possible objects can be entered in the dynamic object list. If the non-relevant static objects are then assigned to the static object list or the static occupancy grid, these objects can then be deleted from the dynamic object list or entered as not confirmed. It can also be provided that the object in the dynamic object list is marked as provisionally not confirmed.

In einer Ausführungsform beschreibt das zumindest eine vorbestimmte Zuordnungskriterium eine Ausrichtung, eine Verdeckung, eine Klassifizierung und/oder einen Bewegungsstatus des durch die Objektdaten beschriebenen Objekts. Die Ausrichtung des Objekts kann insbesondere den Winkel zwischen dem Fahrzeug bzw. einer Längsachse des Fahrzeugs und dem Objekt bzw. einer Längsachse des Objekts beschreiben. Hierbei kann zudem berücksichtigt werden, ob die Ausrichtung des Objekts mit dem Umfeldsensor ausreichend bestimmt werden kann. Wenn das Objekt eine schwer zu bestimmende Ausrichtung aufweist, kann das Objekt der statischen Objektliste zugeordnet werden. Zudem kann dieses Objekt in der dynamischen Objektliste als nicht bestätigt gekennzeichnet werden. Dies kann beispielsweise der Fall sein, wenn das Objekt eine Ausrichtung von 45° aufweist, welche mit einem Radarsensor oder einer Kamera schwer zu bestimmen ist.In one embodiment, the at least one predetermined assignment criterion describes an orientation, an occlusion, a classification and/or a movement status of the object described by the object data. The orientation of the object can in particular describe the angle between the vehicle or a longitudinal axis of the vehicle and the object or a longitudinal axis of the object. In this case, it can also be taken into account whether the orientation of the object can be determined adequately using the surroundings sensor. If the object has an orientation that is difficult to determine, the object can be assigned to the static object list. In addition, this object can be marked as not confirmed in the dynamic object list. This can be the case, for example, if the object has an orientation of 45°, which is difficult to determine with a radar sensor or camera.

Die Verdeckung des möglichen statischen Objekts durch ein weiteres Objekt kann zudem als Zuordnungskriterium herangezogen werden. Insbesondere kann berücksichtigt werden, wie hoch der Grad der Verdeckung ist. Wenn der Grad der Verdeckung beispielsweise hoch ist bzw. einen Grenzwert überschreitet, kann das mögliche statische Objekt der statischen Objektliste bzw. dem statischen Belegungsgitter zugeordnet werden. Zudem kann das Objekt in der dynamischen Objektliste auf vorläufig nicht bestätigt gesetzt werden.The covering of the possible static object by another object can also be used as an assignment criterion. In particular, it can be taken into account how high the degree of concealment is. For example, if the degree of occlusion is high or exceeds a limit value, the possible static object can be assigned to the static object list or the static occupancy grid. In addition, the object can be set to provisionally not confirmed in the dynamic object list.

Die Klassifizierung des Objekts kann innerhalb des Umfeldsensors und/oder innerhalb der Recheneinrichtung des Fahrerassistenzsystems erfolgen. Die Klassifizierung kann bezüglich vorbestimmter Objektklassen erfolgen. Die Objektklassen können beispielsweise Fußgänger, Personenkraftwagen, Lastkraftwagen oder dergleichen sein. Insbesondere erfolgt die Klassifizierung auf Grundlage von Bilddaten einer Kamera als Umfeldsensor. Durch die Klassifizierung kann insbesondere unterschieden werden, ob es sich um ein bewegtes Objekt oder ein statisches Hindernis handelt. Wenn beispielsweise ein Objekt nicht klassifiziert werden kann, auch wenn einer Kamera genutzt wird, kann das Objekt zunächst aufgrund der unerwarteten Form in dem statischen Belegungsgitter belassen werden.The object can be classified within the environment sensor and/or within the computing device of the driver assistance system. The classification can take place with regard to predetermined object classes. The object classes can be, for example, pedestrians, cars, trucks or the like. In particular, the classification takes place on the basis of image data from a camera as an environment sensor. The classification makes it possible to distinguish in particular whether it is a moving object or a static obstacle. For example, if an object cannot be classified even when using a camera, the object may initially be left in the static occupancy grid due to the unexpected shape.

Als Zuordnungskriterium kann ferner der Bewegungsstatus des Objekts herangezogen werden. Der Bewegungsstatus kann grundsätzlich beschreiben, ob sich das Objekt bewegt oder stillsteht. Ferner kann überprüft werden, ob sich der Bewegungsstatus des Objekts geändert hat. Wenn beispielsweise ein Objekt zunächst als sich bewegendes Objekt erkannt wurde und danach als stehendes Objekt erkannt wurde, kann das Objekt in der dynamischen Objektliste belassen werden, da es sich in der Zukunft wahrscheinlich weiterbewegen wird. Hier kann auch die Ausrichtung des Objekts während des Stillstands abgeschätzt werden.The movement status of the object can also be used as an assignment criterion. The motion status can basically describe whether the object is moving or standing still. Furthermore, it can be checked whether the movement status of the object has changed. For example, if an object was first detected as a moving object and then was detected as a stationary object, the object can be left in the dynamic object list since it is likely to keep moving in the future. The alignment of the object while it is stationary can also be estimated here.

Sich langsam bewegende Objekte oder stehende Objekte können der dynamischen Objektliste zugeordnet werden. Somit kann auf diese Objekte besser reagiert werden, falls sich diese wieder weiterbewegen. Auf diese Weise kann eine geringere Initialisierungszeit erreicht werden, wenn quasi ein Umschalten von einem statischen Objekt zu einem bewegten Objekt erfolgt. Zudem können Artefakte in dem statischen Belegungsgitter vermieden werden. Ferner kann zu einem solchen Objekt der geringe Abstand eingehalten werden. Geparkte Fahrzeuge bzw. Objekte können der statischen Objektliste bzw. dem Belegungsgitter zugeordnet werden, da eine Zuordnung von verschiedenen Sensordetektionen zu einem spezifischen Objekt in der Reihe von geparkten Fahrzeugen schwierig oder unmöglich ist. Außerdem können stehende Objekte, deren Form keiner Bounding-Box zugeordnet werden kann, der statischen Objektliste zugeordnet werden. Somit kann ein größerer Abstand zu dem Objekt eingehalten werden und somit gegebenenfalls ein Ausweichmanöver geplant werden.Slowly moving objects or stationary objects can be assigned to the dynamic object list. It is thus possible to react better to these objects if they move on again. In this way, a shorter initialization time can be achieved when there is a quasi switchover from a static object to a moving object. In addition, artifacts in the static occupancy grid can be avoided. Furthermore, the small distance to such an object can be maintained. Parked vehicles or objects can be assigned to the static object list or the occupancy grid, since it is difficult or impossible to assign different sensor detections to a specific object in the row of parked vehicles. In addition, standing objects whose shape cannot be assigned to a bounding box can be assigned to the static object list. A greater distance from the object can thus be maintained and an evasive maneuver can therefore be planned if necessary.

Weiterhin ist vorteilhaft, wenn das zumindest eine vorbestimmte Zuordnungskriterium einen Sensortyp des zumindest einen Umfeldsensors und/oder eine Erfassung des durch die Objektdaten beschriebenen Objekts mit dem zumindest einen Umfeldsensor beschreibt. Wie bereits erläutert, können unterschiedliche Umfeldsensoren bzw. unterschiedliche Typen von Umfeldsensoren genutzt werden. Abhängig davon mit welchem Umfeldsensor bzw. mit welchen Umfeldsensoren das Objekt erfasst wurde, kann die Zuordnung des Objekts zu der statischen Objektliste oder der dynamischen Objektliste erfolgen. Wenn beispielsweise das Objekt nur mit einem Radarsensor oder einem Lidar-Sensor erfasst wurde, kann es dem statischen Belegungsgitter zugeordnet werden, um eine flexible Schätzung der Form zu ermöglichen. Hierbei können ferner Zuordnungen berücksichtigt werden. Ein Objekt, welches beispielsweise nur mit einer Kamera oder einem Lidar-Sensor erfasst wurde, kann den Detektionen eines Radarsensors zugeordnet werden. Ein solches Objekt kann der dynamischen Objektliste zugeordnet werden und die Positionsschätzung, die beispielsweise auf Grundlage der Kamera ermittelt wurde, kann korrigiert werden, da das Objekt beschleunigen könnte. Zudem können die korrespondierenden Zellen in dem statischen Belegungsgitter gelöscht werden.Furthermore, it is advantageous if the at least one predetermined assignment criterion describes a sensor type of the at least one surroundings sensor and/or a detection of the object described by the object data with the at least one surroundings sensor. As already explained, different surroundings sensors or different types of surroundings sensors can be used. The object can be assigned to the static object list or the dynamic object list depending on which environment sensor or environment sensors were used to detect the object. For example, if the object was only detected with a radar sensor or a lidar sensor, it can be assigned to the static occupancy grid to allow flexible estimation of the shape. Allocations can also be taken into account here. An object that was only detected with a camera or a lidar sensor, for example, can be assigned to the detections of a radar sensor. Such an object can be assigned to the dynamic object list and the position estimate, which was determined based on the camera, for example, can be corrected since the object could accelerate. In addition, the corresponding cells in the static occupancy grid can be deleted.

In einer weiteren Ausführungsform beschreibt das zumindest eine vorbestimmte Zuordnungskriterium eine Lage des durch die Objektdaten beschriebenen Objekts zu einem zukünftigen Fahrschlauch des Fahrzeugs. Der Fahrschlauch kann die zukünftige Bewegung bzw. den Bereich, den das Fahrzeug zukünftig befahren wird, beschreiben. Es kann überprüft werden, ob sich die möglichen Objekte zumindest bereichsweise innerhalb des Fahrschlauchs befinden bzw. befinden werden. Dies kann auf Grundlage von Karteninformationen und/oder anhand der Einschätzung des Objekts als statisches oder dynamisches Objekt erfolgen. Falls sich ein stehendes Objekt vollständig bzw. zum überwiegenden Teil in dem Fahrschlauch befindet und das Objekt als Verkehrsteilnehmer klassifiziert wurde, kann es der dynamischen Objektliste zugeordnet werden. Falls sich ein stehendes Objekt nur teilweise in dem Fahrschlauch befindet und/oder es eine große Winkelabweichung aufweist, kann es dem statischen Belegungsgitter bzw. der statischen Objektliste zugeordnet werden.In a further embodiment, the at least one predetermined assignment criterion describes a position of the object described by the object data in relation to a future driving path of the vehicle. The driving path can describe the future movement or the area that the vehicle will travel in the future. It can be checked whether the possible objects are or will be located at least in certain areas within the travel path. This can be based on map information and/or based on the assessment of the object as a static or dynamic object. If a stationary object is located completely or for the most part in the travel path and the object has been classified as a road user, it can be assigned to the dynamic object list. If a stationary object is only partially in the travel path and/or has a large angular deviation, it can be assigned to the static occupancy grid or the static object list.

Wenn sich beispielsweise ein stehendes Objekt in den Fahrschlauch bzw. in die Fahrspur des Fahrzeugs hineinragt, kann dies in dem statischen Belegungsgitter beschrieben werden. Die genaue Abschätzung des verbleibenden fahrbaren Pfads ist nur in dem statischen Gitter möglich. Die Repräsentation in der dynamischen Objektliste kann hier eine deutlich schlechtere Schätzung der Form des Objekts liefern. Dies gilt insbesondere für den Fall, dass das Objekt teilweise verdeckt ist. Zudem kann ein größerer Abstand eingehalten werden, um gegebenenfalls ein Ausweichmanöver zu planen. Wenn sich ein Objekt aber in den Fahrschlauch des eigenen Fahrzeugs bewegt, kann es der dynamischen Objektliste zugeordnet werden.If, for example, a stationary object protrudes into the driving path or into the lane of the vehicle, this can be described in the static occupancy grid. The exact estimation of the remaining drivable path is only possible in the static grid. The representation in the dynamic object list can provide a significantly poorer estimate of the shape of the object. This is especially true if the object is partially obscured. In addition, a greater distance can be maintained in order to plan an evasive maneuver if necessary. However, if an object moves into the driving path of one's own vehicle, it can be assigned to the dynamic object list.

In einer weiteren Ausführungsform wird die statische Objektliste auf Grundlage eines statischen Belegungsgitters bestimmt, wobei in dem statischen Belegungsgitter Detektionen von zugeordneten relevanten statischen Objekten fortlaufend unterdrückt. Das statische Belegungsgitter kann eine Mehrzahl von Zellen aufweisen, welche einzelnen Bereichen in der Umgebung des Fahrzeugs zugeordnet sind. Für jede der Zellen wird eine Belegungswahrscheinlichkeit bestimmt, welche beschreibt, mit welcher Wahrscheinlichkeit der der Zelle zugeordnete Bereich in der Umgebung durch ein Objekt belegt ist. Diese Belegungswahrscheinlichkeit kann über die Zeit akkumuliert werden.In a further embodiment, the static object list is determined on the basis of a static occupancy grid, detections of associated relevant static objects being continuously suppressed in the static occupancy grid. The static occupancy grid can have a plurality of cells which are assigned to individual areas in the vicinity of the vehicle. An occupancy probability is determined for each of the cells, which describes the probability with which the area in the environment assigned to the cell is occupied by an object. This occupancy probability can be accumulated over time.

In der dynamischen Objektliste können prädizierte Objekte unterdrückt bzw. gelöscht werden, welche besser mittels des statischen Belegungsgitters beschrieben werden können. Zudem kann die Aggregation der statischen Belegung in dem Belegungsgitter durch den Ausschluss von Detektionen erreicht werden. Mit anderen Worten können Zellen gelöscht werden, wenn ein Objekt in der dynamischen Objektliste repräsentiert wird.In the dynamic object list, predicted objects can be suppressed or deleted, which can be better described using the static occupancy grid. In addition, the aggregation of the static occupancy in the occupancy grid can be achieved by excluding detections. In other words, cells can be deleted when an object is represented in the dynamic object list.

In einer weiteren Ausgestaltung werden Objektdaten von mehreren Umfeldsensoren empfangen und die jeweiligen durch die Objektdaten beschriebenen Objekte werden vor der Zuordnung zu der dynamischen Objektliste fusioniert. Wie bereits erläutert, können Objektdaten von mehreren Umfeldsensoren bzw. Typen von Umfeldsensoren empfangen werden. Die darin enthaltenen prädizierten dynamischen Objekte können entsprechen fusioniert werden. Ferner kann eine Entscheidung getroffen werden, ob die Objektdaten eines Umfeldsensors bei der Fusion eingeschlossen oder ausgeschlossen werden.In a further refinement, object data is received from a plurality of environment sensors and the respective objects described by the object data are merged before being assigned to the dynamic object list. As already explained, object data can be received from a number of surroundings sensors or types of surroundings sensors. The predicted dynamic objects contained therein can be merged accordingly. Furthermore, a decision can be made as to whether the object data of an environment sensor are included or excluded in the fusion.

Bei der Objektfusion kann beispielsweise ein sogenanntes Flag anzeigen, ob das Objekt in dem statischen Belegungsgitter repräsentiert wird. In diesem Fall wird das Objekt von der Objektfusion ausgeschlossen. Wenn beispielsweise ein teilweise verdecktes Objekt die Bewegung in den Fahrschlauch des Fahrzeugs beginnt, wird dieses vor der Bewegung in dem statischen Belegungsgitter repräsentiert. Hier wird das Objekt explizit von der Objektfusion ausgeschlossen. Wenn das Objekt die Fahrt beginnt, werden diesem dynamische Detektionen zugeordnet. Damit wird das Objekt in dem statischen Belegungsgitter unterdrückt und in der dynamischen Objektliste repräsentiert. Nach dieser Änderung des Bewegungsstatus kann dann Objekt bei der Objektfusion berücksichtigt werden. Optional können auch die korrespondierenden Zellen aus dem Belegungsgitter gelöscht werden.In the object fusion, for example, a so-called flag can indicate whether the object is represented in the static occupancy grid. In this case, the object is excluded from the object fusion. For example, if a partially occluded object starts moving into the vehicle's travel path, it will be represented in the static occupancy grid prior to moving. Here the object is explicitly excluded from the object fusion. When the object starts moving, dynamic detections are assigned to it. This suppresses the object in the static coverage grid and represents it in the dynamic object list. After this change in the movement status, the object can then be taken into account in the object fusion. Optionally, the corresponding cells can also be deleted from the occupancy grid.

Bei dem Verfahren kann die nachfolgende Initialisierungsstrategie genutzt werden: Sowohl für die dynamische Objektliste als auch für das statische Belegungsgitter werden meist mehrere Messzyklen benötigt, um ein Objekt zu bestätigen. Bei der Objekterfassung bzw. Nachverfolgung von dynamischen Objekten werden meist mehrere Detektionen des Objekts benötigt. Bei den ersten Detektionen kann das Objekt zunächst als nicht bestätigt gekennzeichnet werden und nach mehreren Detektion kann das Objekt dann als bestätigt gekennzeichnet werden. Bei dem statischen Belegungsgitter ist es üblicherweise erforderlich, dass Detektionen mehrfach in einer Zelle erfolgen, bis die Belegungswahrscheinlichkeit hoch genug ist. Dies kann dazu führen, dass ein statisches Objekt entweder zuerst in dem statischen Belegungsgitter oder zuerst in der dynamischen Objektliste repräsentiert wird. Falls das Objekt zunächst in dem statischen Belegungsgitter repräsentiert wird, kann das fusionierte Objekt, insofern dies nicht unterdrückt wird, einen bestimmten Bereich in den statischen Belegungsgitter überdecken, so dass belegte Zellen in dem Gitter gelöscht werden.The following initialization strategy can be used in the method: Both for the dynamic object list and for the static occupancy grid, several measurement cycles are usually required to confirm an object. In the case of object detection or tracking of dynamic objects, several detections of the object are usually required. In the first detections, the object can initially be marked as not confirmed and after several detections the object can then be marked as confirmed. With the static occupancy grid, it is usually necessary for detections to be made multiple times in a cell until the occupancy probability is high enough. This can lead to a static object being represented either first in the static occupancy grid or first in the dynamic object list. If the object is initially represented in the static occupancy grid, unless suppressed, the merged object may cover a certain area in the static occupancy grid such that occupied cells in the grid are deleted.

Eine erfindungsgemäße Recheneinrichtung für ein Fahrerassistenzsystem eines Fahrzeugs ist zum Durchführen eines erfindungsgemäßen Verfahrens und der vorteilhaften Ausgestaltungen davon eingerichtet. Die Recheneinrichtung kann zumindest einen Prozessor und einen Speicher aufweisen. Die Recheneinrichtung kann durch zumindest ein elektronisches Steuergerät des Fahrzeugs gebildet sein.A computing device according to the invention for a driver assistance system of a vehicle is set up to carry out a method according to the invention and the advantageous configurations thereof. The computing device can have at least one processor and one memory. The computing device can be formed by at least one electronic control unit of the vehicle.

Ein erfindungsgemäßes Fahrerassistenzsystem umfasst eine erfindungsgemäße Recheneinrichtung. Zudem kann das Fahrerassistenzsystem zumindest einen Umfeldsensor aufweisen. Das Fahrerassistenzsystem kann ferner dazu eingerichtet sein, das Fahrzeug auf Grundlage der erfassten Objekte zumindest teilautomatisiert zu manövrieren.A driver assistance system according to the invention includes a computing device according to the invention. In addition, the driver assistance system can have at least one environment sensor. The driver assistance system can also be set up to maneuver the vehicle in an at least partially automated manner on the basis of the detected objects.

Ein erfindungsgemäßes Fahrzeug umfasst ein erfindungsgemäßes Fahrerassistenzsystem bzw. eine erfindungsgemäße Recheneinrichtung. Das Fahrzeug ist insbesondere als Personenkraftwagen ausgebildet.A vehicle according to the invention includes a driver assistance system according to the invention or a computing device according to the invention. The vehicle is designed in particular as a passenger car.

Ein weiterer Aspekt der Erfindung betrifft ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinrichtung diese veranlassen, ein erfindungsgemäßes Verfahren und die vorteilhaften Ausgestaltungen davon auszuführen. Des Weiteren betrifft die Erfindung ein computerlesbares (Speicher)medium, umfassend Befehle, die bei der Ausführung durch eine Recheneinrichtung diese veranlassen, ein erfindungsgemäßes Verfahren und die vorteilhaften Ausgestaltungen davon auszuführen.A further aspect of the invention relates to a computer program, comprising instructions which, when the program is executed by a computing device, cause the latter to carry out a method according to the invention and the advantageous configurations thereof. Furthermore, the invention relates to a computer-readable (storage) medium, comprising instructions which, when executed by a computing device, cause the latter to carry out a method according to the invention and the advantageous configurations thereof.

Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für die erfindungsgemäße Recheneinrichtung, für das erfindungsgemäße Fahrerassistenzsystem, für das erfindungsgemäße Fahrzeug, für das erfindungsgemäße Computerprogramm sowie für das erfindungsgemäße computerlesbare (Speicher)medium.The preferred embodiments presented with reference to the method according to the invention and their advantages apply correspondingly to the computing device according to the invention, to the driver assistance system according to the invention, to the vehicle according to the invention, to the computer program according to the invention and to the computer-readable (storage) medium according to the invention.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.Further features of the invention result from the claims, the figures and the description of the figures. The features and feature combinations mentioned above in the description, as well as the features and feature combinations mentioned below in the description of the figures and/or shown alone in the figures, are not only in the respectively indicated Benen combination, but also in other combinations or used alone, without departing from the scope of the invention.

Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Dabei zeigen:

  • 1 eine schematische Darstellung eines Fahrzeugs, welches ein Fahrerassistenzsystem aufweist;
  • 2 eine schematische Darstellung einer Verkehrssituation, bei welcher sich eine Mehrzahl von statischen Objekten in einer Umgebung des Fahrzeugs befindet;
  • 3 eine schematische Darstellung eines statischen Belegungsgitters, welches ein statisches Objekt in der Umgebung des Fahrzeugs beschreibt;
  • 4 ein schematisches Ablaufdiagramm eines Verfahrens zum Erfassen von Objekten in der Umgebung des Fahrzeugs gemäß dem Stand der Technik; und
  • 5 ein schematisches Ablaufdiagramm eines Verfahrens zum Erfassen von Objekten in der Umgebung des Fahrzeugs gemäß einer Ausführungsform der Erfindung.
The invention will now be explained in more detail using preferred exemplary embodiments and with reference to the accompanying drawings. show:
  • 1 a schematic representation of a vehicle having a driver assistance system;
  • 2 a schematic representation of a traffic situation in which a plurality of static objects are located in an area surrounding the vehicle;
  • 3 a schematic representation of a static occupancy grid, which describes a static object in the vicinity of the vehicle;
  • 4 a schematic flowchart of a method for detecting objects in the area surrounding the vehicle according to the prior art; and
  • 5 a schematic flowchart of a method for detecting objects in the area surrounding the vehicle according to an embodiment of the invention.

In den Figuren werden gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.Elements that are the same or have the same function are provided with the same reference symbols in the figures.

1 zeigt in einer schematischen Darstellung ein Fahrzeug 1, welches vorliegend als Personenkraftwagen ausgebildet ist, in einer Draufsicht. Das Fahrzeug 1 umfasst ein Fahrerassistenzsystem 2, mittels welchem das Fahrzeug 1 automatisiert oder autonom manövriert werden kann. Das Fahrerassistenzsystem 2 umfasst eine Recheneinrichtung 3, welche beispielsweise durch zumindest ein elektronisches Steuergerät des Fahrzeugs 1 gebildet sein kann. 1 shows a schematic representation of a vehicle 1, which is designed here as a passenger car, in a plan view. The vehicle 1 includes a driver assistance system 2, by means of which the vehicle 1 can be maneuvered automatically or autonomously. The driver assistance system 2 includes a computing device 3, which can be formed by at least one electronic control unit of the vehicle 1, for example.

Des Weiteren umfasst das Fahrerassistenzsystem 2 zumindest einen Umfeldsensor 4, 5, 6. In dem vorliegenden Beispiel umfasst das Fahrerassistenzsystem 2 als Umfeldsensoren eine Kamera 4, einen Radarsensor 5 und einen Lidar-Sensor 6. Grundsätzlich kann das Fahrerassistenzsystem 2 eine Mehrzahl von Umfeldsensoren 4, 5, 6 aufweisen. Mit den jeweiligen Umfeldsensoren 4, 5, 6 werden Sensordaten bzw. Detektionsdaten 14 bereitgestellt, welche eine Umgebung 7 des Fahrzeugs 1 beschreiben. Diese Detektionsdaten 14 können von den Umfeldsensoren 4, 5, 6 an die Recheneinrichtung 3 übertragen werden.Furthermore, the driver assistance system 2 includes at least one environment sensor 4, 5, 6. In the present example, the driver assistance system 2 includes a camera 4, a radar sensor 5 and a lidar sensor 6 as environment sensors. In principle, the driver assistance system 2 can have a plurality of environment sensors 4, 5, 6 have. With the respective environment sensors 4, 5, 6, sensor data or detection data 14 are provided, which describe an environment 7 of the vehicle 1. This detection data 14 can be transmitted to the computing device 3 by the surroundings sensors 4 , 5 , 6 .

2 zeigt in einer schematischen Darstellung eine Verkehrssituation, bei welcher sich in der Umgebung 7 des Fahrzeugs 1 eine Mehrzahl von Objekten 8a, 8b, 8c, 8d befinden. Dabei bewegt sich das Fahrzeug 1 entlang einer Bewegungsrichtung 9. Das Fahrzeug 1 befindet sich auf einer Fahrspur 10. Die jeweiligen Objekte 8a bis 8d können anhand der Sensordaten erkannt werden, welche mit den Umfeldsensoren 4, 5, 6 bereitgestellt werden. Vorliegend sind jeweils diejenigen Bereiche der Objekte 8a bis 8d dargestellt, welche mit den Umfeldsensoren 4, 5, 6 erkannt werden können. 2 1 shows a schematic representation of a traffic situation in which there are a plurality of objects 8a, 8b, 8c, 8d in the surroundings 7 of the vehicle 1. The vehicle 1 is moving along a direction of movement 9. The vehicle 1 is in a lane 10. The respective objects 8a to 8d can be detected using the sensor data which are provided by the surroundings sensors 4, 5, 6. Those regions of the objects 8a to 8d which can be detected by the surroundings sensors 4, 5, 6 are shown here.

In der gezeigten Verkehrssituation befindet sich in Fahrtrichtung vor dem Fahrzeug 1 ein nicht-relevantes statisches Objekt 8a bzw. Hindernis auf der Fahrspur 10. Bei dem Objekt 8a kann es sich um eine verlorene Kiste handeln. Das Objekt 8a bedeckt nur einen geringen Bereich der Fahrspur 10, so dass dem Objekt 8a keine Bounding-Box 11 zur Beschreibung der Form bzw. der äußeren Abmessungen zugeordnet wird. In diesem Fall kann mittels des Fahrerassistenzsystems 2 ein Ausweichmanöver zum Vorbeifahren an dem statischen Hindernis 8a bestimmt werden. Es kann auch vorgesehen sein, dass das Fahrzeug 1 mittels des Fahrerassistenzsystems 2 in einem größeren Abstand zu dem statischen Hindernis 8a angehalten wird, sodass der Fahrer entscheiden kann bzw. ein Fahrmanöver durchführen kann.In the traffic situation shown, there is an irrelevant static object 8a or obstacle in the lane 10 in front of the vehicle 1 in the direction of travel. The object 8a can be a lost box. The object 8a only covers a small area of the lane 10, so that the object 8a is not assigned a bounding box 11 for describing the shape or the external dimensions. In this case, an evasive maneuver for driving past the static obstacle 8a can be determined by means of the driver assistance system 2 . Provision can also be made for the vehicle 1 to be stopped at a greater distance from the static obstacle 8a by means of the driver assistance system 2, so that the driver can make a decision or carry out a driving maneuver.

Darüber hinaus befindet sich als nicht-relevantes statisches Objekt 8b ein geparktes Fahrzeug in der Umgebung 7 des Fahrzeugs 1. Von diesem geparkten Fahrzeug ragt nur eine Seite so in die Fahrspur 10, dass ein geringer Bereich der Fahrspur 10 bedeckt ist. An diesem geparkten Fahrzeug kann das Fahrzeug 1 vorbei manövriert werden. Teilweise auf der Fahrspur 10 des Fahrzeugs 1 befindet sich als nicht-relevantes statisches Objekt 8c zudem ein erster angehaltener Verkehrsteilnehmer. Bei dem angehaltenen Verkehrsteilnehmer kann es sich beispielsweise um ein angehaltenes Fahrzeug handeln. Diesem angehaltenen ersten Verkehrsteilnehmer nähert sich das Fahrzeug 1 von hinten an. Auf Grundlage der Sensordaten der Umfeldsensoren 4, 5, 6 kann der hintere Bereich des angehaltenen ersten Verkehrsteilnehmers bzw. des Objekts 8c erfasst werden. Zu diesem teilweise verdeckten Objekt 8c sollte das Fahrzeug 1 einen definierten Mindestabstand einhalten, um ein Ausweichmanöver planen zu können.In addition, there is a parked vehicle in the surroundings 7 of the vehicle 1 as a non-relevant static object 8b. Only one side of this parked vehicle protrudes into the lane 10 in such a way that a small area of the lane 10 is covered. The vehicle 1 can be maneuvered past this parked vehicle. A first stopped road user is also partially located in the lane 10 of the vehicle 1 as a non-relevant static object 8c. The stopped road user can be a stopped vehicle, for example. The vehicle 1 approaches this stopped first road user from behind. On the basis of the sensor data from the surroundings sensors 4, 5, 6, the rear area of the stopped first road user or the object 8c can be detected. The vehicle 1 should maintain a defined minimum distance from this partially covered object 8c in order to be able to plan an evasive maneuver.

Außerdem befindet sich als relevantes statisches Objekt 8d ein zweiter angehaltener Verkehrsteilnehmer in der Umgebung 7 des Fahrzeugs 1. Auch diesem zweiten angehaltenen Verkehrsteilnehmer nähert sich das Fahrzeug 1 von hinten an. Mithilfe der Umfeldsensoren 4, 5, 6 kann das Heck des zweiten angehaltenen Verkehrsteilnehmers erkannt werden. Hinter diesem Objekt 8d sollte in geringem Abstand angehalten werden.In addition, as a relevant static object 8d, there is a second stopped road user in the surroundings 7 of the vehicle 1. The vehicle 1 also approaches this second stopped road user from behind. Using the environment sensors 4, 5, 6, the rear of the second stopped road user can be detected become. Behind this object 8d should be stopped at a short distance.

3 zeigt in einer schematischen Darstellung das Objekt 8c gemäß 2 sowie in statisches Belegungsgitter 12. Das statische Belegungsgitter 12 dient zur Repräsentation von nicht-relevanten statischen Objekten in der Umgebung 7 des Fahrzeugs 1. Das statische Belegungsgitter 12 umfasst einen Mehrzahl von Zellen 13, die jeweiligen Bereichen in der Umgebung 7 des Fahrzeugs 1 zugeordnet sind. Zudem beschreiben die jeweiligen Zellen 13 der statischen Belegungskarte 12 mit welcher Wahrscheinlichkeit der Bereich in der Umgebung 7, welcher dieser Zelle 13 zugeordnet ist, mit einem statischen Objekt belegt ist. Vorliegend sind die Wahrscheinlichkeiten stark vereinfacht durch zwei unterschiedliche Schraffuren verdeutlicht. 3 shows the object 8c according to FIG 2 and into static occupancy grid 12. Static occupancy grid 12 is used to represent non-relevant static objects in surroundings 7 of vehicle 1. Static occupancy grid 12 includes a plurality of cells 13 that are assigned to respective areas in surroundings 7 of vehicle 1 . In addition, the respective cells 13 of the static occupancy map 12 describe the probability of the area in the environment 7 which is assigned to this cell 13 being occupied by a static object. In the present case, the probabilities are illustrated in a greatly simplified manner by two different hatchings.

4 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zum Erfassen von Objekten 8a bis 8d in der Umgebung 7 des Fahrzeugs 1 gemäß dem Stand der Technik. Zur Erfassung der Objekte 8a bis 8d werden, wie im Zusammenhang mit 1 dargestellt, die Umfeldsensoren 4, 5, 6 genutzt. Mit dem Umfeldsensor 4 bzw. der Kamera, mit dem Umfeldsensor 5 bzw. dem Radarsensor und mit dem Umfeldsensor 6 bzw. dem Lidar-Sensor werden jeweils sowohl Detektionsdaten 14 als auch Objektdaten 15 bereitgestellt. Dabei beschreiben die jeweiligen Detektionsdaten 14 die Messungen bzw. Messpunkte der Messungen mit den Umfeldsensoren 4, 5, 6 in der Umgebung 7. Die Objektdaten 15 beschreiben in den Detektionsdaten 14 erkannte Objekte 8a bis 8d. 4 shows a schematic flow chart of a method for detecting objects 8a to 8d in the area 7 of the vehicle 1 according to the prior art. To detect the objects 8a to 8d, as in connection with 1 shown, the environment sensors 4, 5, 6 used. With the surroundings sensor 4 or the camera, with the surroundings sensor 5 or the radar sensor and with the surroundings sensor 6 or the lidar sensor, both detection data 14 and object data 15 are provided. The respective detection data 14 describe the measurements or measuring points of the measurements with the surroundings sensors 4, 5, 6 in the environment 7. The object data 15 describe objects 8a to 8d recognized in the detection data 14.

Bei diesem Verfahren liegt eine hierarchische Struktur vor, bei welcher die Detektionsdaten 14 dem statischen Belegungsgitter 12 zugeführt werden. Auf Grundlage des statischen Belegungsgitters 12 wird dann eine statische Objektliste 17 bestimmt, welche die statischen Objekte in der Umgebung 7 beschreibt. Die Objektdaten 15 werden einer Objektfusion 16 zugeführt, in welcher die Objektdaten 15 der jeweiligen Umfeldsensoren 4, 5, 6 fusioniert werden können. Bei der Fusion können optional auch die Detektionsdaten 14 berücksichtigt werden. Aus dem Ergebnis der Fusion wird eine dynamische Objektliste 18 zur Beschreibung der dynamischen Objekte in der Umgebung 7 generiert. Dabei können die Objektdaten 15 sowohl prädizierte statische Objekte als auch prädizierte dynamische Objekte umfassen. Die fusionierten Objekte können zudem dem statischen Belegungsgitter 12 zugeführt werden. Hierdurch entsteht zusätzlicher Rechenaufwand.In this method, there is a hierarchical structure in which the detection data 14 are supplied to the static occupancy grid 12 . A static object list 17 which describes the static objects in the environment 7 is then determined on the basis of the static occupancy grid 12 . The object data 15 are fed to an object fusion 16, in which the object data 15 of the respective surroundings sensors 4, 5, 6 can be fused. The detection data 14 can optionally also be taken into account in the fusion. A dynamic object list 18 for describing the dynamic objects in the environment 7 is generated from the result of the fusion. The object data 15 can include both predicted static objects and predicted dynamic objects. The merged objects can also be supplied to the static occupancy grid 12 . This results in additional computational effort.

Im Vergleich hierzu zeigt 5 ein schematisches Ablaufdiagramm eines Verfahrens zum Erfassen von Objekten 8a bis 8d in der Umgebung 7 des Fahrzeugs 1 gemäß einer Ausführungsform der Erfindung. Auch hier werden mit den Umfeldsensoren 4, 5, 6 jeweils die Detektionsdaten 14 und die Objektdaten 15 bereitgestellt. Die Objektdaten 15 werden der Objektfusion 16 zugeführt.In comparison, shows 5 a schematic flow chart of a method for detecting objects 8a to 8d in the area 7 of the vehicle 1 according to an embodiment of the invention. Here, too, the detection data 14 and the object data 15 are provided with the surroundings sensors 4, 5, 6. The object data 15 are fed to the object fusion 16 .

Die Detektionsdaten 14 werden einem Vorverarbeitungsmodul 19 zugeführt. Dieses Vorverarbeitungsmodul 19 kann durch ein Computerprogramm, welches auf der Recheneinrichtung 3 ausgeführt wird, bereitgestellt werden. Zudem werden an das Vorverarbeitungsmodul 19 Informationen über die Objektdaten der Objektfusion 16 übertragen. Somit können in dem Vorverarbeitungsmodul 19 diejenigen Detektionsdaten 14 bestimmt werden, welche keinem statischen relevanten Objekt und auch keinem dynamischen Objekt zugeordnet wurden. Diese nicht zugeordneten Detektionsdaten 14 können dann dem statischen Belegungsgitter 12 zugeführt werden.The detection data 14 are supplied to a pre-processing module 19 . This pre-processing module 19 can be provided by a computer program which is executed on the computing device 3 . In addition, information about the object data of the object fusion 16 is transmitted to the preprocessing module 19 . Thus, those detection data 14 can be determined in the pre-processing module 19 which have not been assigned to any static relevant object and also to any dynamic object. This unassigned detection data 14 can then be supplied to the static occupancy grid 12 .

In dem Vorverarbeitungsmodul 19 können die statischen Objekte weiter untersucht werden. In Abhängigkeit von vorbestimmten Zuordnungskriterien kann dann entschieden werden, ob diese prädizierten statischen Objekte entweder dem statischen Belegungsgitter 12 bzw. der statischen Objektliste 17 oder der dynamischen Objektliste 18 zugeordnet werden. Als Zuordnungskriterien können die Ausrichtung, die Verdeckung, die Klassifizierung und/oder der Bewegungsstatus herangezogen werden. Zudem kann berücksichtigt werden, mit welchem bzw. mit welchen der Umfeldsensoren 4, 5, 6 das Objekt 8a bis 8d erfasst wurde. Ferner kann die relative Lage des Objekts 8a bis 8d zu einem Fahrschlauch 20 des Fahrzeugs 1 berücksichtigt werden.The static objects can be examined further in the pre-processing module 19 . Depending on predetermined assignment criteria, it can then be decided whether these predicted static objects are assigned either to the static occupancy grid 12 or to the static object list 17 or to the dynamic object list 18 . The alignment, the concealment, the classification and/or the movement status can be used as assignment criteria. In addition, it can be taken into account with which or with which of the surroundings sensors 4, 5, 6 the object 8a to 8d was detected. Furthermore, the position of the object 8a to 8d relative to a driving path 20 of the vehicle 1 can be taken into account.

Dabei können die relevanten statischen Objekte identifiziert werden. Diese relevanten statischen Objekt beschreiben Objekte bzw. Verkehrsteilnehmer, welche beispielsweise aktuelle stehen, sich aber in Zukunft wieder bewegen können. Ein solches relevantes statisches Objekt stellt das Objekt 8d gemäß 2 dar. Ein solches relevantes statisches Objekt kann dann der dynamischen Objektliste 18 zugeordnet werden. Falls ein Objekt der dynamischen Objektliste 18 zugeordnet wurde, können optional auch die Zellen 13 der Belegungskarte 12, welche diesem Objekt zugeordnet sind, gelöscht werden. Dies ist vorliegend durch den Pfeil 21 veranschaulicht. Des Weiteren können mittels des Vorverarbeitungsmoduls 19 die relevanten statischen Objekte bzw. die Objektdaten 15, welche nicht der statischen Belegungskarte 12 zugeordnet werden, der Objektfusion 16 zugeführt werden.The relevant static objects can be identified. These relevant static objects describe objects or road users that are currently stationary, for example, but can move again in the future. Such a relevant static object is the object 8d according to 2 . Such a relevant static object can then be assigned to the dynamic object list 18 . If an object has been assigned to the dynamic object list 18, the cells 13 of the occupancy map 12 which are assigned to this object can optionally also be deleted. This is illustrated by the arrow 21 in the present case. Furthermore, the relevant static objects or the object data 15 which are not assigned to the static occupancy map 12 can be fed to the object fusion 16 by means of the pre-processing module 19 .

Durch das Verfahren gemäß 5 kann eine konsistente Abschätzung zu den Objekten 8a bis 8d ermöglicht werden. Das Vorverarbeitungsmodul 19 kann die Zuordnung zur dem statischen Belegungsgitter 12 der dynamischen Objektliste 18 vornehmen. In Abhängigkeit von der Zuordnung kann dann das Fahrerassistenzsystem 2 entsprechend betrieben werden. Beispielsweise kann bei einem potentiellen dynamischen Objekt aus der dynamischen Objektliste 18 ein geringer Abstand gewählt werden, da davon ausgegangen werden kann, dass das Objekt die Fahrt fortsetzen wird. Bei einem Objekt aus der statischen Objektliste 17 kann ein großer Abstand gewählt werden, um ein Ausweichmanöver planen zu können.By the procedure according to 5 a consistent assessment of the objects 8a to 8d can be made possible. The preprocessing module 19 can carry out the assignment to the static allocation grid 12 of the dynamic object list 18 . Depending on the assignment, driver assistance system 2 can then be operated accordingly. For example, in the case of a potential dynamic object from the dynamic object list 18, a small distance can be selected since it can be assumed that the object will continue driving. A large distance can be selected for an object from the static object list 17 in order to be able to plan an evasive maneuver.

Claims (9)

Verfahren zum Erfassen von Objekten (8a bis 8d) in einer Umgebung (7) eines Fahrzeugs (1) mit den Schritten: - Empfangen von Detektionsdaten (14) und von Objektdaten (15) von zumindest einem Umfeldsensor (4, 5, 6), wobei die Detektionsdaten (14) Messergebnisse von Messungen mit dem zumindest einen Umfeldsensor (4, 5, 6) in der Umgebung (7) beschreiben und wobei die Objektdaten (15) in den Detektionsdaten (14) erkannte Objekte beschreiben, - Identifizieren von relevanten statischen Objekten und von dynamischen Objekten in den Objektdaten (15), wobei das Identifizieren auf Grundlage von zumindest einem vorbestimmten Zuordnungskriterium durchgeführt wird, - Zuordnen der Detektionsdaten (14) zu denjenigen Objektdaten (15), welche als relevante statische Objekte und als dynamische Objekte identifiziert werden, - Zuordnen der nicht den relevanten statischen Objekten und nicht den dynamischen Objekten zugeordneten Detektionsdaten (14) zu einer statischen Objektliste (17), wobei die statische Objektliste (17) statische Objekte in der Umgebung (7) beschreibt, und - Zuordnen der relevanten statischen Objekte und der dynamischen Objekte zu einer dynamischen Objektliste (18), wobei die dynamische Objektliste (18) potentielle dynamische Objekte in der Umgebung (7) beschreibt.Method for detecting objects (8a to 8d) in an environment (7) of a vehicle (1) with the steps: - Receiving detection data (14) and object data (15) from at least one environment sensor (4, 5, 6), the detection data (14) being measurement results of measurements with the at least one environment sensor (4, 5, 6) in the environment ( 7) describe and wherein the object data (15) describe objects recognized in the detection data (14), - Identification of relevant static objects and dynamic objects in the object data (15), the identification being carried out on the basis of at least one predetermined assignment criterion, - Assignment of the detection data (14) to those object data (15) which are identified as relevant static objects and as dynamic objects, - assigning the detection data (14) not assigned to the relevant static objects and not to the dynamic objects to a static object list (17), the static object list (17) describing static objects in the environment (7), and - Assigning the relevant static objects and the dynamic objects to a dynamic object list (18), the dynamic object list (18) describing potential dynamic objects in the environment (7). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das zumindest eine vorbestimmte Zuordnungskriterium eine Ausrichtung, eine Verdeckung, eine Klassifizierung und/oder einen Bewegungsstatus des durch die Objektdaten (15) beschriebenen Objekts beschreibt.procedure after claim 1 , characterized in that the at least one predetermined assignment criterion describes an orientation, a covering, a classification and/or a movement status of the object described by the object data (15). Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das zumindest eine vorbestimmte Zuordnungskriterium einen Sensortyp des zumindest einen Umfeldsensors (4, 5, 6) und/oder eine Erfassung des durch die Objektdaten (15) beschriebenen Objekts mit dem zumindest einen Umfeldsensor (4, 5, 6) beschreibt.procedure after claim 1 or 2 , characterized in that the at least one predetermined assignment criterion describes a sensor type of the at least one surroundings sensor (4, 5, 6) and/or a detection of the object described by the object data (15) with the at least one surroundings sensor (4, 5, 6). . Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das zumindest eine vorbestimmte Zuordnungskriterium eine Lage des durch die Objektdaten (15) beschriebenen Objekts zu einem zukünftigen Fahrschlauch (20) des Fahrzeugs (1) beschreibt.Method according to one of the preceding claims, characterized in that the at least one predetermined assignment criterion describes a position of the object described by the object data (15) in relation to a future route path (20) of the vehicle (1). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die statische Objektliste (17) auf Grundlage eines statischen Belegungsgitters (12) bestimmt wird, wobei im statischen Belegungsgitter (12) Detektionen (14) von zugeordneten relevanten statischen Objekten fortlaufend unterdrückt werden.Method according to one of the preceding claims, characterized in that the static object list (17) is determined on the basis of a static occupancy grid (12), detections (14) of associated relevant static objects being continuously suppressed in the static occupancy grid (12). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Objektdaten (15) von mehreren Umfeldsensoren (4, 5, 6) empfangen werden und die jeweiligen dynamischen Objekte vor der Zuordnung zu der dynamischen Objektliste (16) fusioniert werden.Method according to one of the preceding claims, characterized in that object data (15) is received from a plurality of environment sensors (4, 5, 6) and the respective dynamic objects are merged before being assigned to the dynamic object list (16). Recheneinrichtung (3) für ein Fahrerassistenzsystem (2) eines Fahrzeugs (1), wobei die Recheneinrichtung (3) zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche eingerichtet ist.Computing device (3) for a driver assistance system (2) of a vehicle (1), wherein the computing device (3) is set up to carry out a method according to one of the preceding claims. Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinrichtung (3) diese veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 6 auszuführen.Computer program, comprising instructions which, when the program is executed by a computing device (3), cause the latter to carry out a method according to one of Claims 1 until 6 to execute. Computerlesbares (Speicher)medium, umfassend Befehle, die bei der Ausführung durch eine Recheneinrichtung (3) diese veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 6 auszuführen.Computer-readable (storage) medium, comprising instructions which, when executed by a computing device (3), cause the latter to use a method according to one of Claims 1 until 6 to execute.
DE102022102000.2A 2022-01-28 2022-01-28 Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium) Pending DE102022102000A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022102000.2A DE102022102000A1 (en) 2022-01-28 2022-01-28 Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022102000.2A DE102022102000A1 (en) 2022-01-28 2022-01-28 Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium)

Publications (1)

Publication Number Publication Date
DE102022102000A1 true DE102022102000A1 (en) 2023-08-03

Family

ID=87160686

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022102000.2A Pending DE102022102000A1 (en) 2022-01-28 2022-01-28 Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium)

Country Status (1)

Country Link
DE (1) DE102022102000A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014223744A1 (en) 2014-11-20 2016-05-25 Conti Temic Microelectronic Gmbh Assistance system for detecting driving obstacles occurring in the vicinity of a vehicle
DE102018127468A1 (en) 2018-11-05 2020-05-07 Valeo Schalter Und Sensoren Gmbh Method for updating a digital environment map, electronic computing device, computer program product, driver assistance system, motor vehicle and environment map update system
DE102019213803A1 (en) 2019-09-11 2021-03-11 Zf Friedrichshafen Ag Adjusting a classification of objects
DE102020112825A1 (en) 2020-05-12 2021-11-18 Bayerische Motoren Werke Aktiengesellschaft Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014223744A1 (en) 2014-11-20 2016-05-25 Conti Temic Microelectronic Gmbh Assistance system for detecting driving obstacles occurring in the vicinity of a vehicle
DE102018127468A1 (en) 2018-11-05 2020-05-07 Valeo Schalter Und Sensoren Gmbh Method for updating a digital environment map, electronic computing device, computer program product, driver assistance system, motor vehicle and environment map update system
DE102019213803A1 (en) 2019-09-11 2021-03-11 Zf Friedrichshafen Ag Adjusting a classification of objects
DE102020112825A1 (en) 2020-05-12 2021-11-18 Bayerische Motoren Werke Aktiengesellschaft Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle

Similar Documents

Publication Publication Date Title
DE102015206144B4 (en) Method and device for safely parking a vehicle
EP3177498B1 (en) Method for generating a map of surroundings of an area of the surroundings of a motor vehicle, driver assistance system and motor vehicle
DE102009006113B4 (en) Device and method for sensor fusion with dynamic objects
EP2991874B1 (en) Provision of an efficient environmental map for a vehicle
EP2888604B1 (en) Method for determining the course of a lane for a vehicle
DE102018218220A1 (en) Control device for a vehicle
DE112017006263T5 (en) Collision avoidance device for a vehicle and collision avoidance method for this
DE102014114827A1 (en) Path planning for evasive steering maneuvers in the presence of a target vehicle and surrounding objects
DE102014114608A1 (en) Path planning for evasive maneuvers using a virtual potential field technique
WO2015010901A1 (en) Efficiently providing occupancy information on the surroundings of a vehicle
DE102020112825A1 (en) Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle
DE102019123483B4 (en) Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level
EP4088224A1 (en) Method for combining a plurality of data sets for generating a current lane model of a road and device for data processing
DE102020114837A1 (en) Computer-implemented method for trajectory planning for a vehicle
DE102013207905A1 (en) A method for efficiently providing occupancy information about portions of the environment of a vehicle
DE102019131667A1 (en) VEHICLE AND METHOD OF PREDICTING A COLLISION
DE102017008569A1 (en) A method of operating a driver assistance system for a motor vehicle using a vector-based and a grid-based environment map and driver assistance system
WO2015010902A1 (en) Efficiently providing occupancy information on the surroundings of a vehicle
DE102020127206A1 (en) PROCESS AND SYSTEM FOR THE JOINT USE OF SENSORS FOR AUTONOMOUS LANE CHANGE
DE102019208507A1 (en) Method for determining the degree of overlap between an object and a lane
DE102020109662A1 (en) Computer-implemented method for trajectory planning for a vehicle
DE102020100166A1 (en) Method for automatically parking a motor vehicle in a perpendicular parking space delimited by an obstacle that can be driven over, parking assistance system and motor vehicle
DE102022102000A1 (en) Method for detecting objects in an environment of a vehicle, distinguishing between static and dynamic objects, computing device, computer program and computer-readable storage (medium)
DE102017105721A1 (en) Method for identifying at least one parking space for a vehicle and parking assistance system of a vehicle
DE102020001532A1 (en) Method for reducing incorrect detection of objects in the vicinity of a vehicle, device for carrying out such a method, and vehicle with such a device

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed