DE102022212874A1 - Method, control device and computer program for avoiding or reducing a collision of an autonomous motor vehicle, and computer-readable storage medium - Google Patents
Method, control device and computer program for avoiding or reducing a collision of an autonomous motor vehicle, and computer-readable storage medium Download PDFInfo
- Publication number
- DE102022212874A1 DE102022212874A1 DE102022212874.5A DE102022212874A DE102022212874A1 DE 102022212874 A1 DE102022212874 A1 DE 102022212874A1 DE 102022212874 A DE102022212874 A DE 102022212874A DE 102022212874 A1 DE102022212874 A1 DE 102022212874A1
- Authority
- DE
- Germany
- Prior art keywords
- objects
- lidar
- motor vehicle
- data
- radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 101
- 238000004590 computer program Methods 0.000 title claims description 12
- 230000004927 fusion Effects 0.000 claims description 136
- 238000001514 detection method Methods 0.000 description 31
- 230000007717 exclusion Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 14
- 239000013598 vector Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 238000005259 measurement Methods 0.000 description 9
- 230000001419 dependent effect Effects 0.000 description 8
- 238000004088 simulation Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- FXNSVEQMUYPYJS-UHFFFAOYSA-N 4-(2-aminoethyl)benzenesulfonamide Chemical compound NCCC1=CC=C(S(N)(=O)=O)C=C1 FXNSVEQMUYPYJS-UHFFFAOYSA-N 0.000 description 5
- 238000007429 general method Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 101100182248 Caenorhabditis elegans lat-2 gene Proteins 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Ein Verfahren zum Vermeiden oder Vermindern einer Kollision eines autonomen Kraftfahrzeugs (20), das auf einer Fahrbahn (32) fährt, mit einem Objekt (50) ist bereitgestellt. Das Verfahren weist auf: Empfangen von Radardaten, die für ein oder mehrere Radarobjekte (38) repräsentativ sind, die in Fahrtrichtung vor dem Kraftfahrzeug (20) liegen; Empfangen von Lidardaten, die für ein oder mehrere Lidarobjekte repräsentativ sind, die in Fahrtrichtung vor dem Kraftfahrzeug (20) liegen; Fusionieren der Radardaten und der Lidardaten zu Sensordaten, die für ein oder mehrere Sensorobjekte repräsentativ sind, die zu den Radarobjekten (38) und/oder den Lidarobjekten korrespondieren; Empfangen von Positionsdaten, die für eine aktuelle Fahrzeugposition des Kraftfahrzeugs (20) repräsentativ sind; Empfangen von Geschwindigkeitsdaten, die für eine aktuelle Geschwindigkeit des Kraftfahrzeugs (20) repräsentativ sind; Ermitteln eines interessierenden Bereichs (60), der sich auf der Fahrbahn (32) in Fahrtrichtung vor dem Kraftfahrzeug (20) befindet, abhängig von den Positionsdaten und/oder den Geschwindigkeitsdaten; Prüfen, ob sich die Sensorobjekte in dem interessierenden Bereich (60) befinden, abhängig von den Sensordaten; und Erzeugen eines Steuersignals für eine Bremseinrichtung (24) des Kraftfahr-zeugs (20), das ein Bremsen des Kraftfahrzeugs (20) mittels der Bremseinrichtung (24) bewirkt, wenn es von der Bremseinrichtung (24) empfangen wird, falls sich eines der Sensorobjekte in dem interessierenden Bereich (60) befindet.A method for avoiding or reducing a collision of an autonomous motor vehicle (20) traveling on a roadway (32) with an object (50) is provided. The method comprises: receiving radar data representative of one or more radar objects (38) located in front of the motor vehicle (20) in the direction of travel; receiving lidar data representative of one or more lidar objects located in front of the motor vehicle (20) in the direction of travel; merging the radar data and the lidar data to form sensor data representative of one or more sensor objects corresponding to the radar objects (38) and/or the lidar objects; receiving position data representative of a current vehicle position of the motor vehicle (20); receiving speed data representative of a current speed of the motor vehicle (20); Determining an area of interest (60) located on the roadway (32) in the direction of travel in front of the motor vehicle (20), depending on the position data and/or the speed data; checking whether the sensor objects are located in the area of interest (60), depending on the sensor data; and generating a control signal for a braking device (24) of the motor vehicle (20), which causes braking of the motor vehicle (20) by means of the braking device (24) when it is received by the braking device (24) if one of the sensor objects is located in the area of interest (60).
Description
Die Erfindung betrifft ein Verfahren, ein Steuergerät und ein Computerprogramm zum Vermeiden oder Vermindern einer Kollision eines autonomen Kraftfahrzeugs, das auf einer Fahrbahn fährt, mit einem Objekt, sowie ein computerlesbares Speichermedium, auf dem das Computerprogramm gespeichert ist.The invention relates to a method, a control device and a computer program for avoiding or reducing a collision of an autonomous motor vehicle traveling on a roadway with an object, as well as a computer-readable storage medium on which the computer program is stored.
Ein automatische Notbremssystem (Advanced Emergency Braking System (AEBS)) dient zur Kollisionsvermeidung oder -minderung bei einem autonomen Kraftfahrzeug. Das autonome Kraftfahrzeug kann beispielsweise ein Transportfahrzeug, beispielsweise ein Personentransportfahrzeug sein. Beispielsweise kann das Kraftfahrzeug ein Massenbeförderungsmittel sein. In diesem Zusammenhang kann das Kraft-fahrzeug beispielsweise als „Group Rapid Transport (GRT)“ vehicle bezeichnet wer-den. Das Kraftfahrzeug kann beispielsweise so konfiguriert sein, dass es bis auf wenige Ausnahmen im Wesentlichen auf der Fahrbahn fährt, wobei die Fahrbahn für das Kraftfahrzeug und andere gleichartige Kraftfahrzeuge, beispielsweise andere GRTs, reserviert sein kann. In diesem Zusammenhang kann die Fahrbahn als „Segregated lane“ bezeichnet werden. Das Kraftfahrzeug kann dementsprechend so konfiguriert sein, dass es keine anderen Fahrbahnen außer den für diese Kraftfahrzeug-arten reservierten Fahrbahnen befährt. Die Ausnahmen können beispielsweise Haltestellen, Parkplätze oder Ladestationen umfassen.An automatic emergency braking system (Advanced Emergency Braking System (AEBS)) is used to avoid or mitigate collisions in an autonomous motor vehicle. The autonomous motor vehicle can, for example, be a transport vehicle, for example a passenger transport vehicle. For example, the motor vehicle can be a means of mass transit. In this context, the motor vehicle can be referred to as a “Group Rapid Transport (GRT)” vehicle, for example. The motor vehicle can, for example, be configured so that, with a few exceptions, it essentially drives on the roadway, whereby the roadway can be reserved for the motor vehicle and other similar motor vehicles, for example other GRTs. In this context, the roadway can be referred to as a “segregated lane”. The motor vehicle can accordingly be configured so that it does not drive on any lanes other than those reserved for these types of motor vehicles. The exceptions can include, for example, bus stops, parking spaces or charging stations.
Ein dem AEBS-System zugrunde liegendes AEBS-Verfahren kann grob in fünf oder sechs Schritte unterteilt werden:
- In einem ersten Schritt werden mittels mindestens eines Sensors, der in dem Kraftfahrzeug angeordnet ist, ein oder mehrere Objekte in Fahrtrichtung vor dem Kraftfahrzeug erfasst. Der Sensor kann beispielsweise ein Radarsensor oder ein Lidarsensor sein. Ferner können das oder die Objekte mittels zwei oder mehr Sensoren erfasst werden, insbesondere mittels eines oder mehreren Radarsensoren oder mittels eines oder mehreren Lidarsensoren. Bei der Erkennung werden insbesondere die Objekte erfasst, die sich im Sichtfeld des entsprechenden Sensors befinden. Mit Hilfe des entsprechenden Sensors werden entsprechende Sensordaten erzeugt, insbesondere Radardaten bzw. Lidardaten. Die Daten können jeweils repräsentativ sein für die Positionen und/oder Geschwindigkeiten der entsprechenden Objekte, wobei die Positionen und/oder Geschwindigkeiten durch kartesische Koordinaten gekennzeichnet sein können.
- In a first step, one or more objects are detected in the direction of travel in front of the motor vehicle by means of at least one sensor arranged in the motor vehicle. The sensor can be a radar sensor or a lidar sensor, for example. Furthermore, the object or objects can be detected by means of two or more sensors, in particular by means of one or more radar sensors or by means of one or more lidar sensors. During detection, in particular the objects that are in the field of view of the corresponding sensor are detected. With the help of the corresponding sensor, corresponding sensor data is generated, in particular radar data or lidar data. The data can each be representative of the positions and/or speeds of the corresponding objects, whereby the positions and/or speeds can be identified by Cartesian coordinates.
In einem optionalen zweiten Schritt, der nur durchgeführt wird, wenn sowohl ein Radarsensor als auch ein Lidarsensor verwendet wird, werden die Radardaten und die Lidardaten zu den Sensordaten fusioniert.In an optional second step, which is only performed if both a radar sensor and a lidar sensor are used, the radar data and the lidar data are merged into the sensor data.
In einem dritten Schritt wird ein interessierender Bereich, auch als Region-Of-Interest (ROI) bezeichnet, ermittelt. Der interessierende Bereich wird so ermittelt, dass er auf der Fahrbahn in Fahrrichtung vor dem Kraftfahrzeug liegt. Ferner kann der interessierende Bereich so ermittelt werden, dass mit hoher Wahrscheinlichkeit ausgeschlossen ist, dass ein Objekt, das sich nicht in dem interessierenden Bereich befindet, eine Gefahr für das Kraftfahrzeug darstellt.In a third step, an area of interest, also known as a region of interest (ROI), is determined. The area of interest is determined so that it is located on the road in the direction of travel in front of the motor vehicle. Furthermore, the area of interest can be determined in such a way that it is highly likely that an object that is not in the area of interest does not pose a danger to the motor vehicle.
In einem vierten Schritt wird anhand der Sensordaten geprüft, ob eines oder mehrere der erfassten Objekte in dem interessierenden Bereich liegen oder nicht. Sollten eines oder mehrere der erfassten Objekte nicht in dem interessierenden Bereich liegen, so können diese Objekte bei der weiteren Abarbeitung des AEBS-Verfahrens ausgeschlossen werden.In a fourth step, the sensor data is used to check whether one or more of the detected objects are in the area of interest or not. If one or more of the detected objects are not in the area of interest, these objects can be excluded from further processing of the AEBS process.
In einem fünften Schritt wird geprüft, ob die Objekte, die in dem dritten Schritt nicht ausgeschlossen werden und die sich dementsprechend in dem interessierenden Bereich befinden, eine Gefahr für das Kraftfahrzeug darstellen. Sollten eines oder mehrere der erfassten Objekte in dem interessierenden Bereich keine Gefahr für das Kraftfahrzeug darstellen, so können diese Objekte bei der weiteren Abarbeitung des AEBS-Verfahrens ausgeschlossen werden.In a fifth step, it is checked whether the objects that were not excluded in the third step and are therefore located in the area of interest pose a danger to the motor vehicle. If one or more of the objects detected in the area of interest do not pose a danger to the motor vehicle, these objects can be excluded during further processing of the AEBS procedure.
In einem sechsten Schritt wird ein Bremsen, in anderen Worten ein Abbremsen, beispielsweise eine Notbremse, des Kraftfahrzeugs derart eingeleitet, dass eine Kollision des Kraftfahrzeugs mit dem Objekt vermieden oder zumindest vermindert wird, wenn das Objekt eine Bedrohung für das Kraftfahrzeug darstellt.In a sixth step, braking, in other words deceleration, for example an emergency brake, of the motor vehicle is initiated in such a way that a collision of the motor vehicle with the object is avoided or at least reduced if the object represents a threat to the motor vehicle.
In dem ersten Schritt kann eine auf den Radardaten basierende Detektion der Objekte gegenüber einer auf Lidardaten basierenden Detektion der Objekte die Vorteile haben, dass eindeutig identifizierte Objekte über die Zeit konstant als solche erkannt werden, dass die Wahrscheinlichkeit, dass die erkannten Objekte real sind, relativ hoch ist und dass eine Geschwindigkeit des Radarsensors und damit des Kraftfahrzeugs anhand der Radardaten ermittelt werden kann. Die auf den Radardaten basierende Detektion kann jedoch auch einen Nachteil gegenüber der auf den Lidardaten basierenden Detektion haben, und zwar dass eine Positionsermittlung und/oder eine Größenermittlung der erkannten Objekte mittels Lidars relativ schlecht ist.In the first step, detection of objects based on radar data can have the advantages over detection of objects based on lidar data that clearly identified objects are consistently recognized as such over time, that the probability that the detected objects are real is relatively high, and that a speed of the radar sensor and thus of the motor vehicle can be determined using the radar data. However, detection based on radar data can also have a disadvantage compared to detection based on lidar data, namely that determining the position and/or size of the detected objects using lidars is relatively poor.
Ein Radarsystem, das einen geeigneten Radarsensor aufweist, wird beispielsweise von der Firma „Conti“ vertrieben, beispielsweise das Model ARS 404-21 oder das Model ARS 408-12, die als standardisierte ARS Schnittstellen verwendet werden können und jeweils in der entsprechenden technischen Dokumentation von Conti beschrieben sind, insbesondere in „Technical Documentation, ARS 404-21 (Entry), ARS 408-21 (Premium)“, Version 1.91, May 18, 2018. Diese Radarsysteme liefern als Ausgaben unter anderem eine Position eines erfassten Objekts, eine Geschwindigkeit des erfassten Objekts, eine Geschwindigkeit des Kraftfahrzeugs und eine Klasse des Kraftfahrzeugs.A radar system having a suitable radar sensor is sold, for example, by the company “Conti”, for example the model ARS 404-21 or the model ARS 408-12, which can be used as standardized ARS interfaces and are each described in the corresponding technical documentation from Conti, in particular in “Technical Documentation, ARS 404-21 (Entry), ARS 408-21 (Premium)”, version 1.91, May 18, 2018. These radar systems provide as outputs, among other things, a position of a detected object, a speed of the detected object, a speed of the motor vehicle and a class of the motor vehicle.
Die auf den Lidardaten basierende Detektion der Objekte kann gegenüber der auf den Radardaten basierenden Detektion der Objekte den Vorteil haben, dass Konturpunktpositionen von Konturpunkten entlang der Konturen der Objekte sehr präzise ermittelt werden können. Die auf den Lidardaten basierende Detektion hat jedoch auch einen Nachteil gegenüber der auf Radardaten basierenden Detektion, und zwar dass eigentlich eindeutig identifizierte Objekte über die Zeit immer wieder als neue Objekte erkannt werden, dass es sein kann, dass kein Rückschluss auf die Geschwindigkeit des Lidarsensors und damit des Kraftfahrzeugs gezogen werden kann und/oder dass Objektpositionen, Objektausmaße und/oder Objektorientierungen von erkannten Objekten relativ schlecht ermittelt werden können.The detection of objects based on lidar data can have the advantage over detection of objects based on radar data that contour point positions of contour points along the contours of the objects can be determined very precisely. However, detection based on lidar data also has a disadvantage compared to detection based on radar data, namely that objects that are actually clearly identified are repeatedly recognized as new objects over time, that it may be that no conclusion can be drawn about the speed of the lidar sensor and thus of the motor vehicle and/or that object positions, object dimensions and/or object orientations of recognized objects can be determined relatively poorly.
Ein Lidarsystem, das einen geeigneten Lidarsensor aufweist, wird beispielsweise von der Firma „ibeo automotive“ vertrieben, beispielsweise aus der Reihe „LUX“, das in der entsprechenden technischen Dokumentation von ibeo beschrieben ist, insbesondere in „Interface Specification for ibeo LUX, ibeo LUX systems and ibeo Evaluation Suite“, Version 1.48.2, Juli 28, 2017, erhältlich unter www.ibeo-as.com. Dieses Lidarsystem liefert als Ausgaben eine Position eines erfassten Objekts, eine Geschwindigkeit des erfassten Objekts, eine Geschwindigkeit des Kraftfahrzeugs und eine Klasse des Kraftfahrzeugs.A lidar system comprising a suitable lidar sensor is, for example, sold by the company “ibeo automotive”, for example from the “LUX” series, which is described in the corresponding technical documentation from ibeo, in particular in “Interface Specification for ibeo LUX, ibeo LUX systems and ibeo Evaluation Suite”, version 1.48.2, July 28, 2017, available at www.ibeo-as.com. This lidar system provides as outputs a position of a detected object, a speed of the detected object, a speed of the motor vehicle and a class of the motor vehicle.
Es ist eine Aufgabe der Erfindung, ein Verfahren, ein Steuergerät und ein Computerprogramm zum Vermeiden oder Vermindern einer Kollision eines autonomen Kraftfahrzeugs, das auf einer Fahrbahn fährt, mit einem Objekt bereitzustellen, die ermöglichen, die Nachteile der auf den Radardaten basierenden Detektion und die Nachteile der auf den Lidardaten basierenden Detektion zumindest teilweise zu vermeiden und/oder die Vorteile der auf den Radardaten basierenden Detektion und die Vorteile der auf den Lidardaten basierenden Detektion zumindest teilweise zu nutzen. Außerdem ist es eine Aufgabe der Erfindung, ein computerlesbares Speichermedium bereitzustellen, auf dem das Computerprogramm gespeichert ist.It is an object of the invention to provide a method, a control device and a computer program for avoiding or reducing a collision of an autonomous motor vehicle traveling on a roadway with an object, which make it possible to at least partially avoid the disadvantages of detection based on radar data and the disadvantages of detection based on lidar data and/or to at least partially utilize the advantages of detection based on radar data and the advantages of detection based on lidar data. It is also an object of the invention to provide a computer-readable storage medium on which the computer program is stored.
Diese Aufgaben werden durch die Gegenstände der unabhängigen Ansprüche gelöst. Weitere Ausführungsformen der Erfindung ergeben sich aus den abhängigen Ansprüchen und aus der folgenden Beschreibung.These objects are achieved by the subject matter of the independent claims. Further embodiments of the invention emerge from the dependent claims and from the following description.
Ein Aspekt der Erfindung betrifft ein Verfahren zum Vermeiden oder Vermindern einer Kollision eines autonomen Kraftfahrzeugs, das auf einer Fahrbahn fährt, mit einem Objekt, das Verfahren aufweisend: Empfangen von Radardaten, die für ein oder mehrere Radarobjekte repräsentativ sind, die in Fahrtrichtung vor dem Kraftfahrzeug liegen; Empfangen von Lidardaten, die für ein oder mehrere Lidarobjekte repräsentativ sind, die in Fahrtrichtung vor dem Kraftfahrzeug liegen; Fusionieren der Radardaten und der Lidardaten zu Sensordaten, die für ein oder mehrere Sensorobjekte repräsentativ sind, die zu den Radarobjekten und/oder den Lidarobjekten korrespondieren; Empfangen von Positionsdaten, die für eine aktuelle Fahrzeugposition des Kraftfahrzeugs repräsentativ sind; Empfangen von Geschwindigkeitsdaten, die für eine aktuelle Geschwindigkeit des Kraftfahrzeugs repräsentativ sind; Ermitteln eines interessierenden Bereichs, der sich auf der Fahrbahn in Fahrtrichtung vor dem Kraftfahrzeug befindet, abhängig von den Positionsdaten und/oder den Geschwindigkeitsdaten; Prüfen, ob sich die Sensorobjekte in dem interessierenden Bereich befinden, abhängig von den Sensordaten; und Erzeugen eines Steuersignals für eine Bremseinrichtung des Kraftfahrzeugs, das ein Bremsen des Kraftfahrzeugs mittels der Bremseinrichtung bewirkt, wenn es von der Bremseinrichtung empfangen wird, falls sich eines der Sensorobjekte in dem interessierenden Bereich befindet.One aspect of the invention relates to a method for avoiding or reducing a collision of an autonomous motor vehicle traveling on a roadway with an object, the method comprising: receiving radar data representative of one or more radar objects located in front of the motor vehicle in the direction of travel; receiving lidar data representative of one or more lidar objects located in front of the motor vehicle in the direction of travel; merging the radar data and the lidar data into sensor data representative of one or more sensor objects corresponding to the radar objects and/or the lidar objects; receiving position data representative of a current vehicle position of the motor vehicle; receiving speed data representative of a current speed of the motor vehicle; determining an area of interest located on the roadway in front of the motor vehicle in the direction of travel, depending on the position data and/or the speed data; checking whether the sensor objects are located in the area of interest, depending on the sensor data; and generating a control signal for a braking device of the motor vehicle, which, when received by the braking device, causes braking of the motor vehicle if one of the sensor objects is located in the region of interest.
Ein Aspekt der Erfindung betrifft ein Steuergerät zum Vermeiden oder Vermindern der Kollision des autonomen Kraftfahrzeugs, das auf der Fahrbahn fährt, mit dem Objekt, das Steuergerät aufweisend: eine Speichereinheit zum Speichern der Radardaten, der Lidardaten, der Positionsdaten, der Geschwindigkeitsdaten und der Sensordaten; und einen Prozessor, der dazu konfiguriert ist, das vorstehend und nachfolgend erläuterte Verfahren abzuarbeiten. Das Steuergerät kann beispielsweise in dem Kraftfahrzeug angeordnet sein. Das Steuergerät kann zum Abrufen und/oder Empfangen der Radardaten, der Lidardaten, der Positionsdaten, der Geschwindigkeitsdaten und/oder der Sensordaten kommunikativ mit einer externen Einheit gekoppelt sein, beispielsweise über das Internet mit einem Server, auf dem die entsprechenden Daten gespeichert sind.One aspect of the invention relates to a control device for avoiding or reducing the collision of the autonomous motor vehicle driving on the road with the object, the control device comprising: a storage unit for storing the radar data, the lidar data, the position data, the speed data and the sensor data; and a processor that is configured to process the method explained above and below. The control device can be arranged in the motor vehicle, for example. The control device can be communicatively coupled to an external unit for retrieving and/or receiving the radar data, the lidar data, the position data, the speed data and/or the sensor data, for example via the Internet with a server on which the corresponding data is stored.
Ein Aspekt der Erfindung betrifft ein Computerprogramm zum Vermeiden oder Vermindern der Kollision des autonomen Kraftfahrzeugs, das auf der Fahrbahn fährt, mit dem Objekt, wobei das Computerprogramm Instruktionen aufweist, die bewirken, dass das vorstehende genannte Verfahren abgearbeitet wird, wenn sie von dem Steuergerät ausgeführt werden.One aspect of the invention relates to a computer program for avoiding or reducing the collision of the autonomous motor vehicle traveling on the roadway with the object, wherein the computer program has instructions which cause the above-mentioned method to be processed when they are executed by the control device.
Ein Aspekt der Erfindung betrifft ein computerlesbares Medium, auf dem das Computerprogramm gespeichert ist.One aspect of the invention relates to a computer-readable medium on which the computer program is stored.
Die auf den Radardaten basierende Detektion der Objekte hat gegenüber einer auf Lidardaten basierenden Detektion der Objekte die Vorteile, dass eindeutig identifizierte Objekte über die Zeit konstant als solche erkannt werden, dass die Wahrscheinlichkeit, dass die erkannten Objekte real sind, relativ hoch ist und dass eine Geschwindigkeit des Radarsensors und damit des Kraftfahrzeugs anhand der Radardaten ermittelt werden kann. Die auf den Radardaten basierende Detektion hat jedoch auch einen Nachteil gegenüber der auf Lidardaten basierenden Detektion, und zwar dass eine Positionsermittlung und/oder eine Größenermittlung der erkannten Objekte relativ schlecht ist.The detection of objects based on radar data has the advantages over detection of objects based on lidar data that clearly identified objects are consistently recognized as such over time, that the probability that the detected objects are real is relatively high and that the speed of the radar sensor and thus of the motor vehicle can be determined using the radar data. However, detection based on radar data also has a disadvantage compared to detection based on lidar data, namely that determining the position and/or size of the detected objects is relatively poor.
Die auf den Lidardaten basierende Detektion der Objekte hat gegenüber der auf den Radardaten basierenden Detektion der Objekte den Vorteil, dass Konturpunkt-positionen von Konturpunkten entlang der Konturen der Objekte sehr präzise ermittelt werden können. Die auf den Lidardaten basierende Detektion hat jedoch auch einen Nachteil gegenüber der auf Radardaten basierenden Detektion, und zwar dass eigentlich eindeutig identifizierte Objekte über die Zeit immer wieder als neue Objekte erkannt werden, dass kein Rückschluss auf die Geschwindigkeit des Lidarsensors und damit des Kraftfahrzeugs gezogen werden kann und dass Objektpositionen, Objektausmaße und Objektorientierungen von erkannten Objekten relativ schlecht erkannt werden.The detection of objects based on lidar data has the advantage over detection of objects based on radar data that contour point positions of contour points along the contours of the objects can be determined very precisely. However, detection based on lidar data also has a disadvantage compared to detection based on radar data, namely that objects that are actually clearly identified are repeatedly recognized as new objects over time, that no conclusions can be drawn about the speed of the lidar sensor and thus of the motor vehicle, and that object positions, object dimensions and object orientations of recognized objects are recognized relatively poorly.
Das Fusionieren der Radardaten und der Lidardaten zu den Sensordaten ermöglicht, sowohl die Vorteile der radarbasierten Objekterkennung als auch der lidarbasierten Objekterkennung zu nutzen und die jeweiligen Nachteile zu vermeiden.Merging the radar data and the lidar data into the sensor data makes it possible to utilize the advantages of both radar-based object detection and lidar-based object detection and to avoid the respective disadvantages.
Das autonome Kraftfahrzeug kann beispielsweise ein Transportfahrzeug, beispielsweise ein Personentransportfahrzeug sein. Beispielsweise kann das Kraftfahrzeug ein Massenbeförderungsmittel sein. In diesem Zusammenhang kann das Kraftfahrzeug beispielsweise als „Group rapid transport vehicle“ bezeichnet werden. Das Kraftfahrzeug kann beispielsweise so konfiguriert sein, dass es bis auf wenige Ausnahmen im Wesentlichen auf der Fahrbahn fährt, wobei die Fahrbahn für das Kraftfahrzeug und andere gleichartige Kraftfahrzeuge, beispielsweise andere GRTs, reserviert sein kann. In diesem Zusammenhang kann die Fahrbahn als „Segregated lane“ bezeichnet werden. Das Kraftfahrzeug kann dementsprechend so konfiguriert sein, dass es keine anderen Fahrbahnen außer den für diese Kraftfahrzeugarten reservierten Fahrbahnen befährt. Die Ausnahmen können beispielsweise Haltestellen, Parkplätze oder Ladestationen umfassen.The autonomous motor vehicle may, for example, be a transport vehicle, for example a passenger transport vehicle. For example, the motor vehicle may be a means of mass transportation. In this context, the motor vehicle may, for example, be referred to as a “group rapid transport vehicle”. The motor vehicle may, for example, be configured such that, with a few exceptions, it essentially drives on the roadway, whereby the roadway may be reserved for the motor vehicle and other similar motor vehicles, for example other GRTs. In this context, the roadway may be referred to as a “segregated lane”. The motor vehicle may accordingly be configured such that it does not drive on any other roadways apart from the roadways reserved for these types of motor vehicles. The exceptions may, for example, include stops, parking spaces or charging stations.
Die Fahrbahn kann eine erste Fahrspur für eine erste Fahrtrichtung und eine zweite Fahrspur für eine zweite Fahrtrichtung, die der ersten Fahrtrichtung entgegengesetzt ist, aufweisen. Im Normalfall bewegt sich das Kraftfahrzeug auf einer der beiden Fahrspuren, wobei im Folgenden davon ausgegangen wird, dass sich das Kraftfahrzeug im Normalfall auf der ersten Fahrspur fortbewegt und nur in Sonderfällen von der ersten Fahrspur abweicht.The roadway can have a first lane for a first direction of travel and a second lane for a second direction of travel that is opposite to the first direction of travel. The motor vehicle normally moves in one of the two lanes, whereby it is assumed below that the motor vehicle normally moves in the first lane and only deviates from the first lane in special cases.
Die Radardaten können in Form einer digitalen Radarobjektliste vorliegen, die die Radarobjekte aufweist. Die Lidardaten können in Form einer digitalen Lidarobjektliste vorliegen, die die Lidarobjekte aufweist. Dass die Radardaten und die Lidar-daten zu den Sensordaten fusioniert werden, bedeutet, dass die Radardaten und die Lidardaten zusammengefasst werden, beispielsweise um wechselseitig verifiziert zu werden und/oder wechselseitig ergänzt zu werden. Die Sensordaten können in Form einer Fusionsliste vorliegen, die die Sensorobjekte aufweist, wie weiter unten näher erläutert. Beim Prüfen, ob sich die Sensorobjekte in dem interessierenden Bereich befinden, abhängig von den Sensordaten kann für jedes Sensorobjekt in der Fusionsliste geprüft werden, ob sich das entsprechende Sensorobjekt in dem interessierenden Bereich befindet.The radar data may be in the form of a digital radar object list comprising the radar objects. The lidar data may be in the form of a digital lidar object list comprising the lidar objects. The fact that the radar data and the lidar data are fused to form the sensor data means that the radar data and the lidar data are combined, for example to be mutually verified and/or mutually supplemented. The sensor data may be in the form of a fusion list comprising the sensor objects, as explained in more detail below. When checking whether the sensor objects are located in the area of interest, depending on the sensor data, it may be checked for each sensor object in the fusion list whether the corresponding sensor object is located in the area of interest.
Die Radardaten können von einem Radarsensor erzeugt werden, an das Steuergerät übermittelt werden und von einem Steuergerät des Kraftfahrzeugs empfangen werden. Der Radarsensor kann beispielsweise in dem Kraftfahrzeug an-geordnet sein. Optional können die Radardaten von zwei oder mehr Radarsensoren erzeugt werden, die beispielsweise jeweils in dem Kraftfahrzeug angeordnet sein können. Die Lidardaten können von einem Lidarsensor erzeugt werden, an das Steuergerät übermittelt werden und von dem Steuergerät empfangen werden. Der Lidarsensor kann beispielsweise in dem Kraftfahrzeug angeordnet sein. Optional können die Lidardaten von zwei oder mehr Lidarsensoren erzeugt werden, die beispielsweise jeweils in dem Kraftfahrzeug angeordnet sein können.The radar data can be generated by a radar sensor, transmitted to the control unit, and received by a control unit of the motor vehicle. The radar sensor can be arranged in the motor vehicle, for example. Optionally, the radar data can be generated by two or more radar sensors, each of which can be arranged in the motor vehicle, for example. The lidar data can be generated by a lidar sensor, transmitted to the control unit, and received by the control unit. The lidar sensor can be arranged in the motor vehicle, for example. Optionally, the lidar data can be generated by two or more lidar sensors, each of which can be arranged in the motor vehicle, for example.
Die Positionsdaten, die für die Fahrzeugposition repräsentativ sind, können von einem Positionssensor erzeugt werden, an das Steuergerät übermittelt werden und von dem Steuergerät empfangen werden. Der Positionssensor kann beispielsweise ein GPS-Empfänger sein, der in dem Kraftfahrzeug angeordnet ist. Optional können die Positionsdaten für eine Orientierung des Kraftfahrzeugs repräsentativ sein. Die Orientierung des Kraftfahrzeugs kann beispielsweise dazu verwendet werden, zu ermitteln, auf welcher Fahrspur der Fahrbahn das Kraftfahrzeug aktuell unterwegs ist, wie weiter unten näher erläutert. Gegebenenfalls kann die Orientierung beispielsweise mittels eine Orientierungssensors, eines Magnetsensors, beispielsweise einem Kompass, GPS, und/oder mittels einer inertialen Messeinheit (Inertial Measurement Unit (IMU) erzeugt werden, an das Steuergerät übermittelt werden und von dem Steuergerät empfangen werden.The position data representative of the vehicle position can be generated by a position sensor, transmitted to the control unit and received by the control unit The position sensor can be, for example, a GPS receiver that is arranged in the motor vehicle. Optionally, the position data can be representative of an orientation of the motor vehicle. The orientation of the motor vehicle can be used, for example, to determine which lane of the road the motor vehicle is currently traveling in, as explained in more detail below. If necessary, the orientation can be generated, for example, by means of an orientation sensor, a magnetic sensor, for example a compass, GPS, and/or by means of an inertial measurement unit (Inertial Measurement Unit (IMU), transmitted to the control unit and received by the control unit.
Die Geschwindigkeitsdaten können von einem Geschwindigkeitssensor, der in dem Kraftfahrzeug angeordnet ist, erzeugt werden, an das Steuergerät übertragen werden und von dem Steuergerät empfangen werden. Alternativ können die Geschwindigkeitsdaten von einer Speichereinheit des Kraftfahrzeugs, beispielsweise von einer Speichereinheit einer Fahrzeugsteuerung des Kraftfahrzeugs, abgerufen und von dem Steuergerät empfangen werden.The speed data can be generated by a speed sensor arranged in the motor vehicle, transmitted to the control unit and received by the control unit. Alternatively, the speed data can be retrieved from a storage unit of the motor vehicle, for example from a storage unit of a vehicle control system of the motor vehicle, and received by the control unit.
Der interessierende Bereich kann auch als „Region-Of-Interest“ bezeichnet werden. Der interessierende Bereich kann der Bereich der Fahrbahn sein, den das Kraftfahrzeug voraussichtlich zeitnah überfahren wird. In diesem Fall befindet sich der interessierende Bereich auf derselben Fahrspur der Fahrbahn wie das Kraftfahrzeug. Der interessierende Bereich kann sich jedoch auch auf einer anderen Fahrspur der Fahrbahn befinden, beispielsweise auf einer Fahrspur, die an die Fahrspur angrenzt, auf der das Kraftfahrzeug fährt. Dies kann dazu beitragen, Objekte frühzeitig zu erkennen, die zeitnah eine Gefahr für das Kraftfahrzeug darstellen könnten, beispielsweise wenn sich das Objekt auf der anderen Fahrspur befindet und sich der Fahrspur nähert, auf der das Kraftfahrzeug fährt.The region of interest may also be referred to as a "region of interest." The region of interest may be the area of the roadway that the motor vehicle is expected to travel over in the near future. In this case, the region of interest is in the same lane of the roadway as the motor vehicle. However, the region of interest may also be in a different lane of the roadway, for example, in a lane adjacent to the lane in which the motor vehicle is traveling. This can help to detect objects early that could pose a threat to the motor vehicle in the near future, for example if the object is in the other lane and is approaching the lane in which the motor vehicle is traveling.
Das Steuersignal kann für das Bremsen des Kraftfahrzeugs repräsentativ sein. Insbesondere kann das Steuersignal so konfiguriert sein, dass die Bremseinrichtung in Reaktion auf ein Empfangen des Steuersignals das Abbremsen, insbesondere eine Notbremse, des Kraftfahrzeugs initiiert.The control signal can be representative of the braking of the motor vehicle. In particular, the control signal can be configured such that the braking device initiates braking, in particular an emergency brake, of the motor vehicle in response to receiving the control signal.
Gemäß einer Ausführungsform weist das Verfahren auf: Ermitteln, ob eines oder mehrere der Sensorobjekte, die sich in dem interessierenden Bereich befinden, eine Gefahr für das Kraftfahrzeug darstellen; und Erzeugen des Steuersignals für die Bremseinrichtung des Kraftfahrzeugs nur dann, wenn eines der Sensorobjekte in dem interessierenden eine Gefahr für das Kraftfahrzeug darstellt. Die Sensorobjekte können so klein und/oder leicht sein, dass sie keine Gefahr für das Kraftfahrzeug darstellen. In diesem Fall Können eines oder mehrere der Sensorobjekte beispielsweise Vögel sein, die auf der Fahrbahn sitzen. Alternativ oder zusätzlich kann es sein, dass sich eines oder mehrere der Sensorobjekte so schnell die Fahrbahn kreuzen, dass keine Gefahr für eine Kollision besteht. In diesem Fall können die Sensorobjekte beispielsweise Vögel sein, die über die Fahr-bahn fliegen. Ferner kann eine Wahrscheinlichkeit, dass eines der Sensorobjekte real existiert, so klein sein, dass die Gefahr einer Kollision so klein ist, dass sie ignoriert werden kann. Das Prüfen, ob die Sensorobjekte in dem interessierenden eine Gefahr für das Kraftfahrzeug darstellt, kann somit dazu beitragen, zu verhindern, dass das Kraftfahrzeug unnötig abgebremst wird.According to one embodiment, the method comprises: determining whether one or more of the sensor objects located in the area of interest pose a danger to the motor vehicle; and generating the control signal for the braking device of the motor vehicle only if one of the sensor objects in the area of interest poses a danger to the motor vehicle. The sensor objects can be so small and/or light that they do not pose a danger to the motor vehicle. In this case, one or more of the sensor objects can be, for example, birds sitting on the road. Alternatively or additionally, one or more of the sensor objects can cross the road so quickly that there is no danger of a collision. In this case, the sensor objects can be, for example, birds flying over the road. Furthermore, the probability that one of the sensor objects actually exists can be so small that the risk of a collision is so small that it can be ignored. Checking whether the sensor objects in the area of interest pose a danger to the motor vehicle can thus help to prevent the motor vehicle from being braked unnecessarily.
Beim Ermitteln, ob eines oder mehrere der Sensorobjekte, die sich in dem interessierenden Bereich befinden, eine Gefahr für das Kraftfahrzeug darstellen, kann für jedes Sensorobjekt in der Fusionsliste geprüft werden, ob das entsprechen-de Sensorobjekt eine Gefahr für das Kraftfahrzeug darstellt.When determining whether one or more of the sensor objects located in the area of interest pose a danger to the motor vehicle, it can be checked for each sensor object in the fusion list whether the corresponding sensor object poses a danger to the motor vehicle.
Gemäß einer Ausführungsform die Sensorobjekte klassifiziert sind in Nur-Radarobjekte, deren entsprechende Radarobjekte zu keinen der Lidarobjekte korrespondieren, in Nur-Lidarobjekte, deren entsprechenden Lidarobjekte zu keinen der Radarobjekte korrespondieren und/oder in Fusionsobjekte, deren Radarobjekte jeweils zu mindestens einem der Lidarobjekte korrespondieren. In anderen Worten können die Sensorobjekte in Nur-Radarobjekte, Nur-Lidarobjekte und Fusionsobjekte unterteilt sein, wobei zu den Nur-Radarobjekten keine entsprechenden Lidarobjekte gefunden wurden, zu den Nur-Lidarobjekten keine entsprechenden Lidarobjekte gefunden wurden, und zu den Fusionsobjekten jeweils ein entsprechendes Radarobjekt und ein entsprechendes Lidarobjekt gefunden wurde. Die Sensordaten können in Form der digitalen Fusionsliste vorliegen, die die Sensorobjekte, insbesondere die Fusionsobjekte, die Nur-Radarobjekte und/oder die Nur-Lidarobjekte aufweist.According to one embodiment, the sensor objects are classified into radar-only objects whose corresponding radar objects do not correspond to any of the lidar objects, into lidar-only objects whose corresponding lidar objects do not correspond to any of the radar objects and/or into fusion objects whose radar objects each correspond to at least one of the lidar objects. In other words, the sensor objects can be divided into radar-only objects, lidar-only objects and fusion objects, wherein no corresponding lidar objects were found for the radar-only objects, no corresponding lidar objects were found for the lidar-only objects, and a corresponding radar object and a corresponding lidar object were found for the fusion objects. The sensor data can be in the form of the digital fusion list, which has the sensor objects, in particular the fusion objects, the radar-only objects and/or the lidar-only objects.
Gemäß einer Ausführungsform wird eine vorgegebene erste Wahrscheinlichkeit, mit der die Fusionsobjekte real existieren, den Fusionsobjekten zugeordnet; eine vorgegebene zweite Wahrscheinlichkeit, mit der die Nur-Radarobjekte real existieren, wird den Nur-Radarobjekten zugeordnet; eine vorgegebene dritte Wahrscheinlichkeit, mit der die Nur-Lidarobjekte real existieren, wird den Nur-Lidarobjekten zugeordnet, wobei die erste Wahrscheinlichkeit größer als die zweite Wahrscheinlichkeit und größer als die dritte Wahrscheinlichkeit ist; und das Ermitteln, ob eines oder mehrere der Sensorobjekte, die sich in dem interessierenden Bereich befinden, eine Gefahr für das Kraftfahrzeug darstellt, erfolgt abhängig von den entsprechenden Wahrscheinlichkeiten. Wenn ein Objekt, das in Fahrtrichtung vor dem Kraftfahrzeug liegt, so-wohl mittels Radars als auch mittels Lidars erkannt wird, so ist die Wahrscheinlichkeit, dass das entsprechende Objekt real existiert und sich real in Fahrtrichtung vor dem Kraftfahrzeug befindet, größer als wenn das Objekt ausschließlich mittels Radars oder ausschließlich mittels Lidars erkannt wird. Diesem Umstand wird mittels Zuordnens der Wahrscheinlichkeiten und insbesondere mittels Zuordnens der größten Wahrscheinlichkeit zu den Fusionsobjekten Rechnung getragen.According to one embodiment, a predetermined first probability with which the fusion objects actually exist is assigned to the fusion objects; a predetermined second probability with which the radar-only objects actually exist is assigned to the radar-only objects; a predetermined third probability with which the lidar-only objects actually exist is assigned to the lidar-only objects, wherein the first probability is greater than the second probability and greater than the third probability; and determining whether one or more of the sensor objects located in the area of interest poses a danger to the motor vehicle is carried out depending on the corresponding probabilities. If an object that is in front of the motor vehicle in the direction of travel is detected by both radar and lidar, the probability that the corresponding object actually exists and is actually in front of the motor vehicle in the direction of travel is greater than if the object is detected exclusively by radar or exclusively by lidar. This circumstance is taken into account by assigning the probabilities and in particular by assigning the highest probability to the fusion objects.
Gemäß einer Ausführungsform weisen die Radardaten Radarzeitinformationen auf, die den Radarobjekten zugeordnet sind und die für einen ersten Zeitpunkt repräsentativ sind, zu dem die Radarobjekte erfasst wurden, die Lidardaten Lidarzeitinformationen aufweisen, die den Lidarobjekten zugeordnet sind und die für einen zweiten Zeitpunkt repräsentativ sind, zu dem die Lidar-daten erfasst wurden, und beim Fusionieren der Radardaten und der Lidardaten, die jüngsten Radardaten und die jüngsten Lidardaten zu den Sensordaten fusioniert werden. Dies trägt dazu bei, dass bei der Fusion der Radardaten und der Liederdaten die Radarobjekte den entsprechenden Lidarobjekten akkurat zugeordnet werden können. Falls beispielsweise ältere Radardaten mit jüngeren Lidardaten fusioniert werden oder umgekehrt, so könnte es beispielsweise sein, dass sich aufgrund einer Bewegung des Kraftfahrzeugs und/oder des entsprechenden Radar- oder Lidarobjekts an einer Objektposition, an der sich zum ersten Zeitpunkt das Radarobjekt befindet, zu dem zweiten Zeitpunkt das Lidarobjekt befindet und dass das Radarobjekt mit dem Lidarobjekt fusioniert wird, obwohl sie unterschiedliche reale Objekte repräsentieren.According to one embodiment, the radar data includes radar time information associated with the radar objects and representative of a first point in time at which the radar objects were detected, the lidar data includes lidar time information associated with the lidar objects and representative of a second point in time at which the lidar data was detected, and when the radar data and the lidar data are fused, the most recent radar data and the most recent lidar data are fused to the sensor data. This helps to ensure that when the radar data and the lidar data are fused, the radar objects can be accurately associated with the corresponding lidar objects. For example, if older radar data is fused with more recent lidar data or vice versa, it could be the case that, due to a movement of the motor vehicle and/or the corresponding radar or lidar object, the lidar object is located at an object position at the first point in time at the second point in time, and that the radar object is fused with the lidar object, even though they represent different real objects.
Gemäß einer Ausführungsform weisen die Lidardaten Konturdaten auf, die für Konturpunkte repräsentativ sind; jedes der Lidarobjekte wird durch einen oder mehrere der Konturpunkte repräsentiert; beim Fusionieren der Radardaten und der Lidardaten zu Sensordaten wird zu jedem der Konturpunkte geprüft, ob der entsprechende Konturpunkt mit einem der Radarobjekte überlappt; falls einer der Konturpunkte mit einem der Radarobjekte überlappt, wird zu dem Konturpunkt und allen anderen Konturpunkten desselben Lidarobjekts ein entsprechendes Fusionsobjekt erzeugt und in den Sensordaten codiert; falls keiner der Konturpunkte eines der Lidarobjekte mit einem der Radarobjekte überlappt, wird zu dem entsprechenden Lidarobjekt ein Nur-Lidarobjekt erzeugt und in den Sensordaten codiert; und zu jedem Radarobjekt, zu dem kein überlappender Konturpunkt gefunden wird, wird ein Nur-Radarobjekt erzeugt und in den Sensordaten codiert.According to one embodiment, the lidar data comprises contour data representative of contour points; each of the lidar objects is represented by one or more of the contour points; when merging the radar data and the lidar data into sensor data, a check is made for each of the contour points to see whether the corresponding contour point overlaps with one of the radar objects; if one of the contour points overlaps with one of the radar objects, a corresponding fusion object is generated for the contour point and all other contour points of the same lidar object and encoded in the sensor data; if none of the contour points of one of the lidar objects overlaps with one of the radar objects, a lidar-only object is generated for the corresponding lidar object and encoded in the sensor data; and for each radar object for which no overlapping contour point is found, a radar-only object is generated and encoded in the sensor data.
Gemäß einer Ausführungsform wird zu jedem Fusionsobjekt geprüft, ob das entsprechende Fusionsobjekt mindestens ein Fusion-Kreuzen-Kriterium erfüllt, das repräsentativ dafür ist, dass das entsprechende Fusionsobjekt die Fahrbahn vor dem Kraftfahrzeug kreuzt, und zusätzlich zu dem Fusionsobjekt ein entsprechendes Kreuzen-Fusionsobjekt in den Sensordaten codiert wird, falls das entsprechende Fusionsobjekt das Fusion-Kreuzen-Kriterium erfüllt. Die Fusionsobjekte können in der Fusionsliste gespeichert sein. Die Fusionsobjekte können als nicht die Fahrbahn kreuzend gekennzeichnet sein, beispielsweise in der Fusionsliste. Wenn zu einem der Fusionsobjekte das entsprechende Kreuzen-Fusionsobjekt gefunden wird, so kann das Kreuzen-Fusionsobjekt zusätzlich zu dem entsprechenden Fusionsobjekt in der Fusionsliste gespeichert werden.According to one embodiment, for each fusion object, it is checked whether the corresponding fusion object satisfies at least one fusion crossing criterion that is representative of the fact that the corresponding fusion object crosses the road in front of the motor vehicle, and in addition to the fusion object, a corresponding crossing fusion object is encoded in the sensor data if the corresponding fusion object satisfies the fusion crossing criterion. The fusion objects can be stored in the fusion list. The fusion objects can be marked as not crossing the road, for example in the fusion list. If the corresponding crossing fusion object is found for one of the fusion objects, the crossing fusion object can be stored in the fusion list in addition to the corresponding fusion object.
Optional kann geprüft werden, ob das entsprechende Fusionsobjekt zwei oder mehr Fusion-Kreuzen-Kriterien erfüllt, die jeweils repräsentativ dafür sind, dass das entsprechende Fusionsobjekt die Fahrbahn vor dem Kraftfahrzeug kreuzt. In diesem Fall kann das Kreuzen-Fusionsobjekt zusätzlich zu dem entsprechenden Fusionsobjekt in den Sensordaten codiert werden, falls das entsprechende Fusionsobjekt ein, zwei oder mehr der Fusion-Kreuzen-Kriterien erfüllt.Optionally, it can be checked whether the corresponding fusion object satisfies two or more fusion crossing criteria, each of which is representative of the corresponding fusion object crossing the roadway in front of the motor vehicle. In this case, the crossing fusion object can be encoded in the sensor data in addition to the corresponding fusion object if the corresponding fusion object satisfies one, two or more of the fusion crossing criteria.
Das bzw. die zu prüfenden Fusion-Kreuzen-Kriterien können beispielsweise aus einer Gruppe stammen, die Gruppe aufweisend: das entsprechende Lidarobjekt ist relevant; das entsprechende Lidarobjekt hat ein Alter, das größer als ein vorgegebener Altersschwellenwert ist; eine laterale Geschwindigkeit des entsprechenden Lidarobjekts ist größer als ein vorgegebener Lidar-Lateralgeschwindigkeitsschwellenwert; alle Konturpunkte, die zu dem entsprechenden Lidarobjekt gehören, überlappen mit keinem sich bewegenden Radarobjekt; eine Existenzwahrscheinlichkeit des entsprechenden Radarobjekts ist größer als ein vorgegebener Radarobjekt-Existenzschwellenwert; eine laterale Geschwindigkeit des entsprechenden Radarobjekts ist größer als ein vorgegebener Radar-Lateralgeschwindigkeitsschwellenwert; eine longitudinale Geschwindigkeit des entsprechenden Radarobjekts ist kleiner als ein vorgegebener Radar-Longitudinalgeschwindigkeitsschwellenwert; das entsprechende Radarobjekt ist nicht stationär.The fusion crossing criterion(s) to be checked may, for example, come from a group comprising: the corresponding lidar object is relevant; the corresponding lidar object has an age greater than a predefined age threshold; a lateral velocity of the corresponding lidar object is greater than a predefined lidar lateral velocity threshold; all contour points belonging to the corresponding lidar object do not overlap with any moving radar object; an existence probability of the corresponding radar object is greater than a predefined radar object existence threshold; a lateral velocity of the corresponding radar object is greater than a predefined radar lateral velocity threshold; a longitudinal velocity of the corresponding radar object is less than a predefined radar longitudinal velocity threshold; the corresponding radar object is not stationary.
Das Alter des Lidarobjekts bezieht sich darauf, in wie vielen Lidardaten, die aufeinanderfolgend unmittelbar vor den aktuellen Lidardaten erfasst wurden, das entsprechende Lidarobjekt bereits enthalten ist. In anderen Worten bezieht sich das Alter des Lidarobjekts darauf, in wie vielen Lidarobjektlisten, die aufeinanderfolgend unmittelbar vor der aktuellen Lidarobjektliste erstellt wurden, das entsprechende Lidarobjekt bereits enthalten ist. In je mehr der Lidardaten bzw. Lidarobjektlisten das entsprechende Lidarobjekt enthalten ist, desto älter ist das entsprechende Lidarobjekt.The age of the lidar object refers to how many lidar data that were acquired consecutively immediately before the current lidar data already contain the corresponding lidar object. In other words, the age of the lidar object refers to how many lidar object lists that were created consecutively immediately before the current lidar object list already contain the corresponding lidar object is already included. The more lidar data or lidar object lists the corresponding lidar object is included in, the older the corresponding lidar object is.
Die Existenzwahrscheinlichkeit des Radarobjekts kann beispielsweise abhängig von einem Alter des Radarobjekts ermittelt werden. Das Alter des Radarobjekts kann beispielsweise korrespondierend zu dem Alter des Lidarobjekts ermittelt werden. Die Existenzwahrscheinlichkeit des Radarobjekts kann beispielsweise unabhängig von dem Alter des Radarobjekts ermittelt werden. Beispielsweise kann die Existenzwahrscheinlichkeit des Radarobjekts von dem verwendeten Radarsystem vorgegeben werden, beispielsweise von dem einleitend erwähnten Radarsystem der Firma Conti.The probability of existence of the radar object can be determined, for example, depending on the age of the radar object. The age of the radar object can be determined, for example, corresponding to the age of the lidar object. The probability of existence of the radar object can be determined, for example, independently of the age of the radar object. For example, the probability of existence of the radar object can be specified by the radar system used, for example by the radar system from Conti mentioned at the beginning.
Gemäß einer Ausführungsform wird zu jedem Nur-Lidarobjekt geprüft, ob das entsprechende Nur-Lidarobjekt mindestens ein Lidar-Kreuzen-Kriterium erfüllt, das repräsentativ dafür ist, dass das entsprechende Nur-Lidarobjekt die Fahrbahn vor dem Kraftfahrzeug kreuzt, und zusätzlich zu dem Nur-Lidarobjekt wird ein entsprechendes Kreuzen-Nur-Lidarobjekt in den Sensordaten codiert, falls das entsprechende Nur-Lidarobjekt das Lidar-Kreuzen-Kriterium erfüllt. Die Nur-Lidarobjekte können in der Fusionsliste gespeichert sein. Die Nur-Lidarobjekte können als nicht die Fahrbahn kreuzend gekennzeichnet sein, beispielsweise in der Fusionsliste. Wenn zu einem der Nur-Lidarobjekte das entsprechende Lidar-Kreuzen-Fusionsobjekt gefunden wird, so kann das Lidar-Kreuzen-Fusionsobjekt zusätzlich zu dem entsprechenden Nur-Lidarobjekt in der Fusionsliste gespeichert werden.According to one embodiment, for each lidar-only object, it is checked whether the corresponding lidar-only object satisfies at least one lidar crossing criterion that is representative of the fact that the corresponding lidar-only object crosses the road in front of the motor vehicle, and in addition to the lidar-only object, a corresponding crossing lidar-only object is encoded in the sensor data if the corresponding lidar-only object satisfies the lidar crossing criterion. The lidar-only objects can be stored in the fusion list. The lidar-only objects can be marked as not crossing the road, for example in the fusion list. If the corresponding lidar crossing fusion object is found for one of the lidar-only objects, the lidar crossing fusion object can be stored in the fusion list in addition to the corresponding lidar-only object.
Optional kann geprüft werden, ob das entsprechende Nur-Lidarobjekt zwei oder mehr Lidar-Kreuzen-Kriterien erfüllt, die jeweils repräsentativ dafür sind, dass das entsprechende Nur-Lidarobjekt die Fahrbahn vor dem Kraftfahrzeug kreuzt. In diesem Fall kann das Kreuzen-Nur-Lidarobjekt zusätzlich zu dem entsprechenden Nur-Lidarobjekt in den Sensordaten codiert werden, falls das entsprechende Nur-Lidarobjekt ein, zwei oder mehr der Lidar-Kreuzen-Kriterien erfüllt.Optionally, it may be checked whether the corresponding lidar-only object satisfies two or more lidar crossing criteria, each of which is representative of the corresponding lidar-only object crossing the roadway in front of the motor vehicle. In this case, the crossing lidar-only object may be encoded in the sensor data in addition to the corresponding lidar-only object if the corresponding lidar-only object satisfies one, two or more of the lidar crossing criteria.
Das bzw. die zu prüfenden Lidar-Kreuzen-Kriterien können beispielsweise aus einer Gruppe stammen, die Gruppe aufweisend: ein Alter des Nur-Lidarobjekts ist größer als ein vorgegebener Lidaraltersschwellenwert; ein Abstand des Nur-Lidarobjekts zu dem Kraftfahrzeug ist größer als ein vorgegebener Lidarabstand-schwellenwert; eine Länge des Nur-Lidarobjekts ist kleiner als ein vorgegebener Längenschwellenwert existiert); eine Breite des Nur-Lidarobjekts ist kleiner als ein vorgegebener Breitenschwellenwert existiert); eine laterale Geschwindigkeit des Nur-Lidarobjekts ist größer als ein vorgegebener Lidarlateralgeschwindigkeitsschwellenwert; eine relative laterale Geschwindigkeit des Nur-Lidarobjekts ist kleiner als ein vorgegebener Lidarrelativlateralgeschwindigkeits-schwellenwert; eine Anzahl von Konturpunkten, die zu dem entsprechenden Nur-Lidarobjekt gehören, ist kleiner als ein vorgegebener Nur-Lidar-Anzahlschwellenwert existiert).The lidar crossing criteria(s) to be checked may, for example, come from a group comprising: an age of the lidar-only object is greater than a predefined lidar age threshold; a distance of the lidar-only object to the motor vehicle is greater than a predefined lidar distance threshold; a length of the lidar-only object is less than a predefined length threshold; a width of the lidar-only object is less than a predefined width threshold; a lateral velocity of the lidar-only object is greater than a predefined lidar lateral velocity threshold; a relative lateral velocity of the lidar-only object is less than a predefined lidar relative lateral velocity threshold; a number of contour points belonging to the corresponding lidar-only object is less than a predefined lidar-only number threshold).
Die Lebensdauer eines der Nur-Lidarobjekte kann anhand historischer Lidar-daten ermittelt werden, wobei geprüft wird, ob das entsprechende Lidarobjekt bereits in früher erfassten Lidardaten codiert ist, insbesondere in früheren Lidardaten, die aufeinanderfolgend und direkt vor den aktuellen Lidardaten erfasst wurden. Dabei kann die Lebensdauer als umso länger angenommen werden, in je mehr früheren Lidardaten das entsprechende Lidarobjekt codiert ist. In anderen Worten kann die Lebensdauer eines der Nur-Lidarobjekte als umso länger angenommen werden, in je mehr früheren Lidarobjektlisten das entsprechende Lidarobjekt enthalten ist.The lifetime of one of the lidar-only objects can be determined from historical lidar data by checking whether the corresponding lidar object is already encoded in previously acquired lidar data, in particular in previous lidar data that was acquired consecutively and immediately before the current lidar data. The lifetime can be assumed to be longer the more previous lidar data the corresponding lidar object is encoded in. In other words, the lifetime of one of the lidar-only objects can be assumed to be longer the more previous lidar object lists the corresponding lidar object is included in.
Gemäß einer Ausführungsform wird zu jedem Fusionsobjekt geprüft, ob das entsprechende Fusionsobjekt ein oder mehrere Relevanzkriterien erfüllt, das entsprechende Fusionsobjekt wird als relevant gekennzeichnet, wenn das entsprechende Fusionsobjekt ein oder mehrere der Relevanzkriterien erfüllt, und das entsprechende Fusionsobjekt wird als nicht relevant gekennzeichnet, wenn das entsprechende Fusionsobjekt keines der Relevanzkriterien erfüllt. Das bzw. die zu prüfenden Relevanzkriterien können beispielsweise aus einer Gruppe stammen, die Gruppe aufweisend eine erste Untergruppe, die sich auf Nur-Radarobjekte bezieht, und eine zweite Untergruppe, die sich auf Nur-Lidarobjekte und Fusionsobjekte bezieht.According to one embodiment, for each fusion object, it is checked whether the corresponding fusion object meets one or more relevance criteria, the corresponding fusion object is marked as relevant if the corresponding fusion object meets one or more of the relevance criteria, and the corresponding fusion object is marked as not relevant if the corresponding fusion object does not meet any of the relevance criteria. The relevance criteria(s) to be checked can, for example, come from a group, the group having a first subgroup that relates to radar-only objects and a second subgroup that relates to lidar-only objects and fusion objects.
Die erste Untergruppe kann aufweisen: eine Existenzwahrscheinlichkeit des entsprechenden Radarobjekts ist größer als ein vorgegebener Existenzschwellen-wert; das entsprechende Radarobjekt ist in der aktuellen Radarobjektliste enthalten; eine Querschnittsfläche des entsprechenden Radarobjekts ist größer als ein vorgegebener Querschnittsschwellenwert!); das entsprechende Radarobjekt hat stabile dynamische Eigenschaften; das entsprechende Radarobjekt gehört keiner Klasse an, die große Objekte, wie beispiels-weise LKWs oder Transporter, umfasst; das entsprechende Radarobjekt ist stationär kein entsprechendes Lidarobjekt gibt).The first subgroup can have: a probability of existence of the corresponding radar object is greater than a predefined existence threshold; the corresponding radar object is included in the current radar object list; a cross-sectional area of the corresponding radar object is greater than a predefined cross-sectional threshold!); the corresponding radar object has stable dynamic properties; the corresponding radar object does not belong to a class that includes large objects, such as trucks or vans; the corresponding radar object is stationary (there is no corresponding lidar object).
Die zweite Untergruppe kann aufweisen: eine Anzahl von Konturpunkten, die zu dem entsprechenden Nur-Lidarobjekt gehören, ist größer als ein vorgegebener Anzahlschwellenwert; eine Dichte von Konturpunkten, die zu dem entsprechenden Nur-Lidarobjekt gehören, ist größer als ein vorgegebener Dichteschwellenwert; ein Alter des Nur-Lidarobjekts ist größer als ein vorgegebener Altersschwellenwert; es gibt mehr als einen Konturpunkt zu dem entsprechenden Nur-Lidarobjekt.The second subgroup may comprise: a number of contour points belonging to the corresponding lidar-only object is greater than a predetermined number threshold; a density of contour points belonging to the corresponding lidar-only object is greater than a predetermined density threshold; an age of the lidar-only object is greater than a predetermined density threshold. Lidar object is greater than a given age threshold; there is more than one contour point for the corresponding lidar-only object.
Das Alter eines der Nur-Lidarobjekte kann anhand historischer Lidardaten er-mittelt werden, wobei geprüft wird, ob das entsprechende Lidarobjekt bereits in früher erfassten Lidardaten codiert ist, insbesondere in früheren Lidardaten, die aufeinanderfolgend und direkt vor den aktuellen Lidardaten erfasst wurden. Dabei kann das Alter als umso länger angegeben werden, in je mehr früheren Lidardaten das entsprechende Lidarobjekt codiert ist. In anderen Worten kann das Alter eines der Nur-Lidarobjekte als umso größer angenommen werden, in je mehr früheren Lidarobjektlisten das entsprechende Lidarobjekt enthalten ist.The age of one of the lidar-only objects can be determined from historical lidar data by checking whether the corresponding lidar object is already encoded in previously acquired lidar data, in particular in previous lidar data that was acquired consecutively and directly before the current lidar data. The age can be specified as being longer the more previous lidar data the corresponding lidar object is encoded in. In other words, the age of one of the lidar-only objects can be assumed to be greater the more previous lidar object lists the corresponding lidar object is included in.
Gemäß einer Ausführungsform werden abhängig von den Radardaten Bewegungsrichtungen der Objekte ermittelt, abhängig von den Bewegungsrichtungen werden Orientierungen der entsprechenden Objekte ermittelt, die Radardaten werden so ergänzt, dass die Radardaten für die Orientierungen der entsprechenden Objekte repräsentativ sind, und die ergänzten Radardaten werden mit den Lidardaten fusioniert. Normalerweise sind die Radardaten ausschließlich repräsentativ für eine Position und Größe des Objekts. Anhand von Radardaten, die zu unterschiedlichen Zeitpunkten, insbesondere aufeinanderfolgenden Zeitpunkten, erfasst werden, können die Bewegungsrichtungen der Objekte ermittelt werden. Falls die Objekte andere Verkehrsteilnehmer sind, beispielsweise andere Fahrzeuge, so entsprechen die Orientierungen der Objekte deren Bewegungsrichtungen. Die Orientierungen können daher abhängig von den Bewegungsrichtungen beispielsweise ermittelt werden, indem die Orientierungen parallel zu den entsprechenden Bewegungsrichtungen oder identisch zu den entsprechenden Bewegungsrichtungen gewählt werden. Dass das Objekt ein anderer Verkehrsteilnehmer ist, kann beispielsweise daran erkannt werden, dass sich das Objekt auf der Fahrbahn befindet. Alternativ dazu sind Radarsysteme bekannt, die jeweils einen oder mehrere Radar-sensoren und eine entsprechende Auswertelogik aufweisen, wobei die Auswertelogik eine Objekterkennung aufweist, die in der Lage ist, zu erkennen, ob eines oder mehrere der Radarobjekte andere Verkehrsteilnehmer sind oder nicht und/oder um welche(n) Verkehrsteilnehmer es sich bei dem bzw. den Objekt(en) handelt. Die Radardaten können beispielsweise ergänzt werden, indem in den Radardaten den Objekten die entsprechenden Orientierungen zugeordnet werden.According to one embodiment, movement directions of the objects are determined depending on the radar data, orientations of the corresponding objects are determined depending on the movement directions, the radar data are supplemented such that the radar data are representative of the orientations of the corresponding objects, and the supplemented radar data are merged with the lidar data. Normally, the radar data is exclusively representative of a position and size of the object. The movement directions of the objects can be determined using radar data that is recorded at different times, in particular successive times. If the objects are other road users, for example other vehicles, the orientations of the objects correspond to their movement directions. The orientations can therefore be determined depending on the movement directions, for example by selecting the orientations parallel to the corresponding movement directions or identical to the corresponding movement directions. The fact that the object is another road user can be recognized, for example, by the fact that the object is on the road. Alternatively, radar systems are known which each have one or more radar sensors and a corresponding evaluation logic, whereby the evaluation logic has an object recognition system which is able to recognize whether one or more of the radar objects are other road users or not and/or which road user(s) the object(s) are. The radar data can be supplemented, for example, by assigning the corresponding orientations to the objects in the radar data.
Gemäß einer Ausführungsform sind die Radardaten für Klassen repräsentativ, zu denen die Radarobjekte gehören, den Klassen von Objekten sind Größen der Radarobjekte zugeordnet, die Radardaten werden so angepasst, dass die Radardaten repräsentativ für die Radarobjekte mit den entsprechenden Größen der Radarobjekte sind, und bei dem Fusionieren der Radardaten mit den Lidardaten werden die angepassten Radardaten mit den Lidardaten fusioniert. Die anhand der Radardaten ermittelbaren Größen der Radarobjekte können relativ ungenau sein, in anderen Worten relativ stark von der Realität abweichen. Das Ermitteln der Größen der Radarobjekte anhand der Klassen, denen die Radarobjekte zugeordnet sind, und das entsprechende Anpassen der Radardaten können dazu beitragen, dass die angepassten Radardaten bezüglich der Größen der Radarobjekt relativ genau sind, in anderen Worten relativ gut zu der Realität passen. Das Ermitteln der Größen der Radarobjekte anhand der Klassen kann somit dazu beitragen, dass die Fusionsdaten, insbesondere die Größen der Radar-objekte und/oder der Fusionsobjekte, besonders gut der Realität entsprechen. Die Klassen können beispielsweise „LKW“, „Transporter“, „Auto“, „Kraftrad“, „Fahrrad“ und/oder „Fußgänger“ umfassen, wobei die diesen Klassen zugeordneten Größen in der Aufzählung von der Klasse „LKW” zu der Klasse „Fußgänger“ kleiner werden.According to one embodiment, the radar data are representative of classes to which the radar objects belong, sizes of the radar objects are assigned to the classes of objects, the radar data are adjusted so that the radar data are representative of the radar objects with the corresponding sizes of the radar objects, and when the radar data is fused with the lidar data, the adjusted radar data is fused with the lidar data. The sizes of the radar objects that can be determined using the radar data can be relatively inaccurate, in other words, deviate relatively strongly from reality. Determining the sizes of the radar objects based on the classes to which the radar objects are assigned and adjusting the radar data accordingly can help ensure that the adjusted radar data are relatively accurate with regard to the sizes of the radar objects, in other words, match reality relatively well. Determining the sizes of the radar objects based on the classes can thus help ensure that the fusion data, in particular the sizes of the radar objects and/or the fusion objects, correspond particularly well to reality. The classes may include, for example, “truck”, “van”, “car”, “motorcycle”, “bicycle” and/or “pedestrian”, whereby the sizes assigned to these classes become smaller in the enumeration from the class “truck” to the class “pedestrian”.
Es ist zu verstehen, dass Merkmale des Verfahrens so wie obenstehend und untenstehend beschrieben auch Merkmale des Steuergeräts, des Computerprogramms und/oder des computerlesbaren Mediums sein können und umgekehrt. Das computerlesbare Medium kann eine Harddisk, ein USB-Speichergerät, ein RAM, ein ROM, ein EPROM oder ein FLASH-Speicher sein. Das computerlesbare Medium kann auch ein Datenkommunikationsnetzwerk, wie beispielsweise das Internet, das den Download eines Programmcodes ermöglicht, sein.It is to be understood that features of the method as described above and below may also be features of the control device, the computer program and/or the computer-readable medium and vice versa. The computer-readable medium may be a hard disk, a USB storage device, a RAM, a ROM, an EPROM or a FLASH memory. The computer-readable medium may also be a data communications network, such as the Internet, which enables the download of a program code.
Im Folgenden werden Ausführungsbeispiele der Erfindung mit Bezug auf die beiliegenden Figuren detailliert beschrieben.
-
1 zeigt ein Ausführungsbeispiel eines autonomen Kraftfahrzeugs. -
2 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines allgemeinen Verfahrens zum Vermeiden oder Vermindern einer Kollision des autonomen Kraftfahrzeugs mit einem Objekt. -
3 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines speziellen Verfahrens zum Vermeiden oder Vermindern einer Kollision des autonomen Kraftfahrzeugs mit dem Objekt. -
4 zeigt ein Display auf dem eine beispielhafte Fahrsituation dargestellt ist. -
5 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines speziellen Verfahrens zum Vermeiden oder Vermindern einer Kollision des autonomen Kraftfahrzeugs mit dem Objekt. -
6 zeigt eine Draufsicht auf eine beispielhafte Fahrsituation, auf das Kraftfahrzeug und auf einen interessierenden Bereich vor dem Kraftfahrzeug. -
7 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum positionsbasierten Ermitteln eines interessierenden Bereichs. -
8 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum Ermitteln, ob sich das Objekt in dem interessierenden Bereich in Fahrrichtung vor dem Kraftfahrzeug befindet. -
9 zeigt ein Fahrzeugmodell des Kraftfahrzeugs zum geschwindigkeitsbasierten Ermitteln des interessierenden Bereichs. -
10 zeigt eine Prinzipskizze zum Erläutern des geschwindigkeitsbasierten Ermittelns des interessierenden Bereichs. -
11 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum geschwindigkeitsbasierten Ermitteln des interessierenden Bereichs. -
12 zeigt ein Beispiel von zwei Fahrlinien für das Kraftfahrzeug. -
13 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum Ermitteln einer Wahrscheinlichkeit, mit der sich das Kraftfahrzeug auf einer Fahrspur einer Fahrbahn befindet. -
14 zeigt ein Diagramm, in dem mehrere beispielhafte Verläufe von Zeitdauern die vergehen, bis das Kraftfahrzeug mit dem Objekt kollidiert, in Abhängigkeit einer Geschwindigkeit des Kraftfahrzeugs dargestellt sind. -
15 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines speziellen Verfahrens zum Vermeiden oder Vermindern der Kollision des autonomen Kraftfahrzeugs mit dem Objekt. -
16 zeigt ein Diagramm, in dem mehrere beispielhafte Längen des interessierenden Bereichs in Abhängigkeit von der Geschwindigkeit des Kraftfahrzeugs dargestellt sind. -
17 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines speziellen Verfahrens zum Vermeiden oder Vermindern der Kollision des autonomen Kraftfahrzeugs mit dem Objekt.
-
1 shows an embodiment of an autonomous motor vehicle. -
2 shows a flowchart of an embodiment of a general method for avoiding or reducing a collision of the autonomous motor vehicle with an object. -
3 shows a flow chart of an embodiment of a special method for avoiding or reducing a collision of the autonomous motor vehicle with the object. -
4 shows a display showing an example driving situation. -
5 shows a flow chart of an embodiment of a special method for avoiding or reducing a collision of the autonomous motor vehicle with the object. -
6 shows a top view of an exemplary driving situation, of the motor vehicle and of an area of interest in front of the motor vehicle. -
7 shows a flow chart of an embodiment of a method for position-based determination of a region of interest. -
8th shows a flow chart of an embodiment of a method for determining whether the object in the area of interest is located in front of the motor vehicle in the direction of travel. -
9 shows a vehicle model of the motor vehicle for speed-based determination of the area of interest. -
10 shows a schematic diagram to explain the speed-based determination of the region of interest. -
11 shows a flow chart of an embodiment of a method for speed-based determination of the region of interest. -
12 shows an example of two driving lines for the motor vehicle. -
13 shows a flow chart of an embodiment of a method for determining a probability with which the motor vehicle is located in a lane of a roadway. -
14 shows a diagram in which several exemplary courses of time periods that pass until the motor vehicle collides with the object are shown as a function of a speed of the motor vehicle. -
15 shows a flow chart of an embodiment of a special method for avoiding or reducing the collision of the autonomous motor vehicle with the object. -
16 shows a diagram in which several exemplary lengths of the region of interest are represented as a function of the speed of the motor vehicle. -
17 shows a flow chart of an embodiment of a special method for avoiding or reducing the collision of the autonomous motor vehicle with the object.
Die in den Figuren verwendeten Bezugszeichen und ihre Bedeutung sind in zusammenfassender Form in der Liste der Bezugszeichen aufgeführt. Grundsätzlich sind identische oder ähnliche Teile mit den gleichen Bezugszeichen versehen.The reference symbols used in the figures and their meaning are listed in summary form in the list of reference symbols. In principle, identical or similar parts are provided with the same reference symbols.
AllgemeinGenerally
Das autonome Kraftfahrzeug 20 kann beispielsweise ein Transportfahrzeug, beispielsweise ein Personentransportfahrzeug sein. Beispielsweise kann das Kraftfahrzeug 20 ein Massenbeförderungsmittel sein. In diesem Zusammenhang kann das Kraftfahrzeug beispielsweise als „Group Rapid Transport vehicle“ (kurz „GRT“) bezeichnet werden.The
Das Kraftfahrzeug 20 kann beispielsweise so konfiguriert sein, dass es bis auf wenige Ausnahmen, in denen besondere Fahrmanöver nötig sind oder zumindest durchgeführt werden, im Wesentlichen auf einer vorgegebenen Fahrbahn 32 (siehe
Die Fahrbahn 32 kann beispielsweise eine erste Fahrspur 34 (siehe
Das Steuergerät 25 kann beispielsweise eine Fahrzeugsteuerung des Kraftfahrzeugs 20 aufweisen oder diese bilden. Das Steuergerät 25 weist eine Speichereinheit 26 zum Speichern von Daten und einen Prozessor 27 zum Verarbeiten der Daten auf. Das Steuergerät 25 kann zum Abrufen und/oder Empfangen von Sensordaten, Positionsdaten, Geschwindigkeitsdaten und/oder weiteren Daten kommunikativ mit einer externen Einheit (nicht gezeigt) gekoppelt sein, beispielsweise über das Internet mit einem Server, auf dem die entsprechenden Daten gespeichert sind.The
Das Steuergerät 22 kann so konfiguriert sein, dass es zum Vermeiden oder Vermindern einer Kollision des Kraftfahrzeugs 20, das auf der Fahrbahn 32 fährt, mit einem Objekt 50 (siehe
Die Zeitschwellenwerte können in Form einer Zeitschwellenwertnachschlagetabelle, in der vorgebebenen Geschwindigkeiten des Kraftfahrzeugs 20 entsprechenden der Zeitschwellenwerte zugeordnet sind, in der Speichereinheit 26 gespeichert sein.The time threshold values may be stored in the
Das Steuergerät 22 kann dazu konfiguriert sein, ein Steuersignal zum Bremsen des Kraftfahrzeugs 20 zu erzeugen, wobei das Steuersignal für das Bremsen des Kraftfahrzeugs 20 repräsentativ ist. Insbesondere kann das Steuersignal so konfiguriert sein, dass die Bremseinrichtung 24 in Reaktion auf ein Empfangen des Steuersignals das Abbremsen des Kraftfahrzeugs 20 initiiert. Die Bremseinrichtung 24 kann eine Hardware sein, die mit dem Steuergerät 22 und mit mechanischen und/oder hydraulischen Bremsen (nicht gezeigt) des Kraftfahrzeugs 20 kommuniziert. Alternativ dazu kann die Bremseinrichtung 24 als Software realisiert sein und von dem Steuergerät 22 abgearbeitet werden.The
Das Steuergerät 22 kann dazu konfiguriert sein, einen interessierenden Bereich 60 (siehe
Das Steuergerät 22 kann dazu konfiguriert sein, den interessierenden Bereich 60 geschwindigkeitsbasiert zu ermitteln. In diesem Zusammenhang dient die Speichereinheit 26 zum Speichern von Sensordaten, Positionsdaten und/oder Geschwindigkeitsdaten, und der Prozessor 27 ist in diesem Zusammenhang dazu konfiguriert, ein Verfahren zum geschwindigkeitsbasierten Ermitteln des interessierenden Bereichs 60 abzuarbeiten.The
Das Steuergerät 22 kann dazu konfiguriert sein, eine Wahrscheinlichkeit, mit der sich das Kraftfahrzeug 20 auf einer der Fahrspuren 34, 36 der Fahrbahn 32 befindet, zu ermitteln. In diesem Zusammenhang dient die Speichereinheit 26 zum Speichern von Positionsdaten und mindestens einer Fahrspurnachschlagetabelle, die der Fahrspur entsprechenden 34, 36 zugeordnet ist und in der Referenzpunkte 94, 96 (siehe
In einem Schritt S2 können Sensordaten empfangen werden. Die Sensordaten sind für das Objekt 50 repräsentativ, das sich in Fahrtrichtung vor dem Kraftfahrzeug 20 befindet. Die Sensordaten können von mindestens einem Sensor (nicht gezeigt) erzeugt werden. Der Sensor kann beispielsweise ein Radar- oder ein Lidarsensor sein. Die Sensordaten können alternativ von zwei oder mehr Sensoren erzeugt werden, wobei die Sensoren beispielsweise mindestens einen Radar- und mindestens einen Lidarsensor aufweisen können. In diesem Fall können die Sensordaten Radardaten bzw. Lidardaten aufweisen, oder die Radardaten und die Lidardaten können zu den Sensordaten fusioniert werden. Die Sensordaten können von dem/den Sensor(en) an das Steuergerät 25 des Kraftfahrzeugs 20, das das Verfahren ausführt, übermittelt werden und von dem Steuergerät 25 empfangen werden.In a step S2, sensor data can be received. The sensor data are representative of the
Die Sensordaten können in Form einer Liste vorliegen, die alle mittels des bzw. den Sensoren erfassten Objekte 50 vor dem Kraftfahrzeug 20 aufweist. Beispielsweise können die Radardaten in Form einer Radarliste vorliegen, in der die mittels Radars erfassten Objekte 50 als Radarobjekte abgespeichert sind. Alternativ oder zusätzlich können die Lidardaten in Form einer Lidarliste vorliegen, in der die mittels Lidars erfassten Objekte 50 als Lidarobjekte abgespeichert sind.The sensor data can be in the form of a list that contains all
In einem optionalen Schritt S4 können die Sensordaten fusioniert werden, insbesondere wenn in dem Schritt S2 die Radardaten und die Sensordaten empfangen werden. Gegebenenfalls können die fusionierten Sensordaten in Form einer Fusionsliste vorliegen, die Fusionsobjekte, Nur-Radarobjekte und/oder Nur-Lidarobjekte aufweisen kann, wie weiter unten näher erläutert.In an optional step S4, the sensor data can be fused, in particular if the radar data and the sensor data are received in step S2. If appropriate, the fused sensor data can be in the form of a fusion list, which can include fusion objects, radar-only objects and/or lidar-only objects, as explained in more detail below.
In einem Schritt S6 kann der interessierende Bereich 60, der sich auf der Fahrbahn 32 in Fahrtrichtung vor dem Kraftfahrzeug 20 befindet, ermittelt werden. Der interessierende Bereich 60 kann beispielsweise abhängig von Positionsdaten, die für eine aktuelle Fahrzeugposition des Kraftfahrzeugs 20 repräsentativ sind, und/oder abhängig von Geschwindigkeitsdaten, die für eine aktuelle Geschwindigkeit des Kraftfahrzeugs 20 repräsentativ sind, ermittelt werden.In a step S6, the region of
Der interessierende Bereich 60 kann auch als „Region-Of-Interest“ (ROI) bezeichnet werden. Der interessierende Bereich 60 kann der Bereich der Fahrbahn 32 sein, den das Kraftfahrzeug 20 voraussichtlich zeitnah überfahren wird. In diesem Fall befindet sich der interessierende Bereich 60 auf derselben Fahrspur 34, 36 der Fahrbahn 32 wie das Kraftfahrzeug 20. Der interessierende Bereich 60 kann sich jedoch auch auf einer anderen Fahrspur 34, 36 der Fahrbahn 32 befinden, beispielsweise auf einer Fahrspur 34, 36, die an die Fahrspur 34, 36 angrenzt, auf der das Kraftfahrzeug 20 fährt.The region of
Die Positionsdaten können von einem Positionssensor (nicht gezeigt) erzeugt werden, an das Steuergerät 25 übermittelt werden und von dem Steuergerät 25 empfangen werden. Der Positionssensor kann in dem Kraftfahrzeug 20 angeordnet sein. Der Positionssensor kann beispielsweise ein GPS-Empfänger sein. Die Positionsdaten können auch für eine Orientierung des Kraftfahrzeugs 20, in anderen Worten für eine Fahrzeugorientierung, repräsentativ sein. Insbesondere können die Positionsdaten Orientierungsdaten aufweisen, die für die Fahrzeugorientierung des Kraftfahrzeugs 20 repräsentativ sind. Die Orientierungsdaten können beispielsweise mittels eines Orientierungssensors, eines Magnetsensors, beispielsweise eines Kompasses, GPS, und/oder mittels einer inertialen Messeinheit (Inertial Measurement Unit (IMU) erzeugt werden, an das Steuergerät übermittelt werden und von dem Steuergerät empfangen werden. Die Fahrzeugorientierung kann beispielsweise als Gierwinkel, beispielsweise als absoluter Gierwinkel, angegeben sein. Der absolute Gierwinkel kann beispielsweise mit Bezug zu einer oder mehreren der Himmelsrichtungen oder in einem proprietären Bezugssystem des Steuergeräts angegeben sein.The position data can be generated by a position sensor (not shown), transmitted to the
Die Geschwindigkeitsdaten können von einem Geschwindigkeitssensor (nicht gezeigt), der in dem Kraftfahrzeug 20 angeordnet ist, erzeugt werden, an das Steuergerät 25 übertragen werden und von dem Steuergerät 25 empfangen werden. Alternativ können die Geschwindigkeitsdaten von der Speichereinheit 26 des Kraftfahrzeugs 20 abgerufen und von dem Steuergerät 25 empfangen werden.The speed data may be generated by a speed sensor (not shown) located in the
In einem Schritt S8 kann geprüft werden, ob sich das Objekt 50 oder ein, zwei oder mehr weitere Objekte 50 in dem interessierenden Bereich 60 befinden, abhängig von den Sensordaten und dem ermittelten interessierenden Bereich 60. Insbesondere kann der Schritt S8 für alle Objekte 50 durchgeführt werden, die in den Sensordaten, den Radardaten und/oder den Lidardaten codiert sind. Zum Überprüfen, ob sich das oder die Objekte 50 in dem interessierenden Bereich 60 befinden, können abhängig von den Sensordaten Objektpositionen der Objekte 50 ermittelt werden, beispielsweise in kartesischen Koordinaten, beispielsweise in einem ersten Koordinatensystem. Zusätzlich kann der interessierende Bereich 60 in kartesischen Koordinaten angegeben werden, beispielsweise ebenfalls in dem ersten Koordinatensystem. Dann kann in dem Schritt S8 anhand der entsprechenden kartesischen Koordinaten einfach überprüft werden, ob sich ein, zwei oder mehr der Objekte 50 in dem interessierenden Bereich 60 befinden oder nicht. Falls die Bedingung des Schritts S8 erfüllt ist, so kann die Bearbeitung in einem optionalen Schritt S10 fortgesetzt werden. Falls Bedingung des Schritts S8 nicht erfüllt ist, so kann die Bearbeitung erneut in dem Schritt S2 fortgesetzt werden.In a step S8, it can be checked whether the
In dem optionalen Schritt S10 kann ermittelt werden, ob eines oder mehrere der Objekte 50, die sich in dem interessierenden Bereich 60 befinden, eine Gefahr für das Kraftfahrzeug 20 darstellen. Beispielsweise können eines oder mehrere der Objekte 50 so klein und/oder leicht sein, dass sie keine Gefahr für das Kraftfahrzeug 20 darstellen. In diesem Fall kann eines der Objekte 50 beispielsweise ein Vogel sein, der auf der Fahrbahn 32 sitzt. Alternativ oder zusätzlich kann es sein, dass eines oder mehrere der Objekte 50 so schnell die Fahrbahn 32 kreuzen, dass keine Gefahr für eine Kollision besteht. In diesem Fall kann eines der Objekte 50 beispielsweise ein Vogel sein, der über die Fahrbahn 32 fliegt. Falls die Bedingung des Schritts S10 erfüllt ist, so kann die Bearbeitung in einem Schritt S12 fortgesetzt werden. Falls Bedingung des Schritts S10 nicht erfüllt ist, so kann die Bearbeitung in erneut in dem Schritt S8 fortgesetzt werden, beispielsweise mit einem anderen der Objekte 50. Alternativ zu dem Durchführen des Schritts S10 kann angenommen werden, dass alle erfassten Objekte 50 in dem interessierenden Bereich 60 eine Gefahr für das Kraftfahrzeug 20 darstellen.In the optional step S10, it can be determined whether one or more of the
In dem Schritt S12 kann das Steuersignal für die Bremseinrichtung 24 des Kraftfahrzeugs 20 erzeugt werden. Falls der optionale Schritt S10 nicht abgearbeitet wird, so wird das Steuersignal erzeugt, wenn sich eines oder mehrere der Objekte 50 in dem interessierenden Bereich 60 befinden. Falls der optionale Schritt S10 abgearbeitet wird, so wird das Steuersignal nur dann erzeugt, wenn eines oder mehrere der Objekte 50 in dem interessierenden Bereich 60 eine Gefahr für das Kraftfahrzeug 20 darstellen. Bei dem Bremsen, in anderen Worten Abbremsen, des Kraftfahrzeugs kann es sich um einen „normalen“ Bremsvorgang, eine Notbremse oder ein Schnellbremse des Kraftfahrzeugs handeln. Bei dem normalen Bremsvorgang kann ein Komfort der Passagiere die höchste Priorität haben. Die Notbremse kann so konfiguriert sein, dass dabei nur kaum oder gar keine Rücksicht auf einen Fahrkomfort genommen wird und lediglich auf ein möglichst schnelles Abbremsen des Kraftfahrzeugs 20 abgestellt wird. Die Schnellbremse kann so konfiguriert sein, dass dabei Rücksicht auf den Fahrkomfort genommen wird und auf das möglichst schnelle Abbremsen des Kraftfahrzeugs 20 abgestellt wird. Ein Bremsweg des Kraftfahrzeugs 20 ist im Normalfall bei der Notbremse kürzer als bei der Schnellbremse, und bei der Schnellbremse kürzer als bei dem normalen Bremsen. Ein Betrag der negativen Beschleunigung bei dem Bremsen kann beispielsweise in einem Bereich liegen von 1 m/s2 bis 10 m/s2, beispielsweise von 2 m/s2 bis 5 m/s2, beispielsweise bei ungefähr 3 m/s2. Die negative Beschleunigung kann bei der Notbremse deutlich höher sein als bei dem normalen Bremsvorgang. Der Betrag der negativen Beschleunigung kann bei der Schnellbremse größer sein als bei dem normalen Bremsvorgang und kleiner als bei der Notbremse. Bei jedem dieser Bremsvorgänge kann bis zu einem Stillstand des Kraftfahrzeugs abgebremst werden.In step S12, the control signal for the
UmschaltlogikSwitching logic
Ein Schritt S20 des speziellen Verfahrens zum Vermeiden oder Vermindern der Kollision des autonomen Kraftfahrzeugs 20 mit dem Objekt 50 kann zu dem Schritt S2 des allgemeinen Verfahrens zum Vermeiden oder Vermindern der Kollision des autonomen Kraftfahrzeugs 20 mit dem Objekt 50 korrespondieren. Ferner kann in dem Schritt S20 eine Verarbeitung der Sensordaten korrespondierend zu dem Schritt S4 durchgeführt werden, insbesondere wenn die Sensordaten die Radardaten und die Lidardaten aufweisen.A step S20 of the special method for avoiding or reducing the collision of the
In einem Schritt S22 können die Positionsdaten empfangen werden, beispielsweise wie vorstehend mit Bezug zu Schritt S6 näher erläutert.In a step S22, the position data can be received, for example as explained in more detail above with reference to step S6.
In einem Schritt S24 können die Geschwindigkeitsdaten empfangen werden, beispielsweise wie vorstehend mit Bezug zu Schritt S6 näher erläutert.In a step S24, the speed data can be received, for example as explained in more detail above with reference to step S6.
In einem Schritt S26 kann geprüft werden, ob ein vorgegebenes Ausschlusskriterium erfüllt ist, das dagegenspricht, den interessierenden Bereich 60 positionsbasiert zu ermitteln, abhängig von den Positionsdaten und/oder den Geschwindigkeitsdaten. In den meisten Fahrsituationen, insbesondere wenn sich das Kraftfahrzeug 20 mit mittlerer oder hoher Geschwindigkeit auf der Fahrbahn 32 fortbewegt und weder ein Stopp noch ein Abbiegen eingeleitet werden, kann die positionsbasierte Ermittlung des interessierenden Bereichs 60 akkuratere Ergebnisse als die geschwindigkeitsbasierte Ermittlung des interessierenden Bereichs 60 liefern. Insbesondere kann der interessierende Bereich 60 in diesen Fahrsituationen durch die positionsbasierte Ermittlung genauer an die Fahrbahn 32, insbesondere die entsprechende Fahrspur 34, 36, angepasst werden, als bei der geschwindigkeitsbasierten Ermittlung. Bei besonderen Fahrmanövern, beispielsweise an Haltestellen, Ladestationen oder in engen Kurven, und/oder bei einer Seitwärtsbewegung („crabwise motion“) des Kraftfahrzeugs 20 kann jedoch die geschwindigkeitsbasierte Ermittlung des interessierenden Bereichs 60 akkuratere Ergebnisse liefern. Daher kann die positionsbasierte Ermittlung des interessierenden Bereichs 60 als Standard vorgegeben werden und nur dann auf die geschwindigkeitsbasierte Ermittlung umgeschaltet werden, wenn das eine oder ein, zwei oder mehr weitere Ausschlusskriterien erfüllt sind, durch die die besonderen Fahrmanöver gekennzeichnet sind.In a step S26, it can be checked whether a predetermined exclusion criterion is met that speaks against determining the region of
Ein erstes der Ausschlusskriterien kann beispielsweise erfüllt sein, wenn sich das Kraftfahrzeug 20 aktuell in einem Bereich befindet, in dem der interessierende Bereich 60 ausschließlich geschwindigkeitsbasiert ermittelt werden soll. Es kann nämlich Bereiche auf und/oder an der Fahrbahn 32 geben, für die bekannt ist, dass das Kraftfahrzeug 20 in diesen Bereichen besondere Fahrmanöver, beispielsweise die Seitwärtsbewegung oder eine enge Kurve, ausführen muss, bei denen die positionsbasierte Bestimmung des interessierenden Bereichs 60 ungeeignet ist. Beispielsweise kann in dem Bereich, in dem der interessierende Bereich 60 ausschließlich geschwindigkeitsbasiert ermittelt werden soll, eine Wahrscheinlichkeit, dass die geschwindigkeitsbasierte Ermittlung des interessierenden Bereichs 60 ein akkurateres Ergebnis liefert als die positionsbasierte Ermittlung des interessierenden Bereichs 60, relativ hoch sein, insbesondere verglichen mit einer Situation in der sich das Kraftfahrzeug aktuell nicht in dem Bereich befindet, in dem der interessierende Bereich 60 ausschließlich geschwindigkeitsbasiert ermittelt werden soll. Beispielsweise kann der Bereich, in dem der interessierende Bereich 60 ausschließlich geschwindigkeitsbasiert ermittelt werden soll, einen Parkplatz, eine Haltestelle oder eine Ladestation für das Kraftfahrzeug 20, oder eine Kreuzung, an der die Fahrbahn 32 eine andere Fahrbahn 32 kreuzt, aufweisen. Die andere Fahrbahn 32 kann ebenfalls für das Kraftfahrzeug 20 oder die anderen gleichartigen Kraftfahrzeuge 20, beispielsweise andere GRTs, reserviert sein. Somit kann die andere Fahrbahn 32 auch eine separierte Fahrbahn 32, insbesondere „segregated lane“ sein. Das Verfahren kann so konfiguriert sein, dass der interessierende Bereich 60 nur dann positionsbasiert ermittelt wird, wenn das erste Ausschlusskriterium nicht erfüllt ist und wenn kein anderes Ausschlusskriterium gegen die positionsbasierte Ermittlung spricht.A first of the exclusion criteria can be met, for example, if the
Das erste Ausschlusskriterium kann beispielsweise erfüllt sein, wenn sich das Kraftfahrzeug 20 aktuell an einer Haltestelle befindet oder der Haltestelle nähert. Wenn sich das Kraftfahrzeug 20 an der Haltestelle befindet oder sich dieser nähert, so kann die Wahrscheinlichkeit, dass die geschwindigkeitsbasierte Ermittlung des interessierenden Bereichs 60 ein akkurateres Ergebnis liefert als die positionsbasierte Ermittlung des interessierenden Bereichs 60 relativ hoch sein, insbesondere verglichen mit einer Situation, in der sich das Kraftfahrzeug 20 aktuell nicht an einer Haltestelle befindet und/oder sich der Haltestelle nicht nähert. Die Haltestelle kann sich neben der Fahrbahn 32 befinden. Die Haltestelle kann dazu dienen, dass ein oder mehrere Passagiere in das Kraftfahrzeug 20 einsteigen und/oder aus dem Kraftfahrzeug 20 aussteigen können. Die Positionsdaten können dafür repräsentativ sein, dass das Kraftfahrzeug an der Haltestelle steht oder sich dieser nähert. In diesem Zusammenhang können die Positionsdaten unabhängig von dem GPS-Empfänger des Kraftfahrzeugs 20 erzeugt werden. Beispielsweise können in diesem Fall die Positionsdaten von einem Sensor erzeugt werden, der an der Haltestelle oder in der Nähe der Haltestelle angeordnet ist und der so dazu konfiguriert ist, das sich der Haltestelle nähernde oder an dieser stehende Kraftfahrzeug 20 zu erkennen. Alternativ dazu kann ein Initiieren und/oder Durchführen der Seitwärtsbewegung repräsentativ dafür sein, dass das Kraftfahrzeug im Bereich der Haltestelle ist oder sich diesem nähert.The first exclusion criterion may be met, for example, if the
Ein zweites Ausschlusskriterium kann beispielsweise erfüllt sein, wenn das Kraftfahrzeug 20 die Seitwärtsbewegung initiiert hat oder bereits durchführt. Insbesondere kann bei der Seitwärtsbewegung die Fahrzeugorientierung, die für die positionsbasierte Ermittlung des interessierenden Bereichs verwendet werden kann, beispielsweise um zu prüfen, auf welcher Fahrspur sich das Kraftfahrzeug befindet, von einer Bewegungsrichtung des Kraftfahrzeugs abweichen, so dass es sein kann, dass die positionsbasierte Ermittlung des interessierenden Bereichs 60 im Falle der Seitwärtsbewegung des Kraftfahrzeugs 20 ungeeignet ist. Das Verfahren kann so konfiguriert sein, dass der interessierende Bereich 60 nur dann positionsbasiert ermittelt wird, wenn das zweite Ausschlusskriterium nicht erfüllt ist und wenn kein anderes Ausschlusskriterium gegen die positionsbasierte Ermittlung spricht.A second exclusion criterion can be met, for example, if the
Abhängig von den Positionsdaten kann eine Wahrscheinlichkeit ermittelt werden, mit der sich das Kraftfahrzeug 20 auf einer Fahrspur 34 der Fahrbahn 32 bewegt. Diese Wahrscheinlichkeit kann ermittelt werden beispielsweise mittels des weiter unten erläuterten Verfahrens zum Ermitteln der Wahrscheinlichkeit, mit der sich das autonome Kraftfahrzeug 20 auf der Fahrspur 34, 36 der Fahrbahn 32 befindet. Ein drittes der Ausschlusskriterien kann erfüllt sein, wenn diese Wahrscheinlichkeit kleiner als ein vorgegebener Wahrscheinlichkeitsschwellenwert ist. Der vorgegebene Wahrscheinlichkeitsschwellenwert kann beispielsweise in einem Bereich liegen von 80 % bis 100 %, beispielsweise von 80 % bis 90 %, beispielsweise bei ungefähr 80 %. Der Wahrscheinlichkeitsschwellenwert kann beispielsweise von einem Hersteller des Kraftfahrzeugs 20 empirisch ermittelt werden und vorgegeben werden, indem der Wahrscheinlichkeitsschwellenwert auf der Speichereinheit 26 des Steuergeräts 25 gespeichert wird.Depending on the position data, a probability can be determined with which the
Wenn die Wahrscheinlichkeit, mit der sich das Kraftfahrzeug 20 auf der Fahrspuren 34, 36 der Fahrbahn 32 bewegt, kleiner als der vorgegebene Wahrscheinlichkeitsschwellenwert ist, so kann die Wahrscheinlichkeit, dass die geschwindigkeitsbasierte Ermittlung des interessierenden Bereichs 60 ein akkurateres Ergebnis liefert als die positionsbasierte Ermittlung des interessierenden Bereichs 60, relativ hoch sein, insbesondere verglichen mit einer Situation, in der die Wahrscheinlichkeit gleich wie oder größer als der vorgegebene Wahrscheinlichkeitsschwellenwert ist. Das Verfahren kann so konfiguriert sein, dass der interessierende Bereich 60 nur dann positionsbasiert ermittelt wird, wenn das dritte Ausschlusskriterium nicht erfüllt ist und wenn kein anderes Ausschlusskriterium gegen die positionsbasierte Ermittlung spricht.If the probability with which the
Eine aktuelle Geschwindigkeit des Kraftfahrzeugs 20 kann abhängig von den Geschwindigkeitsdaten ermittelt werden. Ein viertes Ausschlusskriterium kann erfüllt sein, wenn die ermittelte Geschwindigkeit kleiner als ein vorgegebener Geschwindigkeitsschwellenwert ist. Der vorgegebene Geschwindigkeitsschwellenwert kann beispielsweise in einem Bereich liegen von 0,5 m/s bis 10 m/s, beispielsweise von 1 m/s bis 5 m/s, beispielsweise bei 2 m/s. Der Geschwindigkeitsschwellenwert kann beispielsweise von dem Hersteller des Kraftfahrzeugs 20 empirisch ermittelt werden und vorgegeben werden, indem der Geschwindigkeitsschwellenwert auf der Speichereinheit 26 des Steuergeräts 25 gespeichert wird.A current speed of the
Sollte die Geschwindigkeit kleiner sein als der Geschwindigkeitsschwellenwert, so kann eine erhöhte Wahrscheinlichkeit bestehen, dass das Kraftfahrzeug 20 seine aktuelle Fahrspur 34, 36 oder die Fahrbahn 32 zeitnah verlässt. In diesem Fall kann die Wahrscheinlichkeit, dass die geschwindigkeitsbasierte Ermittlung des interessierenden Bereichs 60 ein akkurateres Ergebnis liefert als die positionsbasierte Ermittlung des interessierenden Bereichs 60, relativ hoch sein, insbesondere verglichen mit einer Situation, in der die Geschwindigkeit gleich wie oder größer als der vorgegebene Geschwindigkeitsschwellenwert ist. Das Verfahren kann so konfiguriert sein, dass der interessierende Bereich 60 nur dann positionsbasiert ermittelt wird, wenn das vierte Ausschlusskriterium nicht erfüllt ist und wenn kein anderes Ausschlusskriterium gegen die positionsbasierte Ermittlung spricht.If the speed is less than the speed threshold, there may be an increased probability that the
Im Vorhergehenden werden die Ausschlusskriterien mit „erstes“, „zweites“, „drittes“ und „viertes“ Ausschlusskriterium bezeichnet. Diese Nummerierung stellt jedoch keinerlei Beschränkung dar und dient ausschließlich zur Unterscheidung des einen Auswahlkriteriums von dem anderen. Insbesondere legt diese Nummerierung weder eine Reihenfolge noch eine Priorität der Ausschlusskriterien dar. Falls mehrere der Ausschlusskriterien geprüft werden, können diese in beliebiger Kombination, Priorität und/oder Reihenfolge geprüft werden. Ferner können ein, zwei oder drei der Auswahlkriterien mit höherer Nummerierung geprüft werden, ohne dass ein Auswahlkriterium mit niedriger Nummer geprüft wird. Beispielsweise können lediglich das zweite und vierte Auswahlkriterium geprüft werden, wohingegen auf eine Prüfung des ersten und dritten Auswahlkriteriums verzichtet wird. Dieses Beispiel kann auf jegliche andere Kombination des Prüfens der Auswahlkriterien übertragen werden.In the above, the exclusion criteria are referred to as "first", "second", "third" and "fourth" exclusion criteria. However, this numbering does not represent any limitation and serves solely to distinguish one selection criterion from another. In particular, this numbering does not represent an order or a priority of the exclusion criteria. If several of the exclusion criteria are checked, they can be checked in any combination, priority and/or order. Furthermore, one, two or three of the selection criteria with a higher number can be checked without checking a selection criterion with a lower number. For example, only the second and fourth selection criteria can be checked, whereas the first and third selection criteria are not checked. This example can be applied to any other combination of checking the selection criteria.
Ist die Bedingung des Schritts S26 nicht erfüllt, so kann die Bearbeitung in einem Schritt S28 fortgesetzt werden. Ist die Bedingung des Schritts S26 erfüllt, so kann die Bearbeitung in einem Schritt S30 fortgesetzt werden.If the condition of step S26 is not met, processing can be continued in step S28. If the condition of step S26 is met, processing can be continued in step S30.
In dem Schritt S28 wird der interessierende Bereich 60 abhängig von den Positionsdaten positionsbasiert ermittelt, beispielsweise mittels eines Verfahrens zum positionsbasierten Ermitteln des interessierenden Bereichs 60, der sich auf der Fahrspur 34, 36 in Fahrtrichtung vor dem Kraftfahrzeug 20 befindet, wie weiter unten näher erläutert. Dass der interessierende Bereich 60 positionsbasiert ermittelt wird, bedeutet, dass der interessierende Bereich 60 im Wesentlichen abhängig von den Positionsdaten ermittelt wird. Dies kann insbesondere bedeuten, dass bei der positionsbasierten Ermittlung des interessierenden Bereichs 60 auch andere Daten berücksichtigt werden können, wie beispielsweise die Fahrspur 34, 36 der Fahrbahn 32, auf der das Kraftfahrzeug 20 aktuell fährt, eine aktuelle Fahrzeugorientierung des Kraftfahrzeugs 20, eine Fahrspurorientierung der Fahrspur 34, 36 an oder nahe der Position des Kraftfahrzeugs 20, eine Form des Kraftfahrzeugs 20 und/oder eine Breite des zu ermittelnden interessierenden Bereichs 60. Dass der interessierende Bereich 60 positionsbasiert ermittelt wird, kann jedoch auch bedeuten, dass der interessierende Bereich 60 zumindest teilweise abhängig von den Geschwindigkeitsdaten ermittelt wird, wobei die Geschwindigkeitsdaten bei der positionsbasierten Ermittlung des interessierenden Bereichs 60 lediglich als Ergänzung dienen, beispielsweise um den abhängig von den Positionsdaten ermittelten interessierenden Bereich 60 einzuschränken, beispielsweise seine Länge lROI (siehe
In dem Schritt S28 wird der interessierende Bereich 60 abhängig von den Geschwindigkeitsdaten geschwindigkeitsbasiert ermittelt, beispielsweise mittels eines Verfahrens zum geschwindigkeitsbasierten Ermitteln des interessierenden Bereichs 60, der sich auf der Fahrspur 34, 36 in Fahrtrichtung vor dem Kraftfahrzeug 20 befindet, wie weiter unten näher erläutert. Dass der interessierende Bereich geschwindigkeitsbasiert ermittelt wird, bedeutet, dass der interessierende Bereich im Wesentlichen abhängig von den Geschwindigkeitsdaten ermittelt wird. Dies kann insbesondere bedeuten, dass bei der geschwindigkeitsbasierten Ermittlung des interessierenden Bereichs 60 auch andere Daten berücksichtigt werden können, wie beispielsweise eine Gierrate ωego des Kraftfahrzeugs 20, eine Form des Kraftfahrzeugs 20 und/oder eine Breite des zu ermittelnden interessierenden Bereichs 60.In step S28, the region of
Die Schritte S32, S34 und S36 können korrespondierend zu den Schritten S8, S10 bzw. S12 abgearbeitet werden.Steps S32, S34 and S36 can be processed correspondingly to steps S8, S10 and S12 respectively.
Fusion der Radar- und der LidardatenFusion of radar and lidar data
Neben der Fahrbahn befinden sich mehrere Objekte 50. Die Objekte 50 weisen Radarobjekte 38, die in den Radardaten codiert sind, Konturpunkte 40, die in den Lidardaten codiert sind, und Fusionsobjekte 42 auf. Ein, zwei oder mehr der Konturpunkte 40, die nahe beieinanderliegen, sind repräsentativ für ein Lidarobjekt. Dementsprechend zeigte das Display 30 mehrere Lidarobjekte, die ebenfalls in den Lidardaten codiert sein können. Radarobjekte 38, auf oder in denen keiner der Konturpunkte 40 liegt, können auch als Nur-Radarobjekte bezeichnet werden. Lidarobjekte, zu denen kein Radarobjekt 38 existiert, können auch als Nur-Lidarobjekte bezeichnet werden. Zu jedem der Konturpunkte 40, der auf oder in einem der Radarobjekte 38 liegt, wird eines der Fusionsobjekte 42 erzeugt. In anderen Worten werden die Radarobjekte 38 und die Lidarobjekte, insbesondere die entsprechenden Radardaten und die entsprechenden Lidardaten, fusioniert, wie mit Bezug zu
Ferner zeigen
In einem Schritt S40 können Radardaten empfangen werden, die für eines oder mehrere der Radarobjekte 38 repräsentativ sind, die in Fahrtrichtung vor dem Kraftfahrzeug 20 liegen. Die Radardaten können von dem Radarsensor erzeugt werden, an das Steuergerät 25 übermittelt werden und von dem Steuergerät 25 empfangen werden. Der Radarsensor kann beispielsweise in dem Kraftfahrzeug 20 angeordnet sein. Optional können die Radardaten von zwei oder mehr Radarsensoren erzeugt werden, die beispielsweise jeweils in dem Kraftfahrzeug 20 angeordnet sein können. Der oder die Radarsensor(en) können Teil eines Radarsystems sein.In a step S40, radar data can be received that is representative of one or more of the radar objects 38 that are located in front of the
Die Radardaten können in Form einer digitalen Radarobjektliste vorliegen, in der die Radarobjekte 38 aufgelistet sind. Beispielsweise können jedem Radarobjekt in der Radarobjektliste eine eindeutige Kennziffer (ID), eine Größe und/oder eine Position des entsprechenden Radarobjekts zugeordnet werden.The radar data may be in the form of a digital radar object list in which the radar objects 38 are listed. For example, each radar object in the radar object list may be assigned a unique identification number (ID), a size and/or a position of the corresponding radar object.
Ferner können abhängig von den Radardaten Bewegungsrichtungen der Objekte 50, insbesondere der Radarobjekte ermittelt werden. Abhängig von den ermittelten Bewegungsrichtungen können Orientierungen der entsprechenden Objekte 50 ermittelt werden und die Radardaten können so ergänzt werden, dass die Radardaten für die Orientierungen der entsprechenden Objekte 50 repräsentativ sind. Beispielsweise können die Orientierungen den entsprechenden Radarobjekten in der Radarobjektliste zugeordnet werden. Gegebenenfalls können bei dem späteren Fusionieren der Radardaten und der Lidardaten die ergänzten Radardaten mit den Lidardaten fusioniert werden.Furthermore, depending on the radar data, directions of movement of the
Normalerweise sind die Radardaten ausschließlich repräsentativ für eine Position und Größe des Objekts 50. Anhand von Radardaten, die zu unterschiedlichen Zeitpunkten, insbesondere aufeinanderfolgenden Zeitpunkten, erfasst werden, können die Bewegungsrichtungen der Objekte 50, insbesondere der Radarobjekte, ermittelt werden. Falls die Objekte 50 andere Verkehrsteilnehmer sind, beispielsweise andere Fahrzeuge, so können die Orientierungen der Objekte 50 deren Bewegungsrichtungen entsprechen. Die Orientierungen können daher abhängig von den Bewegungsrichtungen beispielsweise ermittelt werden, indem die Orientierungen parallel zu den entsprechenden Bewegungsrichtungen oder identisch zu den entsprechenden Bewegungsrichtungen gewählt werden. Dass eines der Objekte 50 ein anderer Verkehrsteilnehmer ist, kann beispielsweise daran erkannt werden, dass sich das entsprechende Objekt 50 auf der Fahrbahn 32 befindet. Alternativ dazu sind Radarsysteme bekannt, die jeweils einen oder mehrere Radarsensoren und eine entsprechende Auswertelogik aufweisen, wobei die Auswertelogik eine Objekterkennung aufweist, die in der Lage ist, zu erkennen, ob eines oder mehrere der Radarobjekte 38 andere Verkehrsteilnehmer sind oder nicht und/oder um welche(n) Verkehrsteilnehmer es sich bei dem bzw. den Objekten 50 handelt.Normally, the radar data is exclusively representative of a position and size of the
Insbesondere können die Radardaten für Klassen repräsentativ sein, zu denen die Radarobjekte 38 gehören. Den Klassen von Objekten 50 können Größen der Radarobjekte 38 zugeordnet werden. Die Klassen können beispielsweise „LKW“, „Transporter“, „Auto“, „Kraftrad“, „Fahrrad“ und/oder „Fußgänger“ umfassen, wobei die diesen Klassen zugeordneten (Standard-)Größen in der Aufzählung von der Klasse „LKW“ zu der Klasse „Fußgänger“ kleiner werden. Die Radardaten können so angepasst werden, dass die Radardaten repräsentativ für die Radarobjekte 38 mit den entsprechenden Größen der Radarobjekte 38 sind. Beispielsweise können die Grö-ßen den entsprechenden Radarobjekten in der Radarobjektliste zugeordnet werden. Gegebenenfalls können bei dem Fusionieren der Radardaten mit den Lidardaten die angepassten Radardaten mit den Lidardaten fusioniert werden.In particular, the radar data can be representative of classes to which the radar objects 38 belong. Sizes of the radar objects 38 can be assigned to the classes of
Ein Radarsystem, das einen geeigneten Radarsensor aufweist und das die vorgenannten Funktionen bereitstellt, wird derzeit beispielsweise von der Firma „Conti“ vertrieben, beispielsweise das Model ARS 404-21 oder das Model ARS 408-12, die als standardisierte ARS Schnittstellen verwendet werden können und jeweils in der entsprechenden technischen Dokumentation von Conti beschrieben sind, insbesondere in „Technical Documentation, ARS 404-21 (Entry), ARS 408-21 (Premium)“, Version 1.91, May 18, 2018. Diese und Dokumentationen von anderen geeigneten Radarsystemen kann beispielsweise bezogen werden von https://conti-engineering.com/components/ars-408/. Diese Radarsysteme liefern als Ausgaben unter anderem die Position des erfassten Objekts 50, die Größe des erfassten Objekts 50, die Geschwindigkeit des erfassten Objekts 50, die Geschwindigkeit des Kraftfahrzeugs 20, und die Klasse des erfassten Objekts 50.A radar system that has a suitable radar sensor and that provides the aforementioned functions is currently sold, for example, by the company “Conti”, for example the model ARS 404-21 or the model ARS 408-12, which can be used as standardized ARS interfaces and are each described in the corresponding technical documentation from Conti, in particular in “Technical Documentation, ARS 404-21 (Entry), ARS 408-21 (Premium)”, version 1.91, May 18, 2018. This and documentation of other suitable radar systems can be obtained, for example, from https://conti-engineering.com/components/ars-408/. These radar systems provide as outputs, among other things, the position of the detected
In einem Schritt S42 können die Lidardaten empfangen werden, die für eines oder mehrere der Lidarobjekte repräsentativ sind, die in Fahrtrichtung vor dem Kraftfahrzeug 20 liegen. Die Lidardaten können in Form einer digitalen Lidarobjektliste vorliegen, die die Lidarobjekte aufweist. Die Lidardaten können von einem Lidarsensor erzeugt werden, an das Steuergerät 25 übermittelt werden und von dem Steuergerät 25 empfangen werden. Der Lidarsensor kann beispielsweise in dem Kraftfahrzeug 20 angeordnet sein. Optional können die Lidardaten von zwei oder mehr Lidarsensoren erzeugt werden, die beispielsweise jeweils in dem Kraftfahrzeug 20 angeordnet sein können. Die Lidardaten können Konturdaten aufweisen, die für Konturpunkte 40 repräsentativ sind, wobei jedes der Lidarobjekte durch einen oder mehrere der Konturpunkte 40 repräsentiert wird. In der Lidarobjektliste können den Konturpunkten jeweils eine eindeutige Kennziffer (ID), ein Lidarobjekt, eine Geschwindigkeit des entsprechenden Lidarobjekts und eine Position des entsprechenden Lidarobjekts zugeordnet sein.In a step S42, the lidar data can be received that are representative of one or more of the lidar objects that lie in front of the
Ein Lidarsystem, das einen geeigneten Lidarsensor aufweist, wird derzeit beispielsweise von der Firma „ibeo automotive“ vertrieben, beispielsweise aus der Reihe „LUX“, insbesondere der „Ibeo LUX 4L“, und ist in der entsprechenden technischen Dokumentation von ibeo beschrieben, insbesondere in „Interface Specification for ibeo LUX, ibeo LUX systems and ibeo Evaluation Suite“, Version 1.48.2, Juli 28, 2017, erhältlich unterwww.ibeo-as.com. Diese und Dokumentationen von anderen geeigneten Lidarsystemen kann beispielsweise bezogen werden von https://www.ibeo-as.com/en/products/sensors/IbeoLUX. Dieses Lidarsystem liefert als Ausgaben eine Position eines erfassten Objekts, eine Geschwindigkeit des erfassten Objekts, eine Geschwindigkeit des Kraftfahrzeugs und eine Klasse des Kraftfahrzeugs.A lidar system having a suitable lidar sensor is currently sold, for example, by the company “ibeo automotive”, for example from the “LUX” series, in particular the “Ibeo LUX 4L”, and is described in the corresponding technical documentation from ibeo, in particular in “Interface Specification for ibeo LUX, ibeo LUX systems and ibeo Evaluation Suite”, version 1.48.2, July 28, 2017, available at www.ibeo-as.com. This and documentation of other suitable lidar systems can be obtained, for example, from https://www.ibeo-as.com/en/products/sensors/IbeoLUX. This lidar system provides as outputs a position of a detected object, a speed of the detected object, a speed of the motor vehicle and a class of the motor vehicle.
In einem Schritt S44 können die Radardaten, gegebenenfalls die ergänzten Radardaten, und die Lidardaten zu den Sensordaten fusioniert werden, wobei die Sensordaten für eines oder mehrere der Sensorobjekte repräsentativ sind, die zu den Radarobjekten 38 und/oder den Lidarobjekten korrespondieren. Dass die Radardaten und die Lidardaten zu den Sensordaten fusioniert werden, bedeutet, dass die Radardaten und die Lidardaten zusammengefasst werden, beispielsweise um wechselseitig verifiziert zu werden und/oder wechselseitig ergänzt zu werden. Die Sensordaten können in Form der Fusionsliste vorliegen, die die Sensorobjekte aufweist. Bei dem Fusionieren der Radardaten und der Lidardaten zu den Sensordaten kann zu jedem der Konturpunkte 40 geprüft werden, ob der entsprechende Konturpunkt 40 mit einem der Radarobjekte 38 überlappt. Falls einer der Konturpunkte 40 mit einem der Radarobjekte 38 überlappt, so kann zu dem Konturpunkt 40 und allen anderen Konturpunkten 40 desselben Lidarobjekts ein entsprechendes Fusionsobjekt 42 erzeugt und in den Sensordaten codiert werden. Falls keiner der Konturpunkte 40 eines der Lidarobjekte mit einem der Radarobjekte 38 überlappt, so kann zu dem entsprechenden Lidarobjekt ein Nur-Lidarobjekt erzeugt und in den Sensordaten codiert werden. Zu jedem der Radarobjekte 38, zu dem kein überlappender Konturpunkt 40 gefunden wird, kann ein Nur-Radarobjekt erzeugt und in den Sensordaten codiert werden. Somit können die Sensorobjekte klassifiziert sein in die Nur-Radarobjekte, deren entsprechende Radarobjekte 38 zu keinen der Lidarobjekte korrespondieren, in die Nur-Lidarobjekte, deren entsprechenden Lidarobjekte zu keinen der Radarobjekte 38 korrespondieren und/oder in die Fusionsobjekte 42, deren Radarobjekte 38 jeweils zu mindestens einem der Lidarobjekte korrespondieren.In a step S44, the radar data, possibly the supplemented radar data, and the Lidar data are fused to form the sensor data, the sensor data being representative of one or more of the sensor objects that correspond to the radar objects 38 and/or the lidar objects. The fact that the radar data and the lidar data are fused to form the sensor data means that the radar data and the lidar data are combined, for example in order to be mutually verified and/or mutually supplemented. The sensor data can be in the form of the fusion list that contains the sensor objects. When merging the radar data and the lidar data to form the sensor data, it can be checked for each of the contour points 40 whether the corresponding
In anderen Worten kann es sein, dass die Sensorobjekte in die Nur-Radarobjekte 38, die Nur-Lidarobjekte und die Fusionsobjekte 42 unterteilt sind, wobei zu den Nur-Radarobjekten 38 keine entsprechenden Lidarobjekte gefunden wurden, zu den Nur-Lidarobjekten keine entsprechenden Radarobjekte gefunden wurden, und zu den Fusionsobjekten 42 jeweils ein entsprechendes Radarobjekt 38 und mindestens ein entsprechendes Lidarobjekt gefunden wurde. Die Sensordaten können in Form der digitalen Fusionsliste vorliegen, die die Sensorobjekte, insbesondere die Fusionsobjekte 42, die Nur-Radarobjekte 38 und/oder die Nur-Lidarobjekte aufweist.In other words, the sensor objects may be divided into radar-only objects 38, lidar-only objects and fusion objects 42, wherein no corresponding lidar objects were found for radar-only objects 38, no corresponding radar objects were found for lidar-only objects, and a corresponding
Die Radardaten können Radarzeitinformationen aufweisen, die den Radarobjekten 38 zugeordnet sind und die für einen ersten Zeitpunkt repräsentativ sind, zu dem die Radarobjekte 38 erfasst wurden. Die Lidardaten können Lidarzeitinformationen aufweisen, die den Lidarobjekten zugeordnet sind und die für einen zweiten Zeitpunkt repräsentativ sind, zu dem die Lidardaten erfasst wurden. Bei dem Fusionieren der Radardaten und der Lidardaten können dann die jüngsten Radardaten und die jüngsten Lidardaten zu den Sensordaten fusioniert werden. Ferner können jedes Mal, wenn neue Radardaten oder Lidardaten empfangen werden, diese neuen Radar- bzw. Lidardaten mit den jüngsten Lidar- bzw. Radardaten fusioniert werden, um eine neue Fusionsliste zu erzeugen oder um die letzte Fusionsliste zu aktualisieren.The radar data may include radar timing information associated with the radar objects 38 and representative of a first time at which the radar objects 38 were detected. The lidar data may include lidar timing information associated with the lidar objects and representative of a second time at which the lidar data was detected. In merging the radar data and the lidar data, the most recent radar data and the most recent lidar data may then be fused into the sensor data. Furthermore, each time new radar data or lidar data is received, this new radar or lidar data may be fused with the most recent lidar or radar data to generate a new fusion list or to update the last fusion list.
Eine ausschließlich auf den Radardaten basierende Detektion der Objekte 50 hat gegenüber einer ausschließlich auf Lidardaten basierenden Detektion der Objekte 50 die Vorteile, dass eindeutig identifizierte Objekte 50 über die Zeit konstant als solche erkannt werden, dass die Wahrscheinlichkeit, dass die erkannten Objekte 50 real sind, relativ hoch ist und dass eine Geschwindigkeit des Radarsensors und damit des Kraftfahrzeugs 20 anhand der Radardaten ermittelt werden kann. Die auf den Radardaten basierende Detektion hat jedoch auch einen Nachteil gegenüber der auf Lidardaten basierenden Detektion, und zwar dass eine Positionsermittlung und/oder eine Größenermittlung der erkannten Objekte 50 relativ schlecht ist.A detection of the
Die auf den Lidardaten basierende Detektion der Objekte 50 hat gegenüber der auf den Radardaten basierenden Detektion der Objekte 50 den Vorteil, dass Konturpunktpositionen der Konturpunkte 40 entlang der Konturen der Objekte 50 sehr präzise ermittelt werden können. Die auf den Lidardaten basierende Detektion hat jedoch auch einen Nachteil gegenüber der auf Radardaten basierenden Detektion, und zwar dass eigentlich eindeutig identifizierte Objekte 50 über die Zeit hinweg immer wieder als neue Objekte 50 erkannt werden können, dass kein Rückschluss auf die Geschwindigkeit des Lidarsensors und damit des Kraftfahrzeugs 20 gezogen werden kann und dass Objektpositionen, Objektausmaße und Objektorientierungen von erkannten Objekten 50 relativ schlecht erkannt werden.The detection of the
Optional kann den Fusionsobjekten 42 eine vorgegebene erste Wahrscheinlichkeit zugeordnet werden, mit der die Fusionsobjekte 42 real existieren, beispielsweise in der Fusionsliste. Optional kann den Nur-Radarobjekten eine vorgegebene zweite Wahrscheinlichkeit zugeordnet werden, mit der die Nur-Radarobjekte real existieren, beispielsweise in der Fusionsliste. Option kann den Nur-Lidarobjekten eine vorgegebene dritte Wahrscheinlichkeit zugeordnet werden, mit der die Nur-Lidarobjekte real existieren, wobei die erste Wahrscheinlichkeit größer als die zweite Wahrscheinlichkeit und größer als die dritte Wahrscheinlichkeit ist. Gegebenenfalls können dann das weiter unten erläuterte Ermitteln, ob sich eines oder mehrere der Sensorobjekte in dem interessierenden Bereich 60 befinden, und/oder das Ermitteln, ob eines oder mehrere der Sensorobjekte, die sich in dem interessierenden Bereich 60 befinden, eine Gefahr für das Kraftfahrzeug 20 darstellt, abhängig von den entsprechenden Wahrscheinlichkeiten erfolgen.Optionally, the fusion objects 42 can be assigned a predetermined first probability with which the fusion objects 42 actually exist, for example in the fusion list. Optionally, the radar-only objects can be assigned a predetermined second probability with which the radar-only objects actually exist, for example in the fusion list. Optionally, the lidar-only objects can be assigned a predetermined third probability with which the lidar-only objects actually exist, the first probability being greater than the second probability and greater than the third probability. If necessary, the determination explained below of whether one or more of the sensor objects are located in the area of
Beispielsweise ist, wenn eines der Objekte 50, das in Fahrtrichtung vor dem Kraftfahrzeug 20 liegt, sowohl mittels Radars als auch mittels Lidars erkannt wird, die Wahrscheinlichkeit, dass das entsprechende Objekt 50 real existiert und sich real in Fahrtrichtung vor dem Kraftfahrzeug 20 befindet, größer als wenn das Objekt 50 ausschließlich mittels Radars oder ausschließlich mittels Lidars erkannt wird. Diesem Umstand kann mittels Zuordnens der Wahrscheinlichkeiten und insbesondere mittels Zuordnens der größten Wahrscheinlichkeit zu den Fusionsobjekten 42 Rechnung getragen werden.For example, if one of the
Optional kann zu jedem der Fusionsobjekte 42 geprüft werden, ob das entsprechende Fusionsobjekt 42 mindestens ein Fusion-Kreuzen-Kriterium erfüllt, das repräsentativ dafür ist, dass das entsprechende Fusionsobjekt 42 die Fahrbahn 32 vor dem Kraftfahrzeug 20 kreuzt. Zusätzlich zu dem entsprechenden Fusionsobjekt 42 kann dann ein entsprechendes Kreuzen-Fusionsobjekt 42 in den Sensordaten codiert werden, falls das entsprechende Fusionsobjekt 42 das Fusion-Kreuzen-Kriterium erfüllt.Optionally, for each of the fusion objects 42, it can be checked whether the corresponding
Wie vorstehend erläutert, können die Fusionsobjekte 42 in der Fusionsliste gespeichert sein. Die Fusionsobjekte 42 können in der Fusionsliste zunächst als nicht die Fahrbahn 32 kreuzend gekennzeichnet sein. Wenn zu einem der Fusionsobjekte 42 das entsprechende Kreuzen-Fusionsobjekt 42 gefunden wird, so kann das Kreuzen-Fusionsobjekt 42 zusätzlich zu dem entsprechenden Fusionsobjekt 42 in der Fusionsliste gespeichert werden. Optional kann geprüft werden, ob das entsprechende Fusionsobjekt 42 zwei oder mehr der Fusion-Kreuzen-Kriterien erfüllt, die jeweils repräsentativ dafür sind, dass das entsprechende Fusionsobjekt 42 die Fahrbahn 32 vor dem Kraftfahrzeug 20 kreuzt. In diesem Fall kann das Kreuzen-Fusionsobjekt 42 zusätzlich zu dem entsprechenden Fusionsobjekt 42 in den Sensordaten codiert werden, falls das entsprechende Fusionsobjekt 42 ein, zwei oder mehr der Fusion-Kreuzen-Kriterien erfüllt.As explained above, the fusion objects 42 can be stored in the fusion list. The fusion objects 42 can initially be marked in the fusion list as not crossing the
Das bzw. die zu prüfenden Fusion-Kreuzen-Kriterien können beispielsweise aus einer Gruppe stammen, die Gruppe aufweisend: das entsprechende Lidarobjekt ist relevant; das entsprechende Lidarobjekt hat ein Alter, das größer als ein vorgegebener Altersschwellenwert ist, beispielsweise größer als 100 ms, beispielsweise größer als 500 ms, beispielsweise größer als 1000 ms; eine laterale Geschwindigkeit des entsprechenden Lidarobjekts ist größer als ein vorgegebener Lidar-Lateralgeschwindigkeitsschwellenwert, beispielsweise größer als 1 m/s, beispielsweise größer als 1,5 m/s, beispielsweise größer als 1,75 m/s; alle Konturpunkte 40, die zu dem entsprechenden Lidarobjekt gehören, überlappen mit keinem sich bewegenden Radarobjekt 38; eine Existenzwahrscheinlichkeit des entsprechenden Radarobjekts 38 ist größer als ein vorgegebener Radarobjekt-Existenzschwellenwert, beispielsweise größer als 80 %, beispielsweise größer als 85 %, beispielsweise größer als 90 %; eine laterale Geschwindigkeit des entsprechenden Radarobjekts 38 ist größer als ein vorgegebener Radar-Lateralgeschwindigkeitsschwellenwert, beispielsweise größer als 1 m/s, beispielsweise größer als 1,5 m/s, beispielsweise größer als 1,75 m/s; eine longitudinale Geschwindigkeit des entsprechenden Radarobjekts 38 ist kleiner als ein vorgegebener Radar-Longitudinalgeschwindigkeitsschwellenwert, beispielsweise kleiner als 10 m/s, beispielsweise kleiner als 5 m/s, beispielsweise kleiner als 2 m/s; das entsprechende Radarobjekt 38 ist nicht stationär.The fusion crossing criterion(s) to be checked may, for example, originate from a group comprising the group: the corresponding lidar object is relevant; the corresponding lidar object has an age that is greater than a predetermined age threshold, for example greater than 100 ms, for example greater than 500 ms, for example greater than 1000 ms; a lateral velocity of the corresponding lidar object is greater than a predetermined lidar lateral velocity threshold, for example greater than 1 m/s, for example greater than 1.5 m/s, for example greater than 1.75 m/s; all contour points 40 belonging to the corresponding lidar object do not overlap with any moving radar object 38; a probability of existence of the corresponding radar object 38 is greater than a predetermined radar object existence threshold, for example greater than 80%, for example greater than 85%, for example greater than 90%; a lateral velocity of the corresponding radar object 38 is greater than a predetermined radar lateral velocity threshold, for example greater than 1 m/s, for example greater than 1.5 m/s, for example greater than 1.75 m/s; a longitudinal velocity of the corresponding radar object 38 is less than a predetermined radar longitudinal velocity threshold, for example less than 10 m/s, for example less than 5 m/s, for example less than 2 m/s; the corresponding radar object 38 is not stationary.
Das Alter des Lidarobjekts bezieht sich darauf, in wie vielen Lidardaten, die aufeinanderfolgend unmittelbar vor den aktuellen Lidardaten erfasst wurden, das entsprechende Lidarobjekt bereits enthalten ist. In anderen Worten bezieht sich das Alter des Lidarobjekts darauf, in wie vielen Lidarobjektlisten, die aufeinanderfolgend unmittelbar vor der aktuellen Lidarobjektliste erstellt wurden, das entsprechende Lidarobjekt bereits enthalten ist. In je mehr der Lidardaten bzw. Lidarobjektlisten das entsprechende Lidarobjekt enthalten ist, desto älter ist das entsprechende Lidarobjekt.The age of the lidar object refers to how many lidar data that were recorded consecutively immediately before the current lidar data already contain the corresponding lidar object. In other words, the age of the lidar object refers to how many lidar object lists that were created consecutively immediately before the current lidar object list already contain the corresponding lidar object. The more lidar data or lidar object lists the corresponding lidar object is contained in, the older the corresponding lidar object is.
Die Existenzwahrscheinlichkeit des Radarobjekts kann beispielsweise abhängig von einem Alter des Radarobjekts ermittelt werden. Das Alter des Radarobjekts kann beispielsweise korrespondierend zu dem Alter des Lidarobjekts ermittelt werden. The probability of existence of the radar object can be determined, for example, depending on the age of the radar object. The age of the radar object can, for example, be determined corresponding to the age of the lidar object.
Optional kann zu jedem der Nur-Lidarobjekte geprüft werden, ob das entsprechende Nur-Lidarobjekt mindestens ein Lidar-Kreuzen-Kriterium erfüllt, das repräsentativ dafür ist, dass das entsprechende Nur-Lidarobjekt die Fahrbahn 32 vor dem Kraftfahrzeug 20 kreuzt. Gegebenenfalls kann zusätzlich zu dem Nur-Lidarobjekt ein entsprechendes Kreuzen-Nur-Lidarobjekt in den Sensordaten codiert werden, falls das entsprechende Nur-Lidarobjekt das Lidar-Kreuzen-Kriterium erfüllt.Optionally, for each of the lidar-only objects, it can be checked whether the corresponding lidar-only object satisfies at least one lidar crossing criterion that is representative of the fact that the corresponding lidar-only object crosses the
Wie vorstehend erläutert, können die Nur-Lidarobjekte in der Fusionsliste gespeichert sein. Die Nur-Lidarobjekte können in der Fusionsliste als nicht die Fahrbahn 32 kreuzend gekennzeichnet sein. Wenn zu einem der Nur-Lidarobjekte das entsprechende Lidar-Kreuzen-Fusionsobjekt 42 gefunden wird, so kann das Lidar-Kreuzen-Fusionsobjekt 42 zusätzlich zu dem entsprechenden Nur-Lidarobjekt in der Fusionsliste gespeichert werden. Optional kann geprüft werden, ob das entsprechende Nur-Lidarobjekt zwei oder mehr Lidar-Kreuzen-Kriterien erfüllt, die jeweils repräsentativ dafür sind, dass das entsprechende Nur-Lidarobjekt die Fahrbahn 32 vor dem Kraftfahrzeug 20 kreuzt. In diesem Fall kann das Kreuzen-Nur-Lidarobjekt zusätzlich zu dem entsprechenden Nur-Lidarobjekt in den Sensordaten codiert werden, falls das entsprechende Nur-Lidarobjekt ein, zwei oder mehr der Lidar-Kreuzen-Kriterien erfüllt.As explained above, the lidar-only objects can be stored in the fusion list. The lidar-only objects can be marked in the fusion list as not crossing the
Das bzw. die zu prüfenden Lidar-Kreuzen-Kriterien können beispielsweise aus einer Gruppe stammen, die Gruppe aufweisend: ein Alter des Nur-Lidarobjekts ist größer als ein vorgegebener Lidaraltersschwellenwert, beispielsweise größer als 100 ms, beispielsweise größer als 500 ms, beispielsweise größer als 1000 ms; ein Abstand des Nur-Lidarobjekts zu dem Kraftfahrzeug 20 ist größer als ein vorgegebener Lidarabstandschwellenwert, von einem Zentrum Z (siehe
Das Alter eines der Nur-Lidarobjekte kann anhand historischer Lidardaten ermittelt werden, wobei geprüft wird, ob das entsprechende Lidarobjekt bereits in früher erfassten Lidardaten codiert ist, insbesondere in früheren Lidardaten, die aufeinanderfolgend und direkt vor den aktuellen Lidardaten erfasst wurden. Dabei kann das Alter als umso länger angenommen werden, in je mehr früheren Lidardaten das entsprechende Lidarobjekt codiert ist. In anderen Worten kann das Alter eines der Nur-Lidarobjekte als umso länger angenommen werden, in je mehr früheren Lidarobjektlisten das entsprechende Lidarobjekt enthalten ist.The age of one of the lidar-only objects can be determined from historical lidar data by checking whether the corresponding lidar object is already encoded in previously acquired lidar data, in particular in previous lidar data that was acquired consecutively and immediately before the current lidar data. The age can be assumed to be longer the more previous lidar data the corresponding lidar object is encoded in. In other words, the age of one of the lidar-only objects can be assumed to be longer the more previous lidar object lists the corresponding lidar object is included in.
Optional kann zu jedem Fusionsobjekt 42, Nur-Radarobjekt und/oder Nur-Lidarobjekt in der Fusionsliste geprüft werden, ob das entsprechende Objekt 50 ein oder mehrere Relevanzkriterien erfüllt. Das entsprechende Fusionsobjekt 42, Nur-Radarobjekt bzw. Nur-Lidarobjekt kann in der Fusionsliste als relevant gekennzeichnet werden, wenn das entsprechende Fusionsobjekt 42, Nur-Radarobjekt bzw. Nur-Lidarobjekt ein oder mehrere der Relevanzkriterien erfüllt. Das entsprechende Fusionsobjekt 42, Nur-Radarobjekt bzw. Nur-Lidarobjekt kann als nicht relevant gekennzeichnet werden, wenn das entsprechende Fusionsobjekt 42, Nur-Radarobjekt bzw. Nur-Lidarobjekt keines der Relevanzkriterien erfüllt.Optionally, for each
Das bzw. die zu prüfenden Relevanzkriterien können beispielsweise aus einer Gruppe stammen, die Gruppe aufweisend eine erste Untergruppe, die sich auf die Nur-Radarobjekte 38 bezieht, und eine zweite Untergruppe, die sich auf Nur-Lidarobjekte und Fusionsobjekte 42 bezieht.The relevance criterion(s) to be checked may, for example, originate from a group, the group comprising a first subgroup relating to the radar-only objects 38 and a second subgroup relating to lidar-only objects and fusion objects 42.
Die erste Untergruppe kann aufweisen: eine Existenzwahrscheinlichkeit des entsprechenden Radarobjekts 38 ist größer als ein vorgegebener Existenzwahrscheinlichkeitsschwellenwert; das entsprechende Radarobjekt 38 ist in der aktuellen Radarobjektliste enthalten; ein Betrag einer Querschnittsfläche (Radar Cross Section (RCS)) des entsprechenden Radarobjekts 38 ist größer als ein vorgegebener Querschnittsschwellenwert, beispielsweise größer als 1 dBm2, beispielsweise größer als 3 dBm2, beispielsweise größer als 5 dBm2; Informationen über eine Verlässlichkeit eines oder mehrerer dynamische Eigenschaften beschreibender Messwerte, beispielsweise der Geschwindigkeit; das entsprechende Radarobjekt 38 gehört keiner Klasse an, die große Objekte, wie beispielsweise LKWs oder Transporter, umfasst; das entsprechende Radarobjekt 38 ist stationär (es ist sehr unwahrscheinlich, dass zu es zu einem stationären Radarobjekt 38 kein entsprechendes Lidarobjekt gibt).The first subgroup may include: a probability of existence of the corresponding
Die zweite Untergruppe kann aufweisen: eine Anzahl von Konturpunkten 40, die zu dem entsprechenden Nur-Lidarobjekt gehören, ist größer als ein vorgegebener Anzahlschwellenwert, beispielsweise größer als 2, beispielsweise größer als 3; eine Dichte von Konturpunkten 40, die zu dem entsprechenden Nur-Lidarobjekt gehören, ist größer als ein vorgegebener Dichteschwellenwert (falls der Abstand des entsprechenden Nur-Lidarobjekts zu dem Kraftfahrzeug 20 kleiner als ein vorgegebener Abstandsschwellenwert ist, beispielsweise kleiner als 2 m, beispielsweise kleiner als 1 m, beispielsweise ungefähr 0,35 m; es gibt mehr als einen Konturpunkt 40 zu dem entsprechenden Nur-Lidarobjekt.The second subgroup may comprise: a number of contour points 40 belonging to the corresponding lidar-only object is greater than a predetermined number threshold, for example greater than 2, for example greater than 3; a density of contour points 40 belonging to the corresponding lidar-only object is greater than a predetermined density threshold (if the distance of the corresponding lidar-only object to the
Das Alter eines der Nur-Lidarobjekte kann anhand historischer Lidardaten ermittelt werden, wobei geprüft wird, ob das entsprechende Lidarobjekt bereits in früher erfassten Lidardaten codiert ist, insbesondere in früheren Lidardaten, die aufeinanderfolgend und direkt vor den aktuellen Lidardaten erfasst wurden. Dabei kann das Alter als umso länger angegeben werden, in je mehr früheren Lidardaten das entsprechende Lidarobjekt codiert ist. In anderen Worten kann das Alter eines der Nur-Lidarobjekte als umso größer angenommen werden, in je mehr früheren Lidarobjektlisten das entsprechende Lidarobjekt enthalten ist.The age of one of the lidar-only objects can be determined from historical lidar data by checking whether the corresponding lidar object is already encoded in previously acquired lidar data, in particular in previous lidar data that was acquired consecutively and immediately before the current lidar data. The age can be assumed to be longer the more previous lidar data the corresponding lidar object is encoded in. In other words, the age of one of the lidar-only objects can be assumed to be greater the more previous lidar object lists the corresponding lidar object is included in.
In einem Schritt S46 können die Positionsdaten empfangen werden, die für die aktuelle Fahrzeugposition des Kraftfahrzeugs 20 repräsentativ sind. Die Positionsdaten können korrespondierend zu dem vorstehend erläuterten Schritt S22 empfangen werden.In a step S46, the position data representative of the current vehicle position of the
In einem Schritt S48 können die Geschwindigkeitsdaten empfangen werden, die für eine aktuelle Geschwindigkeit des Kraftfahrzeugs 20 repräsentativ sind. Die Geschwindigkeitsdaten können korrespondierend zu dem vorstehend erläuterten Schritt S24 empfangen werden.In a step S48, the speed data can be received that is representative of a current speed of the
In einem Schritt S50 kann der interessierende Bereich 60, der sich auf der Fahrbahn 32 in Fahrtrichtung vor dem Kraftfahrzeug 20 befindet, abhängig von den Positionsdaten und/oder den Geschwindigkeitsdaten ermittelt werden, beispielsweise positionsbasiert oder geschwindigkeitsbasiert, wie weiter unten näher erläutert. Der Schritt S50 kann korrespondierend zu dem im Vorhergehenden erläuterten Schritt S6 abgearbeitet werden. Insbesondere kann der Schritt S50 korrespondierend zu den im Vorhergehenden erläuterten Schritten S26, S28 und S30 abgearbeitet werden.In a step S50, the region of
In einem Schritt S52 kann abhängig von den Sensordaten für jedes der Sensorobjekte in der Fusionsliste geprüft werden, ob sich das entsprechende Sensorobjekt in dem interessierenden Bereich 60 befindet oder nicht. Der Schritt S52 kann korrespondierend zu dem im Vorhergehenden erläuterten Schritt S8 oder S32 abgearbeitet werden.In a step S52, depending on the sensor data, it can be checked for each of the sensor objects in the fusion list whether the corresponding sensor object is located in the region of
In einem optionalen Schritt S54 kann ermittelt werden, ob eines oder mehrere der Sensorobjekte, die sich in dem interessierenden Bereich 60 befinden, eine Gefahr für das Kraftfahrzeug 20 darstellen. Der Schritt S54 kann korrespondierend zu dem im Vorhergehenden erläuterten Schritt S10 oder S34 abgearbeitet werden.In an optional step S54, it can be determined whether one or more of the sensor objects located in the area of
Falls im Vorhergehenden den Fusionsobjekten 42 die erste Wahrscheinlichkeit, den Nur-Radarobjekten die zweite Wahrscheinlichkeit und/oder den Nur-Lidarobjekten die dritte Wahrscheinlichkeit zugeordnet wird, so können optional nur die Fusionsobjekte, nur die Nur-Radarobjekte bzw. nur die Nur-Lidarobjekte in den Schritten S52 und/oder S54 berücksichtigt werden, deren zugeordnete Wahrscheinlichkeit größer als ein vorgegebener Wahrscheinlichkeitsschwellenwert ist.If in the foregoing the first probability is assigned to the fusion objects 42, the second probability to the radar-only objects and/or the third probability to the lidar-only objects, then optionally only the fusion objects, only the radar-only objects or only the lidar-only objects whose assigned probability is greater than a predetermined probability threshold can be taken into account in steps S52 and/or S54.
Falls im Vorhergehenden zu den Fusionsobjekten 42, den Nur-Radarobjekten und/oder den Nur-Lidarobjekten geprüft wird, ob diese relevant sind, beispielsweise anhand der Relevanzkriterien, so können optional nur die Fusionsobjekte, nur die Nur-Radarobjekte bzw. nur die Nur-Lidarobjekte in den Schritten S52 und/oder S54 berücksichtigt werden, die als relevant beurteilt wurden.If the fusion objects 42, the radar-only objects and/or the lidar-only objects are checked in the preceding to see whether they are relevant, for example based on the relevance criteria, then optionally only the fusion objects, only the radar-only objects or only the lidar-only objects that were assessed as relevant can be taken into account in steps S52 and/or S54.
In einem Schritt S56 kann das Steuersignal für die Bremseinrichtung 24 des Kraftfahrzeugs 20 erzeugt werden, beispielsweise korrespondierend zu den vorstehend erläuterten Schritten S12 oder S36.In a step S56, the control signal for the
Positionsbasiertes Ermitteln des ROIPosition-based determination of ROI
Die Länge lROI (in longitudinaler Richtung, senkrecht zu der lateralen Richtung) des interessierenden Bereichs 60 (siehe
In einem Schritt S60 können die Positionsdaten empfangen werden, die für die aktuelle Fahrzeugposition und optional für eine Orientierung des Kraftfahrzeugs 20, in anderen Worten eine Fahrzeugorientierung des Kraftfahrzeugs 20, repräsentativ sind. Der Schritt S60 kann korrespondierend zu dem Schritt S22 oder S46 abgearbeitet werden. Die Positionsdaten können für eine Frontposition einer Front 62 (siehe
Die Position des Kraftfahrzeugs 20 kann in einem zweidimensionalen Koordinatensystem in Form einer X- und einer Y-Koordinate angegeben sein und die Fahrzeugorientierung kann als Winkel, beispielsweise als Gierwinkel und/oder Fahrtrichtung des Kraftfahrzeugs 20, angegeben sein. Das Koordinatensystem kann sich beispielsweise auf das Kraftfahrzeug 20 beziehen, das Zentrum Z oder eine Mitte der Front 62 des Kraftfahrzeugs 20 als Ursprung haben, und/oder als Kraftfahrzeugkoordinatensystem bezeichnet werden. Alternativ dazu kann als Koordinatensystem ein proprietäres Koordinatensystem oder ein Reale-Welt-Koordinatensystem verwendet werden. Somit können die Positionsdaten beispielsweise vorliegen als:
In einem optionalen Schritt S62 können die Geschwindigkeitsdaten empfangen werden, beispielsweise korrespondierend zu dem vorstehend erläuterten Schritt S24 oder S48. Falls die Geschwindigkeitsdaten empfangen werden, kann die aktuelle Geschwindigkeit des Kraftfahrzeugs 20 abhängig von den Geschwindigkeitsdaten ermittelt werden und nachfolgend kann die Länge lROI (siehe
In einem Schritt S64 können Referenzpunktpositionen von Referenzpunkten 94, 96 (siehe
Die Referenzpunktpositionen können jeweils in einem zweidimensionalen Koordinatensystem in Form einer X- und einer Y-Koordinate angegeben sein und eine Orientierung der entsprechenden Fahrspur 34, 36, in anderen Worten eine Fahrspurorientierung, kann als Winkel angegeben sein. Das Koordinatensystem kann beispielsweise ein proprietäres Koordinatensystem oder ein Reale-Welt-Koordinatensystem sein, wobei die Position des Kraftfahrzeugs 20 und die Referenzpunktpositionen entweder im gleichen Koordinatensystem angegeben sind oder in das gleiche Koordinatensystem übertragen werden. Somit können die Referenzpunktpositionen beispielsweise vorliegen als:
Das Kraftfahrzeug 20 kann beispielsweise für jede Fahrspur 34, 36, auf der sich das Kraftfahrzeug 20 bewegt, eine separate Fahrspurnachschlagetabelle aufweisen, so dass das Kraftfahrzeug 20 auf jeder Fahrspur 34, 36 den interessierenden Bereich 60 positionsbasiert ermitteln kann. Die entsprechenden Fahrspurnachschlagetabellen können in dem Kraftfahrzeug 20 gespeichert sein, beispielsweise in der Speichereinheit 26 des Steuergeräts 25, oder dem Kraftfahrzeug 20 über eine Kommunikationsverbindung, beispielsweise via Internet, zur Verfügung gestellt werden. Die Fahrspurnachschlagetabellen können im Vorfeld abhängig von den realen Fahrspuren 34, 36 erstellt werden, beispielsweise indem die entsprechenden Fahrspuren 34, 36 vermessen und die relevanten Messergebnisse extrahiert werden und in den entsprechenden Fahrspurnachschlagetabellen gespeichert werden. Die Fahrspurnachschlagetabellen können auch Informationen über eine oder mehrere Kurven, beispielsweise entsprechende Krümmungsdaten aufweisen.The
Die Referenzpunktpositionen der Referenzpunkte 94, 96 können beispielsweise durch GPS-Koordinaten in der Fahrspurnachschlagetabelle angegeben sein. Die Referenzpunktpositionen und optional die Referenzpunkte 94, 96 können in der Fahrspurnachschlagetabelle mit Indizes versehen und entsprechend geordnet sein. Beispielsweise kann die Fahrspurnachschlagetabelle für jeden Referenzpunkt einen Index und eine dem Index zugeordnete Referenzpunktposition des Referenzpunkts, beispielsweise innerhalb einer Zeile der Fahrspurnachschlagetabelle, aufweisen. Eine Reihenfolge der Indizes kann dabei einer Reihenfolge der Referenzpunkte 94, 96 auf der Fahrspur 34, 36 in der realen Welt entsprechen, wobei die Länge lL der Fahrspur bis zu dem entsprechenden Referenzpunkt von Referenzpunkt zu Referenzpunkt größer wird. Die Länge lL der Fahrspur bis zu dem entsprechenden Referenzpunkt kann dann unter Berücksichtigung des Abstands zwischen den Referenzpunkten auch als Anzahl von Referenzpunkten angegeben werden. Ebenso kann dann die Länge lROI des interessierenden Bereichs als Anzahl von Referenzpunkten angegeben werden.The reference point positions of the
Die Fahrspur 34, 36 zu der der interessierende Bereich 60 ermittelt werden soll, kann ein Teil der Fahrbahn 32 sein kann, die die zwei oder mehr Fahrspuren 34, 36 aufweist. Der interessierende Bereich 60 kann dann so ermittelt werden, dass er sich auf der Fahrspur 34, 36 befindet, auf der das Kraftfahrzeug 20 aktuell fährt, beispielsweise auf der ersten Fahrspur 34. Alternativ dazu kann der interessierende Bereich 60 so ermittelt werden, dass er sich auf der Fahrspur 34, 36 befindet, die neben der Fahrspur 34, 36 ist, auf der das Kraftfahrzeug 20 aktuell fährt, beispielsweise auf der zweiten Fahrspur 36.The
In einem Schritt S66 kann der interessierende Bereich 60 abhängig von den Referenzpunkten 94, 96 und abhängig von der Breite B des Kraftfahrzeugs 20 ermittelt werden. Beispielsweise kann abhängig von den vorgegebenen Referenzpunkten 94, 96 eine Fahrlinie 90, 92 (siehe
Im Detail kann der interessierende Bereich 60 abhängig von den Referenzpunkten 94, 96 und abhängig von der Breite B des Kraftfahrzeugs 20 ermittelt werden, indem die erste Außenbegrenzung 56 des interessierenden Bereichs 60 auf der einen Seite der Fahrlinie 90, 92 festgelegt wird und die zweite Außenbegrenzung 58 des interessierenden Bereichs 60 auf der anderen Seite der Fahrlinie 90, 92 festgelegt wird, wobei die Außenbegrenzungen 56, 58 jeweils einen vorgegebenen Abstand zu der Fahrlinie 90, 92 haben, und wobei die Außenbegrenzungen (56, 58) jeweils parallel zu der Fahrlinie (90, 92) verlaufen.In detail, the region of
Insbesondere können die Außenbegrenzungen 56, 58 ermittelt werden, indem zu jedem der Referenzpunkte 94, 96 ein erster Außenpunkt 52 für die erste Außenbegrenzung 56 und ein zweiter Außenpunkt 54 für die zweite Außenbegrenzung 58 ermittelt werden. Die Außenpunkte 52, 54 können so ermittelt werden, dass sie jeweils den vorgegebenen Abstand zu dem entsprechenden Referenzpunkt 94, 96 haben und dass sie jeweils auf einer Geraden liegen, die durch den entsprechenden Referenzpunkt 94, 96 verläuft und die senkrecht auf einer Tangente zu der Fahrlinie 90, 92 an dem entsprechenden Referenzpunkt 94, 96 steht. Anschließend können die ersten Außenpunkte 52 miteinander verbunden werden, um die erste Außenbegrenzung 56 zu bilden, und die zweiten Außenpunkte 54 können miteinander verbunden werden, um die zweite Außenbegrenzung 58 zu bilden.In particular, the
Der vorgegebene Abstand kann jeweils mindestens der halben Breite B des Kraftfahrzeugs 20 entsprechen. Der vorgegebene Abstand kann beispielsweise so vorgegeben werden, dass er der Breite B des Kraftfahrzeugs 20 plus eines zusätzlichen Toleranzbereichs entspricht, wobei der Toleranzbereich in einem Bereich liegen kann beispielsweise von 1 cm bis 50 cm, beispielsweise 5 cm bis 25 cm, beispielsweise ungefähr 10 cm, also ungefähr 5 cm auf jeder Seite des Kraftfahrzeugs 20. In anderen Worten kann die Breite des interessierenden Bereichs 60 so vorgegeben werden, dass sie etwas größer ist als die Breite B des Kraftfahrzeugs 20 ist. Der zusätzliche Toleranzbereich kann zu einer Sicherheit des Kraftfahrzeugs 20 beitragen.The specified distance can correspond to at least half the width B of the
Falls der interessierende Bereich 60, wie mit Bezug zu den
In einem Schritt S67 können die Sensordaten empfangen werden, beispielsweise korrespondierend zu einem der vorstehend erläuterten Schritte S2 oder S20.In a step S67, the sensor data can be received, for example corresponding to one of the steps S2 or S20 explained above.
In einem Schritt S68 kann der interessierende Bereich 60 positionsbasiert ermittelt werden, wie vorstehend erläutert.In a step S68, the region of
In einem Schritt S69 können zwei oder mehr Dreiecke ermittelt werden, die gemeinsam den interessierenden Bereich 60 abdecken. Die Dreiecke können beispielsweise anhand der Außenpunkte 52, 54 ermittelt werden. In anderen Worten kann der interessierende Bereich 60 in Dreiecke unterteilt werden, die gemeinsam den interessierenden Bereich 60 bilden, und die Überprüfung, ob sich das Objekt 50 in dem interessierenden Bereich 60 befindet oder nicht, kann für jedes dieser Dreiecke separat durchgeführt werden. Die Dreiecke können erste Dreiecke und zweite Dreiecke aufweisen, wobei eines der Dreiecke des interessierenden Bereichs 60, insbesondere eines der zweiten Dreiecke, in
Die ersten Dreiecke können jeweils mittels zwei ersten Außenpunkten 52 auf der ersten Außenbegrenzung 56 und einem zweiten Außenpunkt 54 auf der zweiten Außenbegrenzung 58 ermittelt werden. Dabei können die ersten Außenpunkte 52 mittels der Laufvariablen i, die eine natürliche Zahl ist, indiziert werden und die zweiten Au-ßenpunkte 54 können mittels der Laufvariablen j, die eine natürliche Zahl ist, indiziert werden. Somit können die ersten Dreiecke beispielsweise mittels des j-ten zweiten Außenpunkts 54 und mittels der i-ten und (i+1)-ten ersten Außenpunkte 56 ermittelt werden. Im Unterschied dazu können die zweiten Dreiecke jeweils mittels zwei der zweiten Außenpunkte 54 auf der zweiten Außenbegrenzung 58 und einem der ersten Außenpunkte 52 auf der ersten Außenbegrenzung 56 ermittelt werden. Somit können die zweiten Dreiecke beispielsweise mittels des i-ten ersten Außenpunkts 52 und mittels des j-ten und des (j+1)-ten zweiten Außenpunkts 54 ermittelt werden, wie in
Wie viele Dreiecke anhand der Außenpunkte 52, 54 ermittelt werden, um den interessierenden Bereich 60 abzudecken, kann anhand der Länge lROI des interessierenden Bereichs ermittelt werden. Dabei können die ersten und zweiten Außenpunkte 52, 54 zum Ermitteln der Dreiecke so gewählt werden, dass die Dreiecke einander nicht überlappen und den interessierenden Bereich 60 vollständig überdecken.How many triangles are determined based on the
In einem Schritt S70 kann sequentiell, also für jedes der ermittelten Dreiecke nacheinander, geprüft werden, ob sich eines oder mehrere der Objekte 50 in einem oder mehreren der Dreiecke befinden, bis alle Dreiecke überprüft sind.In a step S70, it can be checked sequentially, i.e. for each of the determined triangles one after the other, whether one or more of the
Im Anschluss kann optional noch geprüft werden, ob eines oder mehrere der Objekte in dem interessierenden Bereich 60 eine Gefahr für das Kraftfahrzeug darstellen, beispielsweise für den gesamten interessierenden Bereich 60 oder erneut für jedes der Dreiecke separat.Subsequently, it can optionally be checked whether one or more of the objects in the area of
Geschwindigkeitsbasiertes Ermitteln des ROISpeed-based ROI determination
Das Kraftfahrzeug 20 kann eine Vierradlenkung aufweisen. In diesem Fall können die Vorder- und Hinterachse des Kraftfahrzeugs 20, insbesondere die entsprechenden Räder 23, unabhängig voneinander lenken. In diesem Fall ist eine alleinige Berücksichtigung einer Longitudinalgeschwindigkeit vlong und einer Winkelgeschwindigkeit oder Gierrate ωego des Kraftfahrzeugs 20 zur Bestimmung des interessierenden Bereichs 60 nicht sinnvoll, da dies die Seitwärtsbewegung des Kraftfahrzeugs 20 bei den besonderen Fahrmanövern nicht berücksichtigt.The
Ein eleganter Ansatz, auch die Seitwärtsbewegung zu berücksichtigen, ergibt sich aus der Art und Weise, wie Forces die Fahrzeugbewegung parametrisiert, beispielsweise in „A generic vehicle controller“, von A. J. de Graaf, Technical Report (unnumbered), Frog Navigation Systems B.V., September 2003. Unfinished; und/oder in „Steering pole“, A. J. de Graaf, Technical Report (unnumbered), 2getthere B.V., July 2012. Insbesondere definiert Forces das Konzept eines „virtuellen Lenkrads“, das im Rahmen der Ermittlung des interessierenden Bereichs 60 als ein kinematisches Fahrradmodell eines virtuellen Fahrrads mit Vorderradlenkung interpretiert werden kann. Dabei fällt der Hinterradmittelpunkt des virtuellen Fahrrads mit dem Fahrzeugbezugspunkt P zusammen, der im Falle des Kraftfahrzeugs 20 als geometrischer Fahrzeugmittelpunkt gewählt werden kann. Dieses Konzept ist in
- - ein Seitenwinkel δc, der den Winkel zwischen dem virtuellen Fahrrad und der longitudinalen Achse V beschreibt;
- - ein Lenkwinkel δs, der den Lenkwinkel des virtuellen Fahrrads mit Vorderradlenkung beschreibt;
- - eine Länge lF, die einen Abstand zwischen den Vorder- und Hinterrädern des virtuellen Fahrrads darstellt, wobei die Länge lF gleich dem Abstand zwischen dem Zentrum Z und der Vorderachse des Kraftfahrzeugs 20 gewählt wird.
- - a lateral angle δ c describing the angle between the virtual bicycle and the longitudinal axis V;
- - a steering angle δ s , which describes the steering angle of the virtual bicycle with front wheel steering;
- - a length l F representing a distance between the front and rear wheels of the virtual bicycle, the length l F being chosen to be equal to the distance between the centre Z and the front axle of the
motor vehicle 20.
Bei einer vorgegebenen Länge lF des Rahmens des virtuellen Fahrrads sind die Winkel δc und δs so beschaffen, dass ein momentanes Rotationszentrum (Instantaneous Center of Rotation (ICR)) des virtuellen Fahrrads dem des Kraftfahrzeugs 20 entspricht, wodurch eine einfache Darstellung der Bewegung des Kraftfahrzeugs 20 erreicht werden kann, die eine Grundlage für die Ermittlung des interessierenden Bereichs 60 bietet.For a given length l F of the frame of the virtual bicycle, the angles δ c and δ s are such that an instantaneous center of rotation (ICR) of the virtual bicycle corresponds to that of the
Es ist zu beachten, dass dieses Konzept zwar die Seitwärtsbewegung des Kraftfahrzeugs 20 mit Hilfe des Seitenwinkel δc beschreiben kann, nicht aber einen sich ändernden Seitenwinkel δc. Daher wird eine Ableitung des Seitenwinkels δc als gleich null angenommen. Diese Annahme impliziert, dass die Winkelgeschwindigkeit des Kraftfahrzeugs 20, auch bezeichnet als die Gierrate ωego, mit der Gierrate ω des virtuellen Fahrrads identisch ist.It should be noted that although this concept can describe the sideways motion of the
Dem Steuergerät 25 stehen die Longitudinalgeschwindigkeit vlong und die Lateralgeschwindigkeit vlat des Zentrums Z sowie die Gierrate ωego zur Verfügung. Der Seitenwinkel δc ergibt sich dann aus
Bei einer niedrigen Geschwindigkeit vego des Kraftfahrzeugs 20 kann die Berechnung des Seitenwinkels δc aufgrund von Messrauschen in der Praxis oder numerischen Ungenauigkeiten in einer entsprechenden Simulation ungenau sein. Dieses Problem kann gemildert werden, indem der Seitenwinkel δc bei abnehmender Geschwindigkeit auf Null gesetzt wird. Beispielsweise kann eine obere Grenze δlim(v) und eine untere Grenze -δlim(v) des Seitenwinkels δc in Abhängigkeit von der Geschwindigkeit v des Kraftfahrzeugs 20 vorgegeben werden, wobei sich die Geschwindigkeit v des virtuellen Fahrrads ergibt aus
Somit kann der Seitenwinkel δc wie folgt ermittelt werden:
Um den Lenkwinkel δs zu erhalten, kann die Geschwindigkeit vs einer Mitte S des Vorderrads des virtuellen Fahrrads bestimmt werden. Interpretiert man vs als den Geschwindigkeitsvektor dieser Mitte S im realen Zahlenraum, so ergibt sich
Nimmt man ein Koordinatensystem an, das aus der Longitudinal- und der Lateralachse des Fahrzeugkoordinatensystems und einer Z-Achse senkrecht zur Fahrzeugebene besteht, kann vs durch seine drei Komponenten ausgedrückt werden, d. h.
In diesem Koordinatensystem folgt auch, dass
Im Ergebnis ergibt sich
Da das virtuelle Fahrrad per Definition eine rein kinematische Bewegung durchführ, entspricht eine Ausrichtung des Vorderrads des virtuellen Fahrrads der Richtung von vs. Daher kann der Lenkwinkel δs als der Winkel zwischen v und vs betrachtet werden, der sich wie folgt bestimmen lässt
Somit ergibt sich
Außerdem kann der Seitenwinkel δc entweder mit oder ohne die im Vorhergehenden erwähnten Grenzen bestimmt werden.In addition, the side angle δ c can be determined either with or without the limits mentioned above.
Es kann aber auch Steuergeräte 25 geben, denen der Seitenwinkel δc, der Lenkwinkel δs und/oder die Geschwindigkeit vs des Vorderrads des virtuellen Fahrrads bekannt sind, beispielsweise aufgrund einer Sicherheitsfunktion des Steuergeräts, so dass diese Werte direkt vorliegen und nicht wie vorstehend erläutert ermittelt werden müssen.However, there may also be
Somit kann der interessierende Bereich 60 vollständig bestimmt werden durch die Geschwindigkeit v = ||v||, die Gierrate ω = ||ω|| und die Ausrichtung des virtuellen Fahrrads in Bezug auf das Kraftfahrzeug 20, die dem Seitenwinkel δc entspricht. Somit kann die Geschwindigkeit v anhand der Komponente vs in Longitudinalrichtung des virtuellen Fahrrads wie folgt angegeben werden
Auf ähnliche Weise kann die Gierrate ω auf der Grundlage der Komponente vs bestimmt werden, die durch eine Drehung des virtuellen Fahrrads verursacht wird, und angeben werden als
Für diese und die folgenden Berechnungen wird davon ausgegangen, dass das Kraftfahrzeug 20 in Vorwärtsrichtung, und zwar in der ersten Fahrtrichtung, fährt. Das Fahren in Rückwärtsrichtung erfordert eine kleine Anpassung der Berechnungen, wie weiter unten erläutert.For this and the following calculations, it is assumed that the
Der interessierende Bereich 60 wird durch die voraussichtliche Fahrstrecke des Kraftfahrzeugs 20 bestimmt, dargestellt durch das virtuelle Fahrrad. Zu diesem Zweck deckt der interessierende Bereich 60 einen Bereich ab, der entlang eines Bogens „gekrümmt“ ist, mit einer Breite, die mit zunehmender Entfernung vom Kraftfahrzeug 20 zunimmt, und der bestimmten, endlichen Länge lROI. Ein Mittelpunkt des interessierenden Bereichs 60 fällt mit dem momentanen Rotationszentrum ICR des Kraftfahrzeugs 20 zusammen.The region of
Der interessierende Bereich 60 gilt nur für sich vor dem Kraftfahrzeug 20 befindende Objekte 50, d. h. Pxt ≥ lF, wobei Pxt die x-Koordinate des Objekte 50 im Koordinatensystem P ist und die Länge lF der Abstand zwischen der Mitte des Hinterrads und der Mitte des Vorderrads des virtuellen Fahrrads sind, wobei die Länge lF somit der Länge des Rahmens des virtuellen Fahrrads entspricht. Um festzustellen, ob sich eines der Objekte 50 in dem interessierenden Bereich 60 befindet, können ein Zielabstand dt von dem Kraftfahrzeug 20 zu dem Objekt 50 entlang der Mittellinie des interessierenden Bereichs 60 in Bezug auf den Ursprung des Koordinatensystems S und ein Zielradius Rt von dem Rotationszentrum ICR zu dem Objekt 50 ermittelt werden.The area of
Der Zielabstand dt kann beispielsweise angegeben werden als
Die Koordinaten der Zielposition im Koordinatensystem S sind gleich
Somit ergibt sich
Eine verbleibende unbekannte Variable, die für die Berechnung von dt erforderlich ist, ist der Radius RICR mit dem Rotationszentrum ICR, der wie folgt bestimmt werden kann
Außerdem wird neben dt auch der Zielradius Rt in Bezug auf das Rotationszentrum ICR benötigt, um zu bestimmen, ob sich eines der Objekte 50 in dem interessierenden Bereich 60 befindet. Dieser Zielradius Rt ist gleich
Zu diesem Zeitpunkt sind der Zielabstand dt entlang der Mittellinie des interessierenden Bereichs 60 und der Zielradius Rt bekannt. Allerdings kann es bei den vorstehenden Berechnungen Probleme geben, wenn das Kraftfahrzeug 20 geradeaus fährt (v > 0, ω = 0) und stillsteht (v = ω = 0). Diese beiden Fälle werden im Folgenden separat betrachtet.At this point, the target distance d t along the centerline of the region of
Beim geradeaus Fahren geht RICR gegen Unendlich. Da nicht alle Steuergeräte 25 damit umgehen können, kann ein Maximalwert RICR,max für den Zielradius Rt eingeführt werden, der beispielsweise auf 106 m festgelegt werden kann, was fast einer Geradeausfahrt entspricht. Da eine einfache Begrenzung von RICR immer noch bedeuten würde, dass die RICR zuerst berechnet werden müsste, kann die Obergrenze auf andere Weise eingeführt werden, wie nachfolgend erläutert.When driving straight ahead, R ICR approaches infinity. Since not all
Zunächst kann ein Begriff der „gemessenen Gierrate“ ωm eingeführt werden, die entweder gemessen oder ermittelt werden kann und angeben werden kann als
Anschließend kann eine Untergrenze für den absoluten Wert der gemessenen Gierrate ωm festgelegt werden:
Infolgedessen ist eine Obergrenze RICR,max für RICR eingeführt, wodurch numerische oder rechnerische Probleme bei der Geradeausfahrt vermieden werden können.As a result, an upper limit R ICR,max for R ICR is introduced, which can avoid numerical or computational problems when driving straight ahead.
Beim Abbremsen bis zum Stillstand können zwei weitere Probleme bei den vorstehenden Berechnungen auftreten. Erstens muss beim Stillstand, d. h. v = 0, gelten, dass ωm = 0 ist und somit ω = 0 ist, wodurch RICR unbestimmt bleibt. Zweitens werden sowohl die Geschwindigkeit v als auch die Gierrate ω beim Abbremsen bis zum Stillstand oder bei niedrigen Geschwindigkeiten sehr klein. Folglich kann das Steuergerät 25 bei der Berechnung von RICR sehr empfindlich auf Lenkvorgänge sowie auf ein Messrauschen bei der Geschwindigkeit v und/oder ωm reagieren.When braking to a standstill, two further problems may arise with the above calculations. First, at standstill, ie v = 0, ω m = 0 must hold and thus ω = 0, leaving R ICR undetermined. Second, both the speed v and the yaw rate ω become very small when braking to a standstill or at low speeds. Consequently, the
Es kann verhindert werden, dass RICR beim Stillstand unbestimmt bleibt, indem eine Mindestgeschwindigkeit vROI,min > 0 eingeführt wird, woraus folgt
Das zweite Problem, d. h. die Empfindlichkeit der Messungen gegenüber dem Rauschen bei sehr niedrigen Geschwindigkeiten, kann bis zu einem gewissen Grad gemildert werden, indem RICR bei niedrigen Geschwindigkeiten auf RICR,max gesetzt wird. Ferner kann eine geschwindigkeitsabhängige Untergrenze RICR,lb(v) für RICR eingeführt werden. Daraus ergibt sich
Ferner kann RICR,min als Mindestradius beispielsweise gleich einem Mindestwenderadius des Kraftfahrzeugs 20 gewählt werden, wodurch RICR,lb(v) angegeben werden kann durch
Dennoch kann es sein, dass die Grenzen des interessierenden Bereichs 60 bei niedrigen Geschwindigkeiten aufgrund der Empfindlichkeit der Berechnung des RICR bei Lenkbewegungen immer noch relativ ungenau werden können. Um eine gleichmäßige Reaktion auf diese Lenkvorgänge zu erzielen, kann die gemessene Gierrate ωm mit einem Tiefpassfilter gefiltert werden, beispielsweise gemäß dem folgenden diskreten Zeitfilter erster Ordnung:
Die Grenzen des interessierenden Bereichs 60 können beschrieben werden, indem dessen Außenbegrenzungen 56, 58 mathematisch beschrieben werden. Dies kann beispielsweise dazu verwendet werden, um den interessierenden Bereich 60 zu visualisieren. Die erste Außenbegrenzung 56, die in den Figuren die rechte Außenbegrenzung des interessierenden Bereichs 60 ist, kann durch die parametrisierten Koordinaten (Pxr, Pyr) beschrieben und die zweite Außenbegrenzung 58, die in den Figuren die linke Außenbegrenzung des interessierenden Bereichs 60 ist, kann durch die parametrisierten Koordinaten (Pxl, Pyl) beschrieben werden, jeweils im Koordinatensystem P des virtuellen Fahrrads. Somit können die Außenbegrenzungen 56, 58 angegeben werden durch
In einem Schritt S71 können die Geschwindigkeitsdaten empfangen werden, die für eine aktuelle Geschwindigkeit vego des Kraftfahrzeugs 20 repräsentativ sind, beispielsweise korrespondierend zu dem Schritt S24.In a step S71, the speed data representative of a current speed v ego of the
In einem Schritt S72 können Gierdaten empfangen werden, die für die Gierrate ωego des Kraftfahrzeugs 20 repräsentativ sind. Die Gierrate ωego des Kraftfahrzeugs 20 kann beispielsweise mittels eine Gierratensensors, eines Magnetsensors, beispielsweise einem Kompass, GPS, und/oder mittels einer inertialen Messeinheit (Inertial Measurement Unit (IMU) erzeugt werden, an das Steuergerät 25 übermittelt werden und von dem Steuergerät 25 empfangen werden.In a step S72, yaw data can be received that is representative of the yaw rate ω ego of the
In einem Schritt S72 kann der Seitenwinkel δc abhängig von den Geschwindigkeitsdaten ermittelt werden, beispielsweise anhand der im Vorhergehenden erläuterten Formeln, wobei der Seitenwinkel δc der Winkel zwischen einem Rahmen eines vorgegebenen virtuellen Fahrrads und der longitudinalen Achse V des Kraftfahrzeugs 20 ist. Dabei kann das virtuelle Fahrrad so vorgeben werden, dass die Hinterachse des virtuellen Fahrrads durch das geometrische Zentrum Z des Kraftfahrzeugs 20 verläuft und dass die Länge lF des Rahmens des virtuellen Fahrrads einem Abstand des Zentrums Z zu der Vorderachse des Kraftfahrzeugs 20 entspricht.In a step S72, the side angle δ c can be determined depending on the speed data, for example using the formulas explained above, where the side angle δ c is the angle between a frame of a given virtual bicycle and the longitudinal axis V of the
Die aktuelle Geschwindigkeit vego des Kraftfahrzeugs 20 kann in Form einer lateralen Geschwindigkeit vlat und einer longitudinalen Geschwindigkeit vlong des Zentrums Z in den Geschwindigkeitsdaten codiert sein. Der Seitenwinkel δc kann dann abhängig von der lateralen Geschwindigkeit vlat und der longitudinalen Geschwindigkeit vlong des Zentrums Z ermittelt werden. Beispielsweise kann der Seitenwinkel δc mittels einer Umkehrfunktion der Winkelfunktion Tangens abhängig von der lateralen Geschwindigkeit vlat und der longitudinalen Geschwindigkeit vlong ermittelt werden, wie im Vorhergehenden erläutert.The current speed v ego of the
In einem Schritt S74 kann der interessierende Bereich 60 abhängig von dem Seitenwinkel δc und der Gierrate ω oder ωego ermittelt werden, beispielsweise anhand der im Vorhergehenden erläuterten Formeln.In a step S74, the region of
Nachfolgend kann einfach geprüft werden, ob sich eines der Objekte 50 in dem geschwindigkeitsbasiert ermittelten interessierenden Bereich 60 befindet. Beispielsweise kann das Objekt 50 als sich in dem interessierenden Bereich 60 befindend klassifiziert werden, wenn folgende Bedingungen erfüllt sind:
Falls das Kraftfahrzeug 20 in Rückwärtsrichtung fährt, so können die vorstehend erläuterten Formeln unverändert verwendet werden, um den interessierenden Bereich 60 zu ermitteln und/oder um zu prüfen, ob sich eines der Objekte 50 in dem interessierenden Bereich 60 befindet, wobei lediglich das Vorzeichen der gemessenen Gierrate ωm geändert werden muss.If the
SpurdetektorTrack detector
In einem Schritt S80 können die Positionsdaten empfangen werden, die für die aktuelle Fahrzeugposition des Kraftfahrzeugs 20 repräsentativ sind, beispielsweise korrespondierend zu den vorstehend erläuterten Schritten S22, S46 oder S60. Wie vorstehend erläutert können die Positionsdaten in Form von X- und Y-Koordinaten vorliegen. Falls die Positionsdaten für die Fahrzeugorientierung des Kraftfahrzeugs 20 repräsentativ sind, so können die Positionsdaten die aktuelle Fahrzeugorientierung, insbesondere in Form des Gierwinkels, aufweisen.In a step S80, the position data that are representative of the current vehicle position of the
In einem Schritt S82 kann eine Referenzpunktposition eines der Referenzpunkte 94, 96 entlang der Fahrspur 34, 36 ermittelt werden. Die Referenzpunktposition kann abhängig von den Positionsdaten anhand einer ersten Fahrspurnachschlagetabelle ermittelt werden, die der entsprechenden Fahrspur 34, 36 zugeordnet ist und in der den Referenzpunkten 94, 96 die entsprechende Referenzpunktpositionen zugeordnet sind. Die Referenzpunkte 94, 96 können für einen Verlauf der entsprechenden Fahrspur 34, 36 in Fahrtrichtung vor dem Kraftfahrzeug 20 repräsentativ sein. Die Referenzpunktposition und der entsprechende Referenzpunkt 94,96 können so ermittelt werden, dass die Referenzpunktposition der aktuellen Fahrzeugposition des Kraftfahrzeugs 20 am nächsten liegt, verglichen mit den Referenzpunktpositionen der anderen Referenzpunkte 94,96 in der ersten Fahrspurnachschlagetabelle.In a step S82, a reference point position of one of the
Die ersten Referenzpunkte 94 können zusammen mit ihren Referenzpunktpositionen, beispielsweise in Form von X- und Y-Koordinaten, mit den Fahrspurorientierungen an den entsprechenden ersten Referenzpunkten 94 und optional mit den Längen lL der ersten Fahrspur 34 an den entsprechenden ersten Referenzpunkten 94 in der ersten Fahrspurnachschlagetabelle gespeichert sein. Die zweiten Referenzpunkte 96 können zusammen mit ihren Referenzpunktpositionen, beispielsweise in Form von X- und Y-Koordinaten, mit den Fahrspurorientierungen an den entsprechenden zweiten Referenzpunkten 96 und optional mit den Längen lL der zweiten Fahrspur 36 an den entsprechenden zweiten Referenzpunkten 96 in der einer zweiten Fahrspurnachschlagetabelle gespeichert sein.The
Falls in den Fahrspurnachschlagetabellen den Referenzpunkten 94, 96 jeweils die Fahrspurorientierung der entsprechenden Fahrspur 34, 36 an den entsprechenden Referenzpunkten 94, 96 zugeordnet ist, so kann in dem Schritt S82 anhand der ersten Fahrspurnachschlagetabelle zusätzlich zu der Referenzpunktposition die Fahrspurorientierung an der ermittelten Referenzpunktposition, die dem entsprechenden Referenzpunkt 94, 96 zugeordnet ist und die der aktuellen Kraftfahrzeugposition am nächsten liegt, ermittelt werden.If the lane orientation of the
Die erste und gegebenenfalls weitere Fahrspurnachschlagetabellen können im Vorfeld abhängig von den realen Fahrspuren 34, 36 erstellt werden, beispielsweise indem die entsprechenden Fahrspuren 34, 36 vermessen und die relevanten Messergebnisse extrahiert werden und in den entsprechenden Fahrspurnachschlagetabellen gespeichert werden. Die Fahrspurnachschlagetabellen können auch Informationen über eine oder mehrere Kurven, beispielsweise entsprechende Krümmungsdaten aufweisen, wobei die Krümmungsdaten in Form der Fahrspurorientierungen in der entsprechenden Fahrspurnachschlagetabelle abgespeichert sein können.The first and possibly further lane lookup tables can be created in advance depending on the
In einem Schritt S84 kann ein Abstand der ermittelten Referenzpunktposition zu der aktuellen Fahrzeugposition ermittelt werden. Beispielsweise können die Referenzpunktposition und die aktuelle Fahrzeugposition in kartesischen Koordinaten desselben Koordinatensystems vorliegen und der Abstand kann anhand einfacher bekannter mathematischer Methoden ermittelt werden. Beispielsweise kann der Abstand als euklidischer Abstand ermittelt werden und/oder angegeben werden.In a step S84, a distance between the determined reference point position and the current vehicle position can be determined. For example, the reference point position and the current vehicle position can be in Cartesian coordinates of the same coordinate system and the distance can be determined using simple, known mathematical methods. For example, the distance can be determined and/or specified as a Euclidean distance.
Falls die Positionsdaten für die Fahrzeugorientierung des Kraftfahrzeugs 20 repräsentativ sind und in dem Schritt S82 anhand der ersten Fahrspurnachschlagetabelle zusätzlich zu der Referenzpunktposition die Fahrspurorientierung an der ermittelten Referenzpunktposition ermittelt wird, so kann in dem Schritt S84 zusätzlich zu dem Abstand eine Abweichung der aktuellen Fahrzeugorientierung von der ermittelten Fahrspurorientierung ermittelt werden.If the position data are representative of the vehicle orientation of the
Wenn man davon ausgeht, dass die Ausgabewerte der verwendeten Sensoren und/oder des entsprechenden Steuergeräts normalverteilt sind, so können der Abstand und die Abweichung gemäß einer Gaußverteilung angegeben werden als
Daraus folgt, dass die quadrierte Norm der Zustandsabweichungen in Bezug auf eine Präzisionsmatrix Σ-1 gemäß der Chi-Quadrat-Verteilung mit k = 3 Freiheitsgraden verteilt ist, weswegen gilt
In einem Schritt S86 kann die Wahrscheinlichkeit, mit der sich das Kraftfahrzeug 20 auf der entsprechenden Fahrspur 34, 36 befindet, abhängig von dem Abstand ermittelt werden. Beispielsweise kann die Wahrscheinlichkeit anhand einer vorgegebenen Abstandnachschlagetabelle, in der verschiedenen Abständen entsprechende Wahrscheinlichkeiten zugeordnet sind, ermittelt werden. Die Abstandnachschlagetabelle kann im Vorfeld empirisch oder mittels Simulation ermittelt werden und beispielsweise auf der Speichereinheit 26 gespeichert werden. Die Wahrscheinlichkeit, mit der sich das Kraftfahrzeug 20 auf der entsprechenden Fahrspur 34, 36 befindet, kann beispielsweise verwendet werden, um den interessierenden Bereich 60 positionsbasiert zu ermitteln, wie im Vorhergehenden erläutert.In a step S86, the probability with which the
Falls in dem Schritt S84 die Abweichung der Fahrzeugorientierung von der Fahrspurorientierung ermittelt wird, so kann die Wahrscheinlichkeit anhand der vorgegebenen Abstandnachschlagetabelle ermittelt werden, wobei in diesem Zusammenhang in der Abstandnachschlagetabelle verschiedenen Abständen und/oder verschiedenen Abweichungen entsprechende Wahrscheinlichkeiten zugeordnet sind, ermittelt werden.If the deviation of the vehicle orientation from the lane orientation is determined in step S84, the probability can be determined using the predetermined distance lookup table, wherein in this context different distances and/or different deviations are assigned corresponding probabilities in the distance lookup table.
Alternativ dazu können der Abstand und die Abweichung gemeinsam berücksichtigt werden in Form von
Optional kann in dem Schritt S86 die ermittelte Wahrscheinlichkeit, mit der sich das Kraftfahrzeug 20 auf der Fahrspur 34, 36 befindet, mit einem vorgegebenen Fahrspurschwellenwert verglichen werden. Wenn die ermittelte Wahrscheinlichkeit kleiner als der vorgegebene Fahrspurschwellenwert ist, so kann das Kraftfahrzeug 20 als sich nicht auf der entsprechenden Fahrspur 34, 36 befindend klassifiziert werden. Wenn die Wahrscheinlichkeit gleich wie oder größer als der vorgegebene Fahrspurschwellenwert ist, kann das Kraftfahrzeug 20 als sich auf der entsprechenden Fahrspur 34, 36 befindend klassifiziert werden. Der vorgegebene Fahrspurschwellenwert kann beispielsweise größer als 80 %, beispielsweise größer als 85 %, beispielsweise größer als 90 % vorgegeben werden und maximal 100 % betragen.Optionally, in step S86, the determined probability with which the
Optional kann das Kraftfahrzeug 20 dazu konfiguriert sein, auf der entsprechenden Fahrspur 34, 36 wahlweise in eine erste Fahrtrichtung oder in eine der ersten Fahrtrichtung entgegengesetzten zweiten Fahrtrichtung zu fahren, wobei die erste Fahrspurnachschlagetabelle für den Verlauf der ersten Fahrspur 34 in der ersten Fahrtrichtung repräsentativ sein kann und eine zweite Fahrspurnachschlagetabelle für den Verlauf der erste Fahrspur 34 in der zweiten Fahrtrichtung repräsentativ sein kann. In diesem Zusammenhang kann die aktuelle Fahrtrichtung des Kraftfahrzeugs 20 beispielsweise anhand der Positionsdaten, insbesondere der aktuellen Fahrzeugorientierung, insbesondere dem aktuellen Gierwinkel, ermittelt werden. Anhand der Fahrtrichtung kann dann zum Ermitteln der Referenzpunktposition, die der aktuellen Fahrzeugposition des Kraftfahrzeugs 20 am nächsten liegt, die erste oder die zweite Fahrspurnachschlagetabelle ausgewählt werden. Insbesondere kann die Referenzpunktposition, die der aktuellen Fahrzeugposition des Kraftfahrzeugs 20 am nächsten liegt, anhand der ersten Fahrspurnachschlagetabelle ermittelt werden, wenn die aktuelle Fahrtrichtung der ersten Fahrtrichtung entspricht, und die Referenzpunktposition kann anhand der zweiten Fahrspurnachschlagetabelle ermittelt werden, wenn die aktuelle Fahrtrichtung der zweiten Fahrtrichtung entspricht, wobei in der zweiten Fahrspurnachschlagetabelle die Referenzpunktpositionen den ersten Referenzpunkten 94 zugeordnet sind, die für den Verlauf der ersten Fahrspur 34 in der zweiten Fahrtrichtung repräsentativ sind.Optionally, the
Falls die Fahrbahn 32 als Fahrspur die erste Fahrspur 34 und mindestens die zweite Fahrspur 36 direkt neben der ersten Fahrspur 34 aufweist, so kann mittels des vorstehend beschriebenen Verfahrens zum Ermitteln der Wahrscheinlichkeit, mit der sich das Kraftfahrzeug 20 auf der Fahrspur 34, 36 der Fahrbahn 32 befindet, geprüft werden, ob sich das Kraftfahrzeug 20 auf der zweiten Fahrspur 36 befindet. Beispielsweise kann die Referenzpunktposition, die der aktuellen Fahrzeugposition des Kraftfahrzeugs 20 am nächsten liegt, anhand einer dritten Fahrspurnachschlagetabelle ermittelt werden, wobei in der dritten Fahrspurnachschlagetabelle die Referenzpunktpositionen den zweiten Referenzpunkten 96 zugeordnet sind, die für einen Verlauf der zweiten Fahrspur 36 in der zweiten Fahrtrichtung repräsentativ sind. Ferner kann eine vierte Fahrspurnachschlagetabelle hinterlegt sein, in der die Referenzpunktpositionen den zweiten Referenzpunkten 96 zugeordnet sind, die für den Verlauf der zweiten Fahrspur 36 in der ersten Fahrtrichtung repräsentativ sind.If the
Somit kann nicht nur in der ersten Fahrspurnachschlagetabelle nach der Referenzpunktposition gesucht werden, die der aktuellen Fahrzeugposition des Kraftfahrzeugs 20 am nächsten liegt, sondern auch in der zweiten, dritten und/oder vierten Fahrspurnachschlagetabelle. Beispielsweise kann nach der Referenzpunktposition, die der aktuellen Fahrzeugposition des Kraftfahrzeugs 20 am nächsten liegt, in der vierten Fahrspurnachschlagetabelle gesucht werden, wenn das Kraftfahrzeug 20 in der ersten Fahrtrichtung fährt und der Abstand der aktuellen Fahrzeugposition zu der naheliegendsten Referenzpunktposition aus der ersten Fahrspurnachschlagetabelle größer als der vorgegebene Fahrspurschwellenwert ist. Sollte dann der Abstand der aktuellen Fahrzeugposition zu der naheliegendsten Referenzpunktposition aus der vierten Fahrspurnachschlagetabelle kleiner als der vorgegebene Fahrspurschwellenwert sein, so wird das Kraftfahrzeug 20 als sich auf der zweiten Fahrspur 36 befindend klassifiziert. Sollte jedoch bereits der Abstand der aktuellen Fahrzeugposition zu der naheliegendsten Referenzpunktposition aus der ersten Fahrspurnachschlagetabelle kleiner als der vorgegebene Fahrspurschwellenwert sein, so kann auf eine Konsultation der vierten Fahrspurnachschlagetabelle verzichtet werden und das Kraftfahrzeug 20 kann als sich auf der ersten Fahrspur 34 befindend klassifiziert werden.Thus, the reference point position closest to the current vehicle position of the
Alternativ können der der aktuellen Fahrzeugposition naheliegendste erste Referenzpunkt 94 aus der ersten Fahrspurnachschlagetabelle und der der aktuellen Fahrzeugposition naheliegendste zweite Referenzpunkt 96 aus der vierten Fahrspurnachschlagetabelle gesucht werden, und die entsprechenden Abstände zu der aktuellen Fahrzeugposition können ermittelt werden. Falls der Abstand zwischen der aktuellen Fahrzeugposition und dem ermittelten ersten Referenzpunkt 94 kleiner ist als der Abstand zwischen der aktuellen Fahrzeugposition und dem ermittelten zweiten Referenzpunkt 96 so kann das Kraftfahrzeug 20 als sich auf der ersten Fahrspur 34 befindend klassifiziert werden. Falls der Abstand zwischen der aktuellen Fahrzeugposition und dem ermittelten erste Referenzpunkt 94 größer ist als der Abstand zwischen der aktuellen Fahrzeugposition und dem ermittelten zweiten Referenzpunkt 96, so kann das Kraftfahrzeug 20 als sich auf der zweiten Fahrspur 36 befindend klassifiziert werden. Sollten jedoch beide Abstände größer als der vorgegebene Fahrspurschwellenwert sein, so kann das Kraftfahrzeug 20 als sich weder auf der ersten noch auf der zweiten Fahrspur 34, 36 befindend klassifiziert werden.Alternatively, the
Falls für die Überprüfung, auf welcher Fahrspur 34, 36 sich das Kraftfahrzeug 20 aktuell befindet, mittels des im Vorhergehenden erläuterten Konfidenzwerts γ∑ ermittelt wird und somit sowohl der Abstand zwischen der Position des Kraftfahrzeugs 20 und dem naheliegendsten Referenzpunkt 94, 96 als auch die Abweichung zwischen der aktuellen Fahrzeugorientierung und der Fahrspurorientierung in dem naheliegendsten Referenzpunkt 94, 96 bei der Überprüfung berücksichtigt werden, so kann beispielsweise der Konfidenzwert γ∑ für alle Fahrspuren 34, 36 und Fahrtrichtungen, insbesondere anhand der ersten bis vierten Fahrspurnachschlagetabellen, ermittelt werden. Nachfolgend kann das Kraftfahrzeug 20 als sich auf der Fahrspur 34, 36 befindend klassifiziert werden, zu der der Konfidenzwert γ∑ am höchsten ist. Optional kann das Kraftfahrzeug 20 als sich auf keiner der Fahrspuren 34, 36 befindend klassifiziert werden, wenn der höchste Konfidenzwert γ∑ kleiner als der vorgegebene Fahrspurschwellenwert ist.If the check to determine which
Der Fahrspurschwellenwert kann beispielsweise ermittelt werden, indem zunächst festgelegt wird, wie weit das Kraftfahrzeug 20 bezüglich seiner Position und Orientierung von der Fahrspur 34, 36 abweichen darf, um gerade noch als sich auf der entsprechenden Fahrspur 34, 36 befindend klassifiziert werden zu können. Beispielsweise können entsprechende Schwellenwerte im Vorfeld empirisch und/oder per Simulation ermittelt werden und in dem Steuergerät 25 gespeichert werden. Beispielsweise kann ein maximaler Abstand der X-Koordinate und der Y-Koordinate der Position des Kraftfahrzeugs 20 von der X-Koordinate bzw. der Y-Koordinate der Referenzpunktposition des entsprechenden Referenzpunkts 94, 96 mit jeweils 0,2 m vorgegeben werden, und eine maximale Abweichung der aktuellen Fahrzeugorientierung von der Fahrspurorientierung an dem entsprechenden Referenzpunkt 94, 96 kann mit 0,108 rad vorgegeben werden. Daraus ergibt sich die Konfidenzmatrix
Daraus ergibt sich als Kovarianz im Beobachtungsraum
Falls erkannt werden soll, dass das Kraftfahrzeug 20 nur dann als sich auf einer der Fahrbahnen 34, 36 befinden klassifiziert werden soll, wenn die Abstände und/oder Abweichungen innerhalb festgelegter Grenzen liegen, so kann von einem z-Score z°=°1 ausgegangen werden. Damit ergibt sich der Fahrspurschwellenwert beispielsweise zu
Wenn
TTC und Länge ROITTC and length ROI
Somit können zu einer oder mehreren Geschwindigkeiten vego des Kraftfahrzeugs 20 entsprechend ein oder mehr erste Zeitschwellenwerte für die erste Fahrsituation A, ein oder mehr zweite Zeitschwellenwerte für die zweite Fahrsituation B, und/oder ein oder mehr dritte Zeitschwellenwerte für die dritte Fahrsituation C ermittelt werden. Die erste Fahrsituation A kann sich beispielsweise darauf beziehen, dass sich das Kraftfahrzeug 20 dem Objekt 50 nähert und das Objekt 50 stationär ist. Die zweite Fahrsituation B kann sich beispielsweise darauf beziehen, dass das Objekt 50 ein dem Kraftfahrzeug 20 entgegenkommendes Kraftfahrzeug 20 ist, wobei im Vorliegenden Fall bei der Simulation der zweiten Fahrsituation B nur Geschwindigkeiten vego des Kraftfahrzeugs 20 bis 5,56 m/s berücksichtigt wurden, weswegen der entsprechende Verlauf in dem Diagramm gemäß
Anhand des in
Als Gesamt-Zeitschwellenwert bei einer vorgegebenen Geschwindigkeit vego des Kraftfahrzeugs 20 kann somit der größte der Zeitschwellenwerte bei der vorgegebenen Geschwindigkeit vego gewählt werden, beispielsweise gemäß
In einem Schritt S80 können die Sensordaten empfangen werden, die dafür repräsentativ sind, dass sich in Fahrtrichtung vor dem Kraftfahrzeug 20 das Objekt 50 befindet. Der Schritt S80 kann beispielsweise korrespondierend zu den Schritten S2, S20 oder S67 abgearbeitet werden.In a step S80, the sensor data can be received which are representative of the fact that the
In einem Schritt S82 können die Geschwindigkeitsdaten empfangen werden, die für die aktuelle Geschwindigkeit vego des Kraftfahrzeugs 20 repräsentativ sind. Die aktuelle Geschwindigkeit vego kann beispielsweise anhand der Radardaten ermittelt werden oder von der Speichereinheit 26 abgerufen werden.In a step S82, the speed data representative of the current speed v ego of the
In einem Schritt S84 kann die Zeitdauer TTC ermittelt werden, die vergeht, bis das Kraftfahrzeug 20 mit dem Objekt 50 kollidiert, abhängig von den Sensordaten und den Geschwindigkeitsdaten. Die Zeitdauer TTC kann definiert sein als Δtc(t) in der Form
Folglich gibt die Zeitdauer TTC bzw. Δtc(t) das Zeitintervall von einem aktuellen Zeitpunkt t bis zu einem Moment t+Δtc(t) an, in dem der Sicherheitsabstand ds verletzt wird, wobei davon ausgegangen wird, dass sowohl das Kraftfahrzeug 20 als auch das Objekt 50 eine konstante Geschwindigkeit beibehalten und dass auf Kollisionskurs sind.Consequently, the time period TTC or Δt c (t) indicates the time interval from a current point in time t to a moment t+Δt c (t) at which the safety distance d s is violated, assuming that both the
In dem Schritt S86 kann der geschwindigkeitsabhängige Zeitschwellenwert
In einem Schritt S87 kann geprüft werden, ob die ermittelte Zeitdauer TTC kleiner als der ermittelte Zeitschwellenwert ist. Ist die Bedingung des Schritts S87 erfüllt, so kann die Bearbeitung erneut in dem Schritt S80 fortgesetzt werden. Ist die Bedingung des Schritts S87 nicht erfüllt, so kann die Bearbeitung in einem Schritt S88 fortgesetzt werden.In a step S87, it can be checked whether the determined time period TTC is less than the determined time threshold value. If the condition of step S87 is met, processing can be continued again in step S80. If the condition of step S87 is not met, processing can be continued in a step S88.
In einem Schritt S88 kann das Steuersignal für die Bremseinrichtung 24 des Kraftfahrzeugs 20 erzeugt werden.In a step S88, the control signal for the
Falls die Sensordaten dafür repräsentativ sind, dass sich in Fahrtrichtung vor dem Kraftfahrzeug 20 zwei oder mehr der Objekte 50 befinden, kann zu jedem der Objekte 50 die Zeitdauer TTC ermittelt werden, die vergeht, bis das Kraftfahrzeug 20 mit dem entsprechenden Objekt 50 kollidiert, abhängig von den Sensordaten und den Geschwindigkeitsdaten. Das Steuersignal für die Bremseinrichtung 24 kann dann erzeugt werden, falls eine der ermittelten Zeitdauern TTC kleiner als der ermittelte Zeitschwellenwert ist.If the sensor data are representative of the fact that two or more of the
Die Längen lROI des interessierenden Bereichs 60 zu einer der Fahrsituationen i können beispielsweise ermittelt werden gemäß
Anhand des in
Für die Ermittlung des interessierenden Bereichs 60, insbesondere für die Ermittlung dessen Länge lROI kann somit die größte Länge lROI,i in den Fahrsituationen i bei der Geschwindigkeit vego des Kraftfahrzeugs 20 verwendet werden, beispielsweise gemäß
Ein Schritt S90 kann korrespondierend zu dem Schritt S80 abgearbeitet werden.A step S90 can be processed corresponding to the step S80.
In einem Schritt S91 können die Positionsdaten, die für die aktuelle Fahrzeugposition des Kraftfahrzeugs 20 repräsentativ sind, empfangen werden, beispielsweise korrespondierend zu dem Schritt S22.In a step S91, the position data representative of the current vehicle position of the
In einem Schritt S91 können die Geschwindigkeitsdaten empfangen werden, beispielsweise korrespondierend zu dem Schritt S24.In a step S91, the speed data can be received, for example corresponding to the step S24.
In einem Schritt S93 kann die Zeitdauer TTC ermittelt werden, beispielsweise korrespondierend zu dem Schritt S84.In a step S93, the time period TTC can be determined, for example corresponding to the step S84.
In einem Schritt S94 kann der Zeitschwellenwert ermittelt werden, beispielsweise korrespondierend zu dem Schritt S86.In a step S94, the time threshold value can be determined, for example corresponding to step S86.
In einem Schritt S95 kann die Länge lROI des interessierenden Bereichs 60, der sich auf der Fahrbahn 32 in Fahrtrichtung vor dem Kraftfahrzeug 20 befindet, abhängig von der Zeitdauer TTC und den Geschwindigkeitsdaten ermittelt werden, beispielsweise anhand der Längennachschlagetabelle. Alternativ oder zusätzlich kann die Länge lROI des interessierenden Bereichs 60 ermittelt werden, indem abhängig von der Geschwindigkeit vego des Kraftfahrzeugs 20 und dem ermittelten Zeitschwellenwert ein Auslöseabstand ermittelt wird, wobei der Auslöseabstand der Abstand zwischen dem Objekt 50 und dem Kraftfahrzeug 20 ist, den das Objekt 50 zu dem Kraftfahrzeug 20 hat, wenn die Zeitdauer TTC den entsprechenden Zeitschwellenwert unterschreitet. Dabei kann die Länge lROI so gewählt werden, dass sie größer als der Auslöseabstand ist.In a step S95, the length l ROI of the region of
In einem Schritt S96 kann der interessierende Bereich 60 mit der ermittelten Länge lROI abhängig von den Positionsdaten ermittelt werden, insbesondere positionsbasiert, wie im Vorhergehenden erläutert.In a step S96, the region of
In einem Schritt S97 kann geprüft werden, ob sich das Objekt 50 in dem interessierenden Bereich 60 befindet, abhängig von den Sensordaten, beispielsweise korrespondierend zu dem Schritt S66 und/oder korrespondierend zu dem mit Bezug zu
In einem Schritt S99 kann das Steuersignal für die Bremseinrichtung 24 erzeugt werden, beispielsweise korrespondierend zu einem der Schritte S12, S36 oder S56.In a step S99, the control signal for the
Das im Vorhergehenden erläuterte allgemeine Verfahren zum Vermeiden oder Vermindern der Kollision des autonomen Kraftfahrzeugs 20 mit dem Objekt 50, die im Vorhergehenden erläuterten speziellen Verfahren zum Vermeiden oder Vermindern der Kollision des autonomen Kraftfahrzeugs 20 mit dem Objekt 50 und/oder die anderen im Vorhergehenden erläuterten Verfahren können beliebig miteinander kombiniert werden. Beispielsweise kann das allgemeine Verfahren als Grundgerüst dienen und die speziellen Verfahren können wahlweise, beispielsweise abhängig von der speziellen Anwendung, als Bausteine des Grundgerüst dienen. Beispielsweise kann bei dem mit Bezug zu
Ergänzend ist darauf hinzuweisen, dass „aufweisend“ keine anderen Elemente oder Schritte ausschließt und „ein“, „einer“ oder „eine“ keine Vielzahl ausschließt. Ferner sei darauf hingewiesen, dass Merkmale oder Schritte, die mit Verweis auf eines der obigen Ausführungsbeispiele beschrieben worden sind, auch in Kombination mit anderen Merkmalen oder Schritten anderer oben beschriebener Ausführungsbeispiele verwendet werden können. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.In addition, it should be noted that "having" does not exclude other elements or steps and "a", "an" or "an" does not exclude a plurality. It should also be noted that features or steps that have been described with reference to one of the above embodiments can also be used in combination with other features or steps of other embodiments described above. Reference signs in the claims are not to be regarded as a limitation.
BezugszeichenReference symbol
- 2020
- KraftfahrzeugMotor vehicle
- 2121
- PassagierkabinePassenger cabin
- 2222
- Türdoor
- 2323
- RäderWheels
- 2424
- BremseinrichtungBraking device
- 2525
- SteuergerätControl unit
- 2626
- SpeichereinheitStorage unit
- 2727
- Prozessorprocessor
- 3030
- DisplayDisplay
- 3232
- Fahrbahnroadway
- 3434
- erste Fahrspurfirst lane
- 3535
- MittellinieCenterline
- 3636
- zweite Fahrspursecond lane
- 3737
- erster Seitenrandfirst page margin
- 3838
- RadarobjektRadar object
- 3939
- zweiter Seitenrandsecond page margin
- 4040
- KonturpunktContour point
- 4242
- FusionsobjektFusion object
- 4444
- Geschwindigkeitsvektor Nur-RadarobjektVelocity vector radar-only object
- 4646
- Geschwindigkeitsvektor Nur-LidarobjektVelocity vector lidar-only object
- 4848
- Geschwindigkeitsvektor FusionsobjektVelocity vector fusion object
- 5050
- Objektobject
- 5252
- erster Außenpunktfirst outer point
- 5454
- zweiter Außenpunktsecond outer point
- 5656
- erste Außenbegrenzungfirst outer boundary
- 5858
- zweite Außenbegrenzungsecond outer boundary
- 6060
- interessierender Bereicharea of interest
- 6262
- Frontfront
- 6464
- HeckRear
- 9090
- erste Fahrliniefirst route
- 9292
- zweite Fahrliniesecond route
- 9494
- erster Referenzpunktefirst reference points
- 9696
- zweite Referenzpunktesecond reference points
- 9898
- Geschwindigkeitsvektor KraftfahrzeugVelocity vector motor vehicle
- VV
- longitudinale Achse des Kraftfahrzeugslongitudinal axis of the motor vehicle
- LL
- Index der FahrspurenIndex of lanes
- vlongvlong
- Longitudinalgeschwindigkeit des ZentrumsLongitudinal velocity of the center
- vegovego
- Geschwindigkeit des KraftfahrzeugsSpeed of the motor vehicle
- ωegoωego
- Gierrate des KraftfahrzeugsYaw rate of the vehicle
- ωmωm
- gemessene Gierratemeasured yaw rate
- lROIlROI
- Länge des interessierenden BereichsLength of the area of interest
- lFlF
- Länge des Rahmens des virtuellen FahrradsLength of the frame of the virtual bike
- lLlL
- Länge der entsprechenden Fahrspur bis zu dem entsprechenden ReferenzpunktLength of the corresponding lane to the corresponding reference point
- TTCTTC
- ZeitdauerDuration
- ZZ
- geometrisches Zentrum des Kraftfahrzeugsgeometric center of the motor vehicle
- dtengl
- Zielabstand zum ObjektTarget distance to object
- RICRRICR
- Radius RICR um RotationszentrumRadius R ICR around rotation center
- j, ij, i
- Laufvariable, natürliche ZahlenRunning variables, natural numbers
- S2-S99S2-S99
- Schritte zwei bis neunundneunzigSteps two to ninety-nine
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022212874.5A DE102022212874A1 (en) | 2022-11-30 | 2022-11-30 | Method, control device and computer program for avoiding or reducing a collision of an autonomous motor vehicle, and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022212874.5A DE102022212874A1 (en) | 2022-11-30 | 2022-11-30 | Method, control device and computer program for avoiding or reducing a collision of an autonomous motor vehicle, and computer-readable storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022212874A1 true DE102022212874A1 (en) | 2024-07-11 |
Family
ID=91582333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022212874.5A Pending DE102022212874A1 (en) | 2022-11-30 | 2022-11-30 | Method, control device and computer program for avoiding or reducing a collision of an autonomous motor vehicle, and computer-readable storage medium |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022212874A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006046843A1 (en) | 2006-10-02 | 2008-04-03 | Robert Bosch Gmbh | Motor vehicle surrounding detecting method for use in area of driver assistance system, involves processing data for detecting objects and free area in surrounding of motor vehicle, and dividing surrounding into cells with attributes |
DE102011010864A1 (en) | 2011-02-10 | 2011-12-08 | Daimler Ag | Method for predicting collision between lorry and e.g. pedestrian in dead angular area during driving on highway, involves computing collision probability between vehicle and object by intersecting vehicle and object accessibility amounts |
DE102017113478A1 (en) | 2017-06-20 | 2018-12-20 | Valeo Schalter Und Sensoren Gmbh | Method for operating a control device for operation with a redundant sensor device in a motor vehicle |
DE102019123483A1 (en) | 2019-09-02 | 2021-03-04 | Audi Ag | Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level |
-
2022
- 2022-11-30 DE DE102022212874.5A patent/DE102022212874A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006046843A1 (en) | 2006-10-02 | 2008-04-03 | Robert Bosch Gmbh | Motor vehicle surrounding detecting method for use in area of driver assistance system, involves processing data for detecting objects and free area in surrounding of motor vehicle, and dividing surrounding into cells with attributes |
DE102011010864A1 (en) | 2011-02-10 | 2011-12-08 | Daimler Ag | Method for predicting collision between lorry and e.g. pedestrian in dead angular area during driving on highway, involves computing collision probability between vehicle and object by intersecting vehicle and object accessibility amounts |
DE102017113478A1 (en) | 2017-06-20 | 2018-12-20 | Valeo Schalter Und Sensoren Gmbh | Method for operating a control device for operation with a redundant sensor device in a motor vehicle |
DE102019123483A1 (en) | 2019-09-02 | 2021-03-04 | Audi Ag | Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3160813B1 (en) | Method for producing a model of the surroundings of a vehicle | |
DE102018203615A1 (en) | Device and method for controlling the platooning of vehicles | |
DE102017100633B4 (en) | PREVENTION SAFETY DEVICE FOR CHANGING THE PRICE OF A SMALL VEHICLE | |
DE102019103352A1 (en) | TRAJECTOR PUBLIC TRACKING FOR VEHICLE PAGE CONTROL USING A NEURONAL NETWORK | |
EP3873784A1 (en) | Control system and control method for sampling-based planning of possible trajectories for motor vehicles | |
DE102014114827A9 (en) | Path planning for evasive steering maneuvers in the presence of a target vehicle and surrounding objects | |
DE102014114608A1 (en) | Path planning for evasive maneuvers using a virtual potential field technique | |
DE102015114464A9 (en) | Uniform motion planner for an autonomous vehicle while avoiding a moving obstacle | |
DE102012210608A1 (en) | Method and device for generating a control parameter for a distance assistance system of a vehicle | |
DE102016201667B4 (en) | Method for determining a desired trajectory for a first road user, in particular for a motor vehicle, for a route section | |
DE102019103106A1 (en) | Control system and control method for the interaction-based long-term determination of trajectories for motor vehicles | |
WO2014161691A1 (en) | Method and apparatus for guiding a vehicle in the surroundings of an object | |
DE112020005236T5 (en) | VEHICLE CONTROL UNIT AND VEHICLE CONTROL SYSTEM | |
DE102019107411A1 (en) | Control system and control method for the path allocation of traffic objects | |
DE102015015302A1 (en) | Method for partially or fully autonomous operation of a vehicle and driver assistance device | |
WO2020002100A1 (en) | Method for operating an at least partially automated vehicle | |
DE102012007127A1 (en) | Method for determining movement path for vehicle, involves determining road boundary, and determining multiple possible movement paths for vehicle, where movement path is selected from multiple possible movement paths | |
EP4088224A1 (en) | Method for combining a plurality of data sets for generating a current lane model of a road and device for data processing | |
DE102018215509A1 (en) | Method and device for operating an at least partially automated first vehicle | |
DE112020001681T5 (en) | VEHICLE CONTROL DEVICE, VEHICLE CONTROL PROCEDURE AND PROGRAM | |
DE102019215973A1 (en) | U-TURN CONTROL SYSTEM FOR AUTONOMOUS VEHICLE AND PROCEDURE FOR THE SAME | |
DE102022212874A1 (en) | Method, control device and computer program for avoiding or reducing a collision of an autonomous motor vehicle, and computer-readable storage medium | |
DE102021127028A1 (en) | SYSTEMS AND PROCEDURES FOR CUSTOMIZABLE REAR COLLISION ALERTS | |
DE102022212888A1 (en) | Method, control device and computer program for avoiding or reducing a collision of an autonomous motor vehicle with an object, and computer-readable storage medium | |
DE102022212897A1 (en) | Method, control device and computer program for determining a probability with which an autonomous motor vehicle is located in a lane of a roadway, and computer-readable storage medium |