WO2021219638A1 - Verkehrsregelkonforme entscheidungsfindung in dynamischen verkehrsszenarien - Google Patents

Verkehrsregelkonforme entscheidungsfindung in dynamischen verkehrsszenarien Download PDF

Info

Publication number
WO2021219638A1
WO2021219638A1 PCT/EP2021/060986 EP2021060986W WO2021219638A1 WO 2021219638 A1 WO2021219638 A1 WO 2021219638A1 EP 2021060986 W EP2021060986 W EP 2021060986W WO 2021219638 A1 WO2021219638 A1 WO 2021219638A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection area
measurement data
sensor
vehicle
determined
Prior art date
Application number
PCT/EP2021/060986
Other languages
English (en)
French (fr)
Inventor
Chunki Park
Benjamin Ulmer
Jan KLEINDIECK
Dominik Maucher
Felix Kunz
Jinsung Kwon
Original Assignee
Robert Bosch Gmbh
Daimler Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh, Daimler Ag filed Critical Robert Bosch Gmbh
Priority to EP21723150.5A priority Critical patent/EP4143652B1/de
Priority to CN202180031740.XA priority patent/CN115443441B/zh
Priority to KR1020227041321A priority patent/KR102641931B1/ko
Priority to JP2022565688A priority patent/JP2023519442A/ja
Publication of WO2021219638A1 publication Critical patent/WO2021219638A1/de
Priority to US17/976,257 priority patent/US11926341B2/en

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Definitions

  • the invention relates to a method for determining a driving maneuver of a vehicle, a control device, a computer program and a machine-readable storage medium.
  • the handling of dynamic traffic situations is often made more difficult by limited visibility or by obscuring the detection area of an environment sensor system.
  • the detection area of the surroundings sensor system can be covered, for example, by other road users or dynamic objects or by stationary obstacles such as trees, houses or parked vehicles.
  • the object on which the invention is based can be seen in proposing a method for handling impairments of the detection range of sensors.
  • a method for determining a driving maneuver of a vehicle by a control device is provided.
  • measurement data about a traffic situation from at least one sensor are received.
  • a current detection area or a current degree of visibility of the at least one sensor is determined by evaluating the received measurement data.
  • the degree of visibility can be defined as a measure of the range or the coverage of a scanning area by at least one sensor.
  • the degree of visibility of a sensor which represents the detection range of the sensor, can be 100%, for example.
  • the current degree of visibility represents the degree of visibility at the time the measurement data was received.
  • the detection area can be designed as an area or as a volume, which can be scanned or registered by the sensor system in order to determine measurement data.
  • a sensor model is created on the basis of the received measurement data and an estimated detection area of the at least one sensor is modeled from the received measurement data by forward simulation based on a vehicle position of the vehicle.
  • the created sensor model can preferably be compared with the actual traffic situation at the time of creation or receipt of the measurement data. This measure enables the quality of the sensor model to be determined and optionally improved.
  • the created sensor model is used to determine a change in the detection range of the at least one sensor as a result of at least one driving maneuver. For this purpose, a predefined list of possible driving maneuvers can be checked by the sensor model. Stopping the vehicle can also be implemented as a driving maneuver.
  • a driving maneuver is then determined which, through the sensor model, leads to an increase in the simulated degree of visibility or to an enlargement of the simulated detection area of the at least one sensor.
  • the results of the driving maneuvers used can be compared with one another and / or with the current traffic situation or the current degree of visibility.
  • the method can be used to create sensor-based or measurement-data-based sensor models which can be used to optimize the detection area or the degree of visibility.
  • a future detection range of the vehicle's sensor system can be increased, the decision of the driving maneuver to be carried out being made by the control device as a function of the improvement in the degree of visibility.
  • the degree of visibility can be improved if the detection range of the sensor is increased.
  • the enlargement can be designed in the form of an enlarged angle and / or in the form of an enlarged range of the detection area.
  • the detection area can be enlarged when the detection area is covered by fewer obstacles, by obstacles further away from the sensors, by smaller obstacles or by no obstacles.
  • control device After determining the driving maneuver, which increases the detection area, the control device can generate control commands which can be used to control the vehicle. The vehicle can thus be prompted by the control device to carry out the specific or selected driving maneuver.
  • the created sensor model can preferably take into account road users, static objects and dynamic objects detected in the scanning area of the sensors and predict their future behavior. In this way, in particular, static and dynamic factors can be determined which have an effect on the detection area.
  • right of way rules such as for invisible or detectable road users, collision risks, comfort factors and possible violations of traffic rules can be taken into account by the created sensor model.
  • the method can increase traffic safety and comfort during an automated ferry operation. Furthermore, the automatically operated vehicle can be prevented from blocking the traffic and a particularly smooth flow of traffic can be made possible.
  • the decision about the driving maneuver can be made, for example, in the form of tree search algorithms.
  • a sequence of driving maneuvers can be advantageous with regard to the detection range of the sensor and can thus be selected.
  • the tree search can extend over a horizon which extends over several seconds into the future and is therefore designed to be discreet. Possible driving maneuvers can preferably be continuously recalculated as soon as new measurement data are available from at least one sensor. Existing or active tree searches can be canceled when new measurement data and / or environmental information are available.
  • existing or active tree searches can continue to be carried out when new measurement data and / or environmental information are available, with at least one new, parallel tree search being started based on the new measurement data.
  • the result of the converged tree search can be used.
  • the result can preferably be in the form of a driving maneuver, which leads to an enlargement of the simulated detection area due to the sensor model.
  • the enlargement of the detection area results in a reduced degree of obscuration of the detection area.
  • the vehicle can approach a stop line, slowly roll over a defined distance to the intersection and then pass the intersection.
  • the vehicle can, for example, first stop at a stop line and, if there is a sufficient detection area, pass the intersection.
  • a control device is provided, the control device being set up to carry out the method.
  • the control device can be, for example, a control device on the vehicle, a control device external to the vehicle, or a server unit external to the vehicle, such as a cloud system, for example.
  • the control device can preferably receive and evaluate measurement data determined by at least one vehicle-mounted sensor.
  • a computer program is provided which comprises commands which, when the computer program is executed by a computer or a control device, cause the computer or a control device to execute the method according to the invention.
  • a machine-readable storage medium is provided on which the computer program according to the invention is stored.
  • the vehicle can be assisted, partially automated, highly automated and / or fully automated or can be operated without a driver.
  • the vehicle can be configured as a passenger car, a robot, a drone, a watercraft, a rail vehicle, a robotaxi, an industrial robot, a utility vehicle, a bus, an airplane, a helicopter and the like.
  • the at least one driving maneuver is designed as slow driving ahead, entering a traffic junction, turning, stopping or stopping and is used to determine a change in the detection area by the created sensor model. This makes it possible to provide a list of possible driving maneuvers which can be used by the sensor model. The respective driving maneuvers can also be used as a sequence of driving maneuvers which can be carried out one after the other.
  • the current detection area is determined by recognizing dynamic objects and / or static objects on the basis of the received measurement data. This measure can be used to estimate the influence of the surroundings on the detection area or a degree of coverage of the detection area.
  • parked vehicles, containers, buildings, vegetation and the like can be assigned to static objects which are unlikely to change over time and thus will not affect the detection area if the position of the sensors or the vehicle remains unchanged.
  • the detection area can also be changed without moving the vehicle on which the sensors for detecting the surroundings are mounted.
  • different driving maneuvers are used in parallel or one after the other by the created sensor model in order to determine a change in the detection area. This measure enables possible driving maneuvers to be checked in parallel, so that the method can be carried out more quickly.
  • predefined test steps can be implemented, for example.
  • the comparison or the selection of the driving maneuvers is preferably carried out with a view to optimizing the degree of visibility.
  • Map information can also be received by the control device in order to determine the detection area or a degree of obscuration of the detection area.
  • the current detection area is determined on the basis of a lane interval which can be measured by sensors and which approximates the lanes determined on the basis of the measurement data by rectangles of different lengths and / or widths.
  • the method can thus define and measure the visible areas and thus also the detection area in the form of a lane interval coverage.
  • the lane interval coverage can preferably be approximated by rectangles which overlay the lane sections that are visible or that can be detected by the sensor system.
  • a rectangle, a polygon, a triangle, a circle and the like can be used for each detectable lane section. This allows the method to be limited to the areas that are relevant for the automated driving function.
  • the size of the areas that can be detected by sensors can be determined in a technically simple manner and used for comparison purposes.
  • the detection area is enlarged if a total length and / or total area of the lane intervals approximated by the rectangles increases. This measure enables a particularly efficient parameter for a selection of driving maneuvers to be provided.
  • the total length or the total area can be determined in a technically simple manner and used for comparison purposes.
  • data are received via a communication link, the sensor model being created on the basis of the received measurement data and on the basis of the data received via the communication link.
  • This measure enables the sensor model to be designed more precisely, since additional measurement data are received from road users or from infrastructure units.
  • the data can preferably be received via a vehicle-2 infrastructure or a vehicle-2-vehicle communication link. In particular, this enables a more precise prediction of future behavior of the road users to be made.
  • FIG. 1 shows a schematic flow diagram to illustrate the method according to an embodiment
  • FIG. 3 shows a plan view of the traffic situation shown in FIG. 2 at a later point in time.
  • FIG. 1 shows a schematic flow chart to illustrate the method 1 according to an embodiment.
  • the method is used to determine a driving maneuver of a vehicle 2 which can be operated in an automated manner.
  • the method 1 can preferably be carried out by a control device 4.
  • the vehicle 2 is shown by way of example in FIG. 2 and, in addition to the control device 4, has an environment sensor system 6.
  • the environment sensor system 6 can consist of one or more sensors.
  • the environment sensor system 6 Have radar sensors, LIDAR sensors, ultrasonic sensors, camera sensors and the like.
  • a step 20 measurement data relating to a traffic situation 8 from at least one sensor 6 are received.
  • the method 1 can be triggered by a recognized traffic situation 8, such as, for example, an intersection or an entrance onto a main road.
  • a current detection area is then determined 21 by evaluating the received measurement data.
  • a sensor model is created and an estimated detection area of the at least one sensor 6 is modeled by forward simulation based on a vehicle position of the vehicle 2 from the received measurement data 22 Change of position of the sensor 6.
  • the created sensor model is used to determine a change in the detection area as a result of at least one driving maneuver 23. For this purpose, several different driving maneuvers are checked, for example, as to whether they enlarge or reduce the detection area.
  • the change in the detection area is determined by executing one or more driving maneuvers by the sensor model.
  • the sensor model simulates driving the vehicle 2 into the intersection or a traffic junction and determines the change in the detection area.
  • the execution of the driving maneuver can be initiated 26 by the control device 4. If this query 25 is answered in the negative, the next driving maneuver 27 can be checked.
  • the next driving maneuver can be checked by the sensor model, for example, if the vehicle 2 has stopped at the initial position.
  • the change in the detection area is determined 28. If traffic safety is guaranteed when stopping and if the detection area is increased by stopping, for example because road users leave the scanning area of the surroundings sensor system 6, the control unit 4 initiates stopping 29 the next driving maneuver 30 is checked.
  • a slow approach 30 to the traffic junction can be considered by the sensor model. If such a driving maneuver is classified as safe and enables the detection area 31 to be enlarged, the control device 4 initiates the slow approach of the vehicle 2 to the traffic junction 32. If this test 31 is denied or classified as negative, then the vehicle 2 can remain 33 in its initial position.
  • FIG. 2 shows a top view of an exemplary traffic situation 8. There are dynamic objects 10 or obstacles and static objects 12 or obstacles.
  • the dynamic objects 10 are, for example, road users who cover the scanning area A of the vehicle 2 in areas.
  • the static objects 12 can be taken into account buildings or parked road users.
  • the arrows P illustrate the planned trajectories of the road users 10 and the vehicle 2.
  • the detection area and in particular a dimension or size of the detection area is determined on the basis of the lane intervals 16 detected by sensors.
  • the lane intervals 16 are the sections of the lanes recognized in scanning area A and are approximated by rectangles.
  • the rectangles have different lengths or widths and can be used to determine the size of the detection area. For example, a total length or a total area of the determined lane intervals 16 can be used as a measure for the detection area.
  • FIG. 3 shows a plan view of the traffic situation 8 shown in FIG. 2 at a later point in time.
  • the vehicle 2 has slowly approached the traffic junction or the T-junction and crossed the stop line 14, the relative positions of the static objects 12 and the dynamic objects 10 to the vehicle 2 having changed.
  • the scanning area A has changed and the detection area has increased.
  • additional dynamic road users 11 can be detected by sensors and the total area or total length of the lane intervals 16 is greater than in the situation in FIG. 2.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Offenbart ist ein Verfahren zum Bestimmen eines Fahrmanövers eines Fahrzeugs durch ein Steuergerät, wobei Messdaten über eine Verkehrssituation mindestens eines Sensors empfangen werden, ein gegenwärtiger Erfassungsbereich durch Auswerten der empfangenen Messdaten ermittelt wird, ein Sensormodell anhand der empfangenen Messdaten erstellt und ein abgeschätzter Erfassungsbereich des mindestens einen Sensors durch Vorwärtssimulation basierend auf einer Fahrzeugposition des Fahrzeugs aus den empfangenen Messdaten modelliert wird, das erstellte Sensormodell dazu eingesetzt wird, eine Änderung des Erfassungsbereichs durch mindestens ein Fahrmanöver zu ermitteln, ein Fahrmanöver bestimmt wird, welches durch das Sensormodell zu einer Vergrößerung des simulierten Erfassungsbereichs führt. Des Weiteren sind ein Steuergerät, ein Computerprogramm sowie ein maschinenlesbares Speichermedium offenbart.

Description

Beschreibung
Titel
Verkehrsregelkonforme Entscheidungsfindung in dynamischen
Verkehrsszenarien
Die Erfindung betrifft ein Verfahren zum Bestimmen eines Fahrmanövers eines Fahrzeugs, ein Steuergerät, ein Computerprogramm sowie ein maschinenlesbares Speichermedium.
Die Patentanmeldung beansprucht die Priorität der deutschen Patentanmeldung 102020 111 486.9, deren Offenbarungsgehalt hiermit durch Rückbezug aufgenommen wird.
Stand der Technik
Die Handhabung von dynamischen Verkehrssituationen wird oftmals durch eingeschränkte Sichtbarkeit bzw. durch Verdeckungen des Erfassungsbereichs einer Umfeldsensorik zusätzlich erschwert. Der Erfassungsbereich der Umfeldsensorik kann beispielsweise durch andere Verkehrsteilnehmer bzw. dynamische Objekte oder durch stationäre Hindernisse, wie Bäume, Häuser oder abgestellte Fahrzeuge, verdeckt werden.
Zum Umsetzen von automatisierten Fahrfunktionen müssen derartige Verdeckungen, welche den Erfassungsbereich der Umfeldsensorik einschränken, berücksichtigt werden. Insbesondere muss eine zukünftige Änderung des Erfassungsbereichs durch eine Bewegung des die automatisierte Fahrfunktion ausführenden Fahrzeugs oder durch Bewegung von dynamischen Objekten, wie beispielsweise Lastkraftwagen, beachtet werden. Der Erfassungsbereich der Umfeldsensorik des Fahrzeugs kann selbst im Stillstand variieren, wenn Verkehrsteilnehmer den Abtastbereich der Umfeldsensorik verlassen oder in den Abtastbereich hineinfahren.
Es sind Verfahren zum Durchführen eines sogenannten teilweise sichtbaren Markow-Entscheidungsprozesses bekannt. Derartige Verfahren sind jedoch rechenintensiv und können nicht in übliche fahrzeugseitige Steuergeräte implementiert werden.
Offenbarung der Erfindung
Die der Erfindung zugrunde liegende Aufgabe kann darin gesehen werden, ein Verfahren zum Handhaben von Beeinträchtigungen des Erfassungsbereichs von Sensoren vorzuschlagen.
Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
Nach einem Aspekt der Erfindung wird ein Verfahren zum Bestimmen eines Fahrmanövers eines Fahrzeugs durch ein Steuergerät bereitgestellt. In einem Schritt werden Messdaten über eine Verkehrssituation mindestens eines Sensors empfangen.
Es wird durch Auswerten der empfangenen Messdaten ein gegenwärtiger Erfassungsbereich bzw. ein gegenwärtiger Sichtbarkeitsgrad des mindestens einen Sensors ermittelt. Der Sichtbarkeitsgrad kann als ein Maß für die Reichweite bzw. die Verdeckung eines Abtastbereichs von mindestens einem Sensor definiert werden. Auf einer offenen Fläche ohne Hindernisse kann der Sichtbarkeitsgrad eines Sensors, welcher den Erfassungsbereich des Sensors darstellt, beispielsweise 100% betragen. Mit zunehmender Anzahl von Hindernissen wird der Sichtbarkeitsgrad verringert bzw. der Erfassungsbereich verkleinert. Der gegenwärtige Sichtbarkeitsgrad stellt den Sichtbarkeitsgrad zum Zeitpunkt des Empfangs der Messdaten dar. Der Erfassungsbereich kann als eine Fläche oder als ein Volumen ausgestaltet sein, welcher von der Sensorik zum Ermitteln von Messdaten abtastbar bzw. registrierbar ist.
In einem weiteren Schritt wird ein Sensormodell anhand der empfangenen Messdaten erstellt und ein abgeschätzter Erfassungsbereich des mindestens einen Sensors durch Vorwärtssimulation basierend auf einer Fahrzeugposition des Fahrzeugs aus den empfangenen Messdaten modelliert. Vorzugsweise kann das erstellte Sensormodell mit der tatsächlichen Verkehrssituation zum Zeitpunkt der Erstellung bzw. des Empfangs der Messdaten verglichen werden. Durch diese Maßnahme kann die Güte des Sensormodells ermittelt und optional verbessert werden.
Das erstellte Sensormodell wird dazu eingesetzt, eine Änderung des Erfassungsbereichs des mindestens einen Sensors durch mindestens ein Fahrmanöver zu ermitteln. Hierzu kann eine vordefinierte Liste an möglichen Fahrmanövern durch das Sensormodell geprüft werden. Ein Stehenbleiben des Fahrzeugs kann ebenfalls als Fahrmanöver umgesetzt werden.
Anschließend wird ein Fahrmanöver bestimmt, welches durch das Sensormodell zu einer Erhöhung des simulierten Sichtbarkeitsgrads bzw. zu einer Vergrößerung des simulierten Erfassungsbereichs des mindestens einen Sensors führt. Hierzu können die Ergebnisse der verwendeten Fahrmanöver miteinander und/oder mit der gegenwärtigen Verkehrssituation bzw. dem gegenwärtigen Sichtbarkeitsgrad verglichen werden.
Durch das Verfahren können sensorbasierte bzw. messdatenbasierte Sensormodelle erstellt werden, welche zum Optimieren des Erfassungsbereichs bzw. des Sichtbarkeitsgrads nutzbar sind. Insbesondere kann ein zukünftiger Erfassungsbereich der Sensorik des Fahrzeugs erhöht werden, wobei die Entscheidung des auszuführenden Fahrmanövers abhängig von der Verbesserung des Sichtbarkeitsgrads durch das Steuergerät getroffen wird. Der Sichtbarkeitsgrad kann verbessert werden, wenn der Erfassungsbereich des Sensors vergrößert wird. Die Vergrößerung kann dabei in Form eines vergrößerten Winkels und/oder in Form einer vergrößerten Reichweite des Erfassungsbereichs ausgestaltet sein. Der Erfassungsbereich kann vergrößert werden, wenn der Erfassungsbereich durch weniger Hindernisse, durch von der Sensorik weiter entfernte Hindernisse, durch kleinere Hindernisse oder durch keine Hindernisse verdeckt wird.
Nach dem Bestimmen des Fahrmanövers, welches den Erfassungsbereich vergrößert, können durch das Steuergerät Steuerbefehle generiert werden, welche zum Ansteuern des Fahrzeugs verwendbar sind. Das Fahrzeug kann somit zum Durchführen des bestimmten bzw. gewählten Fahrmanövers durch das Steuergerät veranlasst werden.
Das erstellte Sensormodell kann vorzugsweise im Abtastbereich der Sensoren erfasste Verkehrsteilnehmer, statische Objekte und dynamische Objekte berücksichtigen und deren zukünftiges Verhalten Vorhersagen. Insbesondere können hierdurch statische und dynamische Faktoren ermittelt werden, welche sich auf den Erfassungsbereich auswirken.
Des Weiteren können zusätzlich zum Erfassungsbereich Vorfahrtsregeln, wie beispielsweise gegenüber nicht sichtbaren bzw. erfassbaren Verkehrsteilnehmern, Kollisionsgefahren, Komfortfaktoren und mögliche Verletzungen von Verkehrsregeln durch das erstellte Sensormodell berücksichtigt werden.
Durch das Verfahren kann die Verkehrssicherheit und der Komfort während eines automatisierten Fährbetriebs erhöht werden. Des Weiteren kann das automatisiert betriebene Fahrzeug vor einem Blockieren des Verkehrs gehindert und ein besonders flüssiger Verkehrsfluss ermöglicht werden.
Die Entscheidung über das Fahrmanöver kann beispielsweise in Form von Baumsuch-Algorithmen erfolgen. Alternativ oder zusätzlich kann eine Abfolge von Fahrmanövern als vorteilhaft im Hinblick auf den Erfassungsbereich des Sensors sein und somit ausgewählt werden.
Die Baumsuche kann sich über einen Horizont erstrecken, welcher sich über mehrere Sekunden in die Zukunft erstreckt und somit diskret ausgestaltet ist. Vorzugsweise können mögliche Fahrmanöver kontinuierlich neu berechnet werden sobald neue Messdaten von mindestens einem Sensor verfügbar sind. Dabei können bestehende bzw. aktive Baumsuchen bei einem Vorliegen von neuen Messdaten und/oder Umgebungsinformationen abgebrochen werden.
Alternativ oder zusätzlich können bestehende bzw. aktive Baumsuchen bei einem Vorliegen von neuen Messdaten und/oder Umgebungsinformationen weiterhin ausgeführt werden, wobei mindestens eine neue, parallele, Baumsuche basierend auf den neuen Messdaten gestartet wird.
Sobald eine ausgeführte Baumsuche konvergiert, kann das Resultat der konvergierten Baumsuche verwendet werden. Das Resultat kann vorzugsweise in Form eines Fahrmanövers vorliegen, welches durch das Sensormodell zu einer Vergrößerung des simulierten Erfassungsbereichs führt.
Die Vergrößerung des Erfassungsbereichs resultiert in einem verringerten Verdeckungsgrad des Erfassungsbereichs.
Basierend auf dem Verfahren kann das Fahrzeug beispielsweise bei einem Vorhandensein von statischen Objekten im Fahrzeugumfeld einer Kreuzung als Verhaltenssequenz von mehreren aufeinander folgenden Fahrmanövern ein Heranfahren zu einer Haltelinie, ein langsames Rollen über eine definierte Distanz auf die Kreuzung und ein anschließendes Passieren der Kreuzung vollführen.
Bei einem Vorhandensein von dynamischen Objekten im Fahrzeugumfeld kann das Fahrzeug beispielsweise zuerst an einer Haltelinie stehen bleiben und bei einem ausreichenden Erfassungsbereich die Kreuzung passieren.
Nach einem weiteren Aspekt der Erfindung wird ein Steuergerät bereitgestellt, wobei das Steuergerät dazu eingerichtet ist, das Verfahren auszuführen. Das Steuergerät kann beispielsweise ein fahrzeugseitiges Steuergerät, ein fahrzeugexternes Steuergerät oder eine fahrzeugexterne Servereinheit, wie beispielsweise ein Cloud-System, sein. Das Steuergerät kann vorzugsweise von mindestens einem fahrzeugseitigen Sensor ermittelte Messdaten empfangen und auswerten können. Darüber hinaus wird nach einem Aspekt der Erfindung ein Computerprogramm bereitgestellt, welches Befehle umfasst, die bei der Ausführung des Computerprogramms durch einen Computer oder ein Steuergerät diesen veranlassen, das erfindungsgemäße Verfahren auszuführen. Gemäß einem weiteren Aspekt der Erfindung wird ein maschinenlesbares Speichermedium bereitgestellt, auf dem das erfindungsgemäße Computerprogramm gespeichert ist.
Das Fahrzeug kann hierbei gemäß der BASt Norm assistiert, teilautomatisiert, hochautomatisiert und/oder vollautomatisiert bzw. fahrerlos betreibbar sein. Beispielsweise kann das Fahrzeug als ein Personenkraftwagen, ein Roboter, eine Drohne, ein Wasserfahrzeug, ein Schienenfahrzeug, ein Robotaxi, ein Industrieroboter, ein Nutzfahrzeug, ein Bus, ein Flugzeug, ein Helikopter und dergleichen ausgestaltet sein.
Gemäß einem Ausführungsbeispiel ist das mindestens eine Fahrmanöver als ein langsames Vorausfahren, ein Einfahren in einen Verkehrsknotenpunkt, ein Abbiegen, ein Anhalten oder als ein Stehenbleiben ausgestaltet und wird zum Ermitteln einer Änderung des Erfassungsbereichs durch das erstellte Sensormodell herangezogen. Hierdurch kann eine Liste von möglichen Fahrmanövern bereitgestellt werden, welche durch das Sensormodell nutzbar sind. Die jeweiligen Fahrmanöver können auch als eine Sequenz aus Fahrmanövern eingesetzt werden, welche nacheinander ausführbar sind.
Bei einem weiteren Ausführungsbeispiel wird der gegenwärtige Erfassungsbereich durch Erkennen von dynamischen Objekten und/oder statischen Objekten anhand der empfangenen Messdaten ermittelt. Durch diese Maßnahme kann der Einfluss des Umfelds auf den Erfassungsbereich bzw. einen Verdeckungsgrad des Erfassungsbereichs abgeschätzt werden. Insbesondere können abgestellte Fahrzeuge, Container, Gebäude, Vegetation und dergleichen zu statischen Objekten zugeordnet werden, welche sich zeitlich voraussichtlich nicht verändern und somit den Erfassungsbereich bei einer unveränderten Position der Sensoren bzw. des Fahrzeugs nicht beeinflussen.
Bei dynamischen Objekten kann der Erfassungsbereich auch ohne eine Fahrzeugbewegung des Fahrzeugs verändert werden, an welchem die Sensoren zur Umfelderfassung montiert sind. Nach einer weiteren Ausführungsform werden unterschiedliche Fahrmanöver parallel oder nacheinander durch das erstellte Sensormodell herangezogen, um eine Änderung des Erfassungsbereichs zu ermitteln. Durch diese Maßnahme können mögliche Fahrmanöver parallel überprüft werden, wodurch das Verfahren schneller ausgeführt werden kann. Bei nacheinander geprüften Fahrmanövern können beispielsweise vordefinierte Prüfungsschritte umgesetzt werden.
Der Vergleich bzw. die Auswahl der Fahrmanöver erfolgt vorzugsweise im Hinblick auf eine Optimierung des Sichtbarkeitsgrads.
Zur Ermittlung des Erfassungsbereichs bzw. eines Verdeckungsgrads des Erfassungsbereichs können auch Karteninformationen durch das Steuergerät empfangen werden.
Gemäß einem weiteren Ausführungsbeispiel wird der gegenwärtige Erfassungsbereich anhand einer sensorisch messbaren Fahrspurintervalle ermittelt, welche anhand der Messdaten ermittelte Fahrspuren durch Rechtecke unterschiedlicher Länge und/oder Breite annähert. Das Verfahren kann somit die sichtbaren Flächen und somit auch den Erfassungsbereich in Form von einer Fahrspurintervallabdeckung definieren und messen. Die Fahrspurintervallabdeckung kann vorzugsweise durch Rechtecke angenähert werden, welche die sichtbaren bzw. durch die Sensorik erfassbaren Fahrspurabschnitte überlagern. Für jeden erfassbaren Fahrspurabschnitt kann ein Rechteck, ein Polygon, ein Dreieck, ein Kreis und dergleichen verwendet werden. Hierdurch kann das Verfahren auf die Flächen beschränkt werden, welche für die automatisierte Fahrfunktion relevant sind.
Des Weiteren kann hierdurch eine Vergleichbarkeit des Erfassungsbereichs umgesetzt werden. Die Größe der sensorisch erfassbaren Flächen kann technisch einfach ermittelt zu Vergleichszwecken herangezogen werden.
Bei einem weiteren Ausführungsbeispiel wird der Erfassungsbereich vergrößert, wenn eine Gesamtlänge und/oder Gesamtfläche der durch die Rechtecke angenäherten Fahrspurintervalle steigt. Durch diese Maßnahme kann ein besonders effizienter Parameter für eine Auswahl von Fahrmanövern bereitgestellt werden. Insbesondere kann die Gesamtlänge oder die Gesamtfläche technisch einfach ermittelt und zu Vergleichszwecken herangezogen werden.
Nach einer weiteren Ausführungsform werden Daten über eine Kommunikationsverbindung empfangen, wobei das Sensormodell anhand der empfangenen Messdaten und anhand der über die Kommunikationsverbindung empfangenen Daten erstellt wird. Durch diese Maßnahme kann das Sensormodell präziser ausgestaltet sein, da zusätzliche Messdaten von Verkehrsteilnehmern oder von Infrastruktureinheiten empfangen werden. Die Daten können vorzugsweise über eine Vehicle-2-lnfrastructure oder eine Vehicle- 2-Vehicle Kommunikationsverbindung empfangen werden. Insbesondere kann hierdurch eine präzisere Vorhersage von einem zukünftigen Verhalten der Verkehrsteilnehmer erfolgen.
Im Folgenden werden anhand von stark vereinfachten schematischen Darstellungen bevorzugte Ausführungsbeispiele der Erfindung näher erläutert. Hierbei zeigen
Fig. 1 ein schematisches Ablaufdiagramm zum Veranschaulichen des Verfahrens gemäß einer Ausführungsform,
Fig. 2 eine Draufsicht auf eine beispielhafte Verkehrssituation und
Fig. 3 eine Draufsicht auf die in Fig. 2 gezeigte Verkehrssituation zu einem späteren Zeitpunkt.
Die Figur 1 zeigt ein schematisches Ablaufdiagramm zum Veranschaulichen des Verfahrens 1 gemäß einer Ausführungsform. Das Verfahren dient zum Bestimmen eines Fahrmanövers eines Fahrzeugs 2, welches automatisiert betreibbar ist. Das Verfahren 1 kann vorzugsweise durch ein Steuergerät 4 ausgeführt werden.
Das Fahrzeug 2 ist beispielhaft in der Figur 2 dargestellt und weist neben dem Steuergerät 4 eine Umfeldsensorik 6 auf. Die Umfeldsensorik 6 kann aus einem oder mehreren Sensoren bestehen. Beispielsweise kann die Umfeldsensorik 6 Radarsensoren, LIDAR-Sensoren, Ultraschallsensoren, Kamerasensoren und dergleichen aufweisen.
In einem Schritt 20 werden Messdaten über eine Verkehrssituation 8 mindestens eines Sensors 6 empfangen. Das Verfahren 1 kann durch eine erkannte Verkehrssituation 8, wie beispielsweise Kreuzung oder Auffahrt auf eine Hauptstraße, ausgelöst werden.
Anschließend wird ein gegenwärtiger Erfassungsbereich durch Auswerten der empfangenen Messdaten ermittelt 21.
Basierend auf den empfangenen Messdaten wird ein Sensormodell erstellt und ein abgeschätzter Erfassungsbereich des mindestens einen Sensors 6 durch Vorwärtssimulation basierend auf einer Fahrzeugposition des Fahrzeugs 2 aus den empfangenen Messdaten modelliert 22. Die Vorwärtssimulation erfolgt durch das Sensormodell und ermöglicht die Abschätzung einer voraussichtlichen Änderung des Erfassungsbereichs durch Positionsänderung des Sensors 6.
Das erstellte Sensormodell wird dazu eingesetzt, eine Änderung des Erfassungsbereichs durch mindestens ein Fahrmanöver zu ermitteln 23. Hierzu werden beispielhaft mehrere unterschiedliche Fahrmanöver geprüft, ob sie den Erfassungsbereich vergrößern oder verkleinern. Die Änderung des Erfassungsbereichs wird durch ein Ausführen von einem oder mehreren Fahrmanövern durch das Sensormodell ermittelt.
Im dargestellten Ausführungsbeispiel werden mehrere beispielhafte Fahrmanöver nacheinander ausgeführt bzw. geprüft. Alternativ hierzu kann eine parallele Prüfung der möglichen Fahrmanöver umgesetzt werden.
In einem weiteren Schritt 24 wird durch das Sensormodell ein Hineinfahren des Fahrzeugs 2 in die Kreuzung bzw. einen Verkehrsknotenpunkt simuliert und die Änderung des Erfassungsbereichs ermittelt.
Wird der Erfassungsbereich gegenüber dem initialen Erfassungsbereich erhöht 25 oder ein sicheres Ausführen des Fahrmanövers attestiert, so kann ein Ausführen des Fahrmanövers durch das Steuergerät 4 eingeleitet 26 werden. Wird diese Anfrage 25 verneint, so kann das nächste Fahrmanöver 27 geprüft werden.
Als nächstes Fahrmanöver kann beispielsweise ein Stehenbleiben des Fahrzeugs 2 an der initialen Position durch das Sensormodell geprüft werden.
Bei der Prüfung wird die Änderung des Erfassungsbereichs ermittelt 28. Ist die Verkehrssicherheit bei einem Stehenbleiben gewährleistet und wird der Erfassungsbereich durch ein Stehenbleiben erhöht, beispielsweise weil Verkehrsteilnehmer den Abtastbereich der Umfeldsensorik 6 verlassen, so wird ein Stehenbleiben durch das Steuergerät 4 eingeleitet 29. Andernfalls wird das nächste Fahrmanöver 30 geprüft.
Als nächstes Fahrmanöver kann ein langsames Herantasten 30 an den Verkehrsknotenpunkt durch das Sensormodell betrachtet werden. Wrd ein derartiges Fahrmanöver als sicher eingestuft und ermöglicht eine Vergrößerung des Erfassungsbereichs 31, so leitet das Steuergerät 4 das langsame Herantasten des Fahrzeugs 2 an den Verkehrsknotenpunkt 32 ein. Wird diese Prüfung 31 verneint bzw. als negativ eingestuft, so kann das Fahrzeug 2 an seiner initialen Position verbleiben 33.
In Figur 2 ist eine Draufsicht auf eine beispielhafte Verkehrssituation 8 dargestellt. Es sind dynamische Objekte 10 bzw. Hindernisse und statische Objekte 12 bzw. Hindernisse vorhanden.
Die dynamischen Objekte 10 sind beispielsweise Verkehrsteilnehmer, welche den Abtastbereich A des Fahrzeugs 2 bereichsweise verdecken. Die statischen Objekte 12 können Gebäude oder abgestellte Verkehrsteilnehmer berücksichtigt werden.
Die Pfeile P veranschaulichen die geplanten Trajektorien der Verkehrsteilnehmer 10 und des Fahrzeugs 2.
In der dargestellten Verkehrssituation 8 hält Fahrzeug 2 an einer Haltelinie 14 vor einer T-Kreuzung. Zum Durchführen einer Entscheidung wird das Verfahren 1 durch das Steuergerät 4 ausgeführt. Hierzu wird ein gegenwärtiger bzw. initialer Erfassungsbereich der Umfeldsensorik 6 ermittelt.
Der Erfassungsbereich und insbesondere eine Dimension bzw. Größe des Erfassungsbereichs wird anhand der sensorisch detektierten Fahrspurintervalle 16 bestimmt. Die Fahrspurintervalle 16 sind die im Abtastbereich A erkannten Abschnitte der Fahrspuren und werden durch Rechtecke angenähert.
Die Rechtecke weisen unterschiedliche Längen bzw. Breiten auf und können zum Bestimmen der Größe des Erfassungsbereichs herangezogen werden. Beispielsweise kann eine Gesamtlänge oder eine Gesamtfläche der ermittelten Fahrspurintervalle 16 als Maß für den Erfassungsbereich verwendet werden.
Die Figur 3 zeigt eine Draufsicht auf die in Figur 2 gezeigte Verkehrssituation 8 zu einem späteren Zeitpunkt. Das Fahrzeug 2 hat sich langsam an den Verkehrsknotenpunkt bzw. die T-Kreuzung herangetastet und die Haltelinie 14 überfahren, wobei die relativen Positionen der statischen Objekte 12 und der dynamischen Objekte 10 zum Fahrzeug 2 sich verändert haben.
Durch das durchgeführte Fahrmanöver hat sich der Abtastbereich A verändert und der Erfassungsbereich vergrößert. Hierdurch sind zusätzliche dynamische Verkehrsteilnehmer 11 sensorisch erfassbar und die Gesamtfläche oder Gesamtlänge der Fahrspurintervalle 16 größer gegenüber der Situation in Figur 2.

Claims

Ansprüche
1. Verfahren (1) zum Bestimmen eines Fahrmanövers eines Fahrzeugs (2) durch ein Steuergerät (4), wobei
Messdaten über eine Verkehrssituation (8) mindestens eines Sensors (6) empfangen werden, ein gegenwärtiger Erfassungsbereich des mindestens einen Sensors (6) durch Auswerten der empfangenen Messdaten ermittelt wird, ein Sensormodell anhand der empfangenen Messdaten erstellt und ein abgeschätzter Erfassungsbereich des mindestens einen Sensors (6) durch Vorwärtssimulation basierend auf einer Fahrzeugposition des Fahrzeugs (2) aus den empfangenen Messdaten modelliert wird, das erstellte Sensormodell dazu eingesetzt wird, eine Änderung des Erfassungsbereichs des mindestens einen Sensors (6) durch mindestens ein Fahrmanöver zu ermitteln, ein Fahrmanöver bestimmt wird, welches durch das Sensormodell zu einer Vergrößerung des simulierten Erfassungsbereichs führt.
2. Verfahren nach Anspruch 1 , wobei das mindestens eine Fahrmanöver als ein langsames Vorausfahren, ein Einfahren in einen Verkehrsknotenpunkt, ein Abbiegen, ein Anhalten oder als ein Stehenbleiben ausgestaltet ist und zum Ermitteln einer Änderung des Erfassungsbereichs durch das erstellte Sensormodell herangezogen wird.
3. Verfahren nach Anspruch 1 oder 2, wobei der gegenwärtige Erfassungsbereich durch Erkennen von dynamischen Objekten (12) und/oder statischen Objekten (10) anhand der empfangenen Messdaten ermittelt wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, wobei unterschiedliche Fahrmanöver parallel oder nacheinander durch das erstellte Sensormodell herangezogen werden, um eine Änderung des Erfassungsbereichs zu ermitteln.
5. Verfahren nach einem der Ansprüche 1 bis 4, wobei der gegenwärtige Erfassungsbereich anhand von sensorisch ermittelbaren Fahrspurintervallen (16) ermittelt wird, welche anhand der Messdaten ermittelte Fahrspuren durch Rechtecke unterschiedlicher Länge und/oder Breite annähern.
6. Verfahren nach Anspruch 5, wobei der Erfassungsbereich vergrößert wird, wenn eine Gesamtlänge und/oder eine Gesamtfläche der durch die Rechtecke angenäherten Fahrspurintervalle (16) steigen.
7. Verfahren nach einem der Ansprüche 1 bis 6, wobei Daten über eine Kommunikationsverbindung empfangen werden und das Sensormodell anhand der empfangenen Messdaten und anhand der über die Kommunikationsverbindung empfangenen Daten erstellt wird.
8. Steuergerät (4), wobei das Steuergerät (4) dazu eingerichtet ist, das Verfahren gemäß einem der Ansprüche 1 bis 7 auszuführen.
9. Computerprogramm, welches Befehle umfasst, die bei der Ausführung des Computerprogramms durch einen Computer oder ein Steuergerät (4) diesen veranlassen, das Verfahren gemäß einem der Ansprüche 1 bis 7 auszuführen.
10. Maschinenlesbares Speichermedium, auf welchem das Computerprogramm gemäß Anspruch 9 gespeichert ist.
PCT/EP2021/060986 2020-04-28 2021-04-27 Verkehrsregelkonforme entscheidungsfindung in dynamischen verkehrsszenarien WO2021219638A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP21723150.5A EP4143652B1 (de) 2020-04-28 2021-04-27 Verkehrsregelkonforme entscheidungsfindung in dynamischen verkehrsszenarien
CN202180031740.XA CN115443441B (zh) 2020-04-28 2021-04-27 动态交通场景下的符合交通规则的决策
KR1020227041321A KR102641931B1 (ko) 2020-04-28 2021-04-27 동적 교통 시나리오들에서의 교통-법-준수 의사 결정
JP2022565688A JP2023519442A (ja) 2020-04-28 2021-04-27 動的な交通シナリオにおける交通規則に準拠した意思決定
US17/976,257 US11926341B2 (en) 2020-04-28 2022-10-28 Traffic-rule-compliant decision-making in dynamic traffic scenarios

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020111486.9A DE102020111486A1 (de) 2020-04-28 2020-04-28 Verkehrsregelkonforme Entscheidungsfindung in dynamischen Verkehrsszenarien
DE102020111486.9 2020-04-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/976,257 Continuation US11926341B2 (en) 2020-04-28 2022-10-28 Traffic-rule-compliant decision-making in dynamic traffic scenarios

Publications (1)

Publication Number Publication Date
WO2021219638A1 true WO2021219638A1 (de) 2021-11-04

Family

ID=75787044

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/060986 WO2021219638A1 (de) 2020-04-28 2021-04-27 Verkehrsregelkonforme entscheidungsfindung in dynamischen verkehrsszenarien

Country Status (7)

Country Link
US (1) US11926341B2 (de)
EP (1) EP4143652B1 (de)
JP (1) JP2023519442A (de)
KR (1) KR102641931B1 (de)
CN (1) CN115443441B (de)
DE (1) DE102020111486A1 (de)
WO (1) WO2021219638A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021213166A1 (de) 2021-11-23 2023-05-25 Mercedes-Benz Group AG Verfahren und Vorrichtung zur Steuerung eines automatisiert fahrenden Fahrzeugs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006042512A1 (de) * 2004-10-20 2006-04-27 Adc Automotive Distance Control Systems Gmbh Verfahren zur bestimmung relevanter objekte
EP2028072A2 (de) * 2007-08-21 2009-02-25 Audi Ag Kraftfahrzeug mit einem Spurwechsel- oder einem Spurhalteassistenzsystem sowie einem Einparkhilfesystem
DE102013222586A1 (de) * 2013-11-07 2015-05-07 Robert Bosch Gmbh Verfahren zur Vermeidung einer Kollision eines Kraftfahrzeugs mit einem falschfahrenden Fahrzeug und Steuer- und Erfassungseinrichtung für ein Kraftfahrzeug zur Vermeidung einer Kollision des Kraftfahrzeugs mit einem falschfahrenden Fahrzeug

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334800A (ja) * 1994-06-06 1995-12-22 Matsushita Electric Ind Co Ltd 車両認識装置
JP3714258B2 (ja) * 2002-02-01 2005-11-09 日産自動車株式会社 車両用推奨操作量生成装置
US8510027B2 (en) * 2009-06-11 2013-08-13 Toyota Jidosha Kabushiki Kaisha Method for judging vehicle traveling position and vehicle traveling position judgment device
US8589014B2 (en) 2011-06-01 2013-11-19 Google Inc. Sensor field selection
US9367065B2 (en) * 2013-01-25 2016-06-14 Google Inc. Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
JP6152673B2 (ja) * 2013-03-21 2017-06-28 トヨタ自動車株式会社 車線変更支援装置
DE102015212015A1 (de) * 2015-06-29 2016-12-29 Robert Bosch Gmbh Verfahren zur Vorhersage einer Größe einer Freifläche angrenzend an ein Fahrzeug, Datenverarbeitungsgerät
WO2018052875A1 (en) * 2016-09-15 2018-03-22 Google Llc Image depth prediction neural networks
JP7014180B2 (ja) * 2016-12-20 2022-02-01 日本電気株式会社 航走体制御装置、航走体の制御方法、及び航走体制御装置の制御プログラム
US10627812B2 (en) * 2017-02-14 2020-04-21 Honda Research Institute Europe Gmbh Risk based driver assistance for approaching intersections of limited visibility
US20180284234A1 (en) * 2017-03-29 2018-10-04 Luminar Technologies, Inc. Foveated Imaging in a Lidar System
US11169536B2 (en) * 2018-04-09 2021-11-09 SafeAI, Inc. Analysis of scenarios for controlling vehicle operations
DE102018117830A1 (de) * 2018-07-24 2020-01-30 Valeo Schalter Und Sensoren Gmbh Digitale Umfeldkarte mit Sensorreichweiten
EP3599141B1 (de) * 2018-07-25 2022-12-14 Continental Autonomous Mobility Germany GmbH Multihypothesenvorhersagevorrichtung für ein fahrzeug
CN109947110A (zh) * 2019-04-02 2019-06-28 吉林大学 面向自动驾驶的车道自检算法在环仿真控制方法和系统
CN110588607B (zh) * 2019-10-25 2021-09-28 江苏赛麟汽车科技有限公司 一种基于多传感器的自动驻车系统的控制方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006042512A1 (de) * 2004-10-20 2006-04-27 Adc Automotive Distance Control Systems Gmbh Verfahren zur bestimmung relevanter objekte
EP2028072A2 (de) * 2007-08-21 2009-02-25 Audi Ag Kraftfahrzeug mit einem Spurwechsel- oder einem Spurhalteassistenzsystem sowie einem Einparkhilfesystem
DE102013222586A1 (de) * 2013-11-07 2015-05-07 Robert Bosch Gmbh Verfahren zur Vermeidung einer Kollision eines Kraftfahrzeugs mit einem falschfahrenden Fahrzeug und Steuer- und Erfassungseinrichtung für ein Kraftfahrzeug zur Vermeidung einer Kollision des Kraftfahrzeugs mit einem falschfahrenden Fahrzeug

Also Published As

Publication number Publication date
KR102641931B1 (ko) 2024-02-27
US20230062581A1 (en) 2023-03-02
DE102020111486A1 (de) 2021-10-28
EP4143652B1 (de) 2024-04-03
CN115443441A (zh) 2022-12-06
CN115443441B (zh) 2023-07-21
US11926341B2 (en) 2024-03-12
EP4143652A1 (de) 2023-03-08
KR20230003060A (ko) 2023-01-05
JP2023519442A (ja) 2023-05-10

Similar Documents

Publication Publication Date Title
DE102019127058A1 (de) Fahrzeugwegplanung
DE112019003164T5 (de) Steuersystem eines Fahrzeugs und Steuerverfahren zum Steuern der Bewegung eines Fahrzeugs
DE102019122826A1 (de) Adaptives fahrzeuglernen
DE102020104862A1 (de) Erstellung von Inferenzmodellen für computergestützte (CA)/autonom fahrende (AD) Fahrzeuge
DE102016211182A1 (de) Verfahren, Vorrichtung und System zum Durchführen einer automatisierten Fahrt eines Fahrzeugs entlang einer aus einer Karte bereitgestellten Trajektorie
DE102016007899B4 (de) Verfahren zum Betreiben einer Einrichtung zur Verkehrssituationsanalyse, Kraftfahrzeug und Datenverarbeitungseinrichtung
DE102013005362A1 (de) Verfahren zur Analyse einer Verkehrssituation
WO2016150590A1 (de) Verfahren und vorrichtung zum überwachen einer von einem fahrzeug abzufahrenden soll-trajektorie auf kollisionsfreiheit
DE102019203334A1 (de) Verfahren zum Durchführen einer Reaktion auf Personen an Fahrzeugen
DE102020122488A1 (de) Verbesserte gefahrenbewertung
DE102016207276A1 (de) Verfahren zur Freigabe einer Fahrfunktion in einem Fahrzeug
DE102019124155A1 (de) Sprachverarbeitung in einem fahrzeug
DE102021116703A1 (de) Verfahren und System zur Vorhersage einer Trajektorie eines Zielfahrzeugs in einer Umgebung eines Fahrzeugs
DE102017122969A1 (de) Fahrzeug mit umfeldkontextanalyse
DE102019115330A1 (de) Echtzeit-Sicherheitspfaderzeugung für hochautomatisiertes Fahrzeugrückfallmanöver
EP4143652B1 (de) Verkehrsregelkonforme entscheidungsfindung in dynamischen verkehrsszenarien
DE112021006148T5 (de) Verfahren und System zur Bestimmung eines Bewegungsmodells zur Bewegungsvorhersage bei der Steuerung autonomer Fahrzeuge
DE102019107329A1 (de) Aktionskonditionierte fahrzeugsteuerung
EP3347788A1 (de) Verfahren und vorrichtung zum betreiben eines innerhalb eines parkplatzes fahrerlos fahrenden kraftfahrzeugs
DE102020108508B3 (de) Verfahren zur Bewertung von Streckenabschnitten
DE102021104323A1 (de) Vorfahrtsgewährungentscheidung eines fahrzeugs
DE102020120084A1 (de) Fahrzeugfenstersteuerung
DE102017219377A1 (de) Verfahren zur Optimierung einer Pfadplanung für ein Fahrzeug
DE102021200858B3 (de) Verfahren zum Betreiben einer elektronischen Recheneinrichtung sowie elektronische Recheneinrichtung
DE102019205957A1 (de) Verfahren zum kontrollierten Befahren einer Gegenfahrbahn

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21723150

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022565688

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20227041321

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021723150

Country of ref document: EP

Effective date: 20221128