WO2020094279A1 - Prädiktion eines voraussichtlichen fahrverhaltens - Google Patents
Prädiktion eines voraussichtlichen fahrverhaltens Download PDFInfo
- Publication number
- WO2020094279A1 WO2020094279A1 PCT/EP2019/074652 EP2019074652W WO2020094279A1 WO 2020094279 A1 WO2020094279 A1 WO 2020094279A1 EP 2019074652 W EP2019074652 W EP 2019074652W WO 2020094279 A1 WO2020094279 A1 WO 2020094279A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- control device
- determined
- feature
- expected
- Prior art date
Links
- 230000003466 anti-cipated effect Effects 0.000 title abstract description 13
- 238000000034 method Methods 0.000 claims abstract description 24
- 238000005259 measurement Methods 0.000 claims description 18
- 238000013473 artificial intelligence Methods 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 2
- 238000004088 simulation Methods 0.000 claims description 2
- 230000006399 behavior Effects 0.000 description 25
- 230000002123 temporal effect Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00274—Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/008—Registering or indicating the working of vehicles communicating information to a remotely located station
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0129—Traffic data processing for creating historical data or processing based on historical data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0133—Traffic data processing for classifying traffic situation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/161—Decentralised systems, e.g. inter-vehicle communication
- G08G1/163—Decentralised systems, e.g. inter-vehicle communication involving continuous checking
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/164—Centralised systems, e.g. external to vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/049—Number of occupants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4044—Direction of movement, e.g. backwards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4045—Intention, e.g. lane change or imminent movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4046—Behavior, e.g. aggressive or erratic
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4047—Attentiveness, e.g. distracted by mobile phone
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/55—External transmission of data to or from the vehicle using telemetry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Definitions
- the invention relates to a method for performing a prediction of a driving behavior of a second vehicle by a control device and a control device for coupling to at least one sensor and for evaluating measurement data of the at least one sensor.
- Vehicle sensors that serve to perceive an environment.
- the environment In addition to static obstacles and the road, the environment also includes dynamic objects and in particular other road users.
- the previous behavior of road users in combination with the appearance of the road user is usually used to predict an expected behavior of the road user.
- the expected behavior of the road user is usually used to predict an expected behavior of the road user.
- Road users are used to enter into an interaction or cooperation with the corresponding road users.
- the object on which the invention is based can be seen in proposing a method by which an expected behavior of road users can be determined reliably and dynamically.
- a method for performing a prediction of a driving behavior of a second vehicle is provided by a control device of a first vehicle.
- an expected driving behavior of at least one second vehicle and / or of a driver of the second vehicle can be calculated by the control device of the first vehicle.
- data of a vehicle environment of the second vehicle and / or data of a vehicle driver and / or a load of the second vehicle are received by the control device.
- the data can be recorded by at least one sensor and transmitted to the control unit.
- the control unit can be any suitable control unit.
- Measurement data of the vehicle environment are received by the control unit from a database.
- the measurement data of the second vehicle one
- the driver and / or a load on the second vehicle can be determined by at least one vehicle-side sensor of the first vehicle and transmitted to the control unit.
- the control unit calculates an expected driving behavior of the second vehicle.
- At least one feature of the vehicle environment, the second vehicle, the driver of the second vehicle, the passengers and / or the loading of the second vehicle can be determined by the control device of the first vehicle.
- the data can be measurement data received by at least one sensor of the first vehicle and / or information or data from at least one database.
- a control device which is set up to carry out the method.
- Control unit can be coupled to at least one sensor and / or to at least one database.
- the method can be used to obtain semantic information and / or holistic knowledge of the vehicle environment and the vehicles.
- the method can be carried out by a control device.
- the control device can, for example, be arranged inside or outside the vehicle.
- control device can be mounted in the first vehicle or in further vehicles and connected to the vehicle sensor system.
- infrastructure units such as traffic monitoring units, can also be equipped with such a control device.
- the infrastructure sensors with the
- Control unit connected to data and for example to predictive
- the method can thus be used to gain an understanding of the scene, which is determined on the basis of features of the vehicle environment observed by sensors.
- the area recorded by the sensor is preferably considered holistically here. As many features as possible are extracted from the measurement data and further processed by the control device.
- control device can be used, for example, to restrict the options for operating the observed vehicles, such as the at least one second vehicle. This means that a probable one is more likely
- Braking operations or evasive maneuvers can be determined.
- the anticipated driving behavior of the at least one second vehicle which can be determined by the control device, can have, for example, an anticipated vehicle dynamics, an anticipated driving style, an anticipated trajectory and the like. Based on the expected driving behavior of the second vehicle and / or the driver of the second vehicle, the control unit can send the corresponding data about the expected driving behavior to a driver
- the first vehicle can thus be controlled in a manner adapted to the anticipated behavior, as a result of which critical situations can be avoided.
- the first vehicle can set a larger safety distance or react differently to braking maneuvers of vehicles in front, for example by evasive action.
- an overtaking process by the first vehicle can be delayed if the vehicle in front has a high probability of taking an exit and thus will release the current lane.
- the corresponding control commands can alternatively also be generated directly by the control device and transmitted to the vehicle control system.
- the measurement data of the vehicle surroundings of the second vehicle can in particular have local and temporal information, which is shown in
- the information or measurement data can have vacation times, usual times for after-work traffic, events, trade fairs and the like.
- map data for example about possible trajectories, so-called "points of interest", information about city areas, taxi ranks, bus stops, business addresses and the like can be stored as measurement data of the vehicle surroundings.
- the measurement data of the vehicle environment can be determined directly by the vehicle sensor system of the first vehicle or can be obtained from one or more databases by the control device of the first vehicle.
- the database can be an internal database of the first vehicle and / or the control device or a database external to the vehicle.
- the control device can establish a wireless communication connection to the database external to the vehicle and access the locally and temporally relevant data.
- the driver of the at least one second vehicle and / or of the first vehicle can be a person in particular in the case of manually controlled or partially autonomous vehicles and a vehicle controller in the case of highly automated or fully automated or driverless vehicles.
- the at least one sensor can be one or more cameras, lidar sensor, radar sensor, infrared sensor, thermal imaging camera and the like.
- the features can be detected by the control device of the first vehicle if, for example, a relevant reference is made to the possible driving behavior of the second vehicle in the received measurement data. This can be done, for example, on the basis of static or dynamic factors or conditions.
- the method can be used to collect and use a large number of features for an optimized prediction of the behavior of road users.
- control unit of the first one can evaluate mutual dependencies on a large number of characteristics of other road users in the form of a holistic understanding of the scene
- the anticipated driving behavior of the second vehicle is calculated by a simulation model, by at least one algorithm and / or by an artificial intelligence.
- the driving behavior can be flexibly determined using static or dynamic systems.
- an age, gender and / or condition of the vehicle driver is determined as a feature by the control device of the first vehicle. Based on such features of the vehicle driver, an anticipated driving style can be estimated by the control device. For example, in the context of probabilities, an older driver can be expected to drive more moderately than a young driver. Furthermore, the vehicle sensors or
- a vehicle class, a vehicle state, at least one vehicle registration number and / or a state of a rotating beacon is determined as a feature by the control device of the first vehicle. Based on the characteristics of the vehicle, in particular an expected trajectory of the second vehicle can be estimated or calculated by the control device of the first vehicle.
- a vehicle is most likely to be headed toward the country of registration or circle of approval as determined
- holiday driving can also be taken into account. In this way, in particular at intersections or exits, it can be calculated which lane or departure is most likely to be traveled by the second vehicle.
- the vehicle category and in particular the vehicle price can provide information about which part of the city a vehicle will drive into.
- the rotating beacon of fire engines, police vehicles and ambulances can also tell whether the vehicle is moving away from a station or a hospital.
- a light in the body of an ambulance can also provide information that the ambulance has picked up a patient and is likely to drive to the hospital.
- an advertising space and / or an inscription on the second vehicle are determined as a feature by the control device of the first vehicle and a driving behavior of the second vehicle is estimated therefrom.
- Inscriptions and signals such as a taxi from a defined district, can also be used by the control unit to calculate an expected direction of travel. For example, the taxi will continue from the district in an occupied state and return to the district in an empty state.
- an expected trajectory of the second vehicle is calculated by the control device of the first vehicle on the basis of the determined feature.
- the features of the vehicle and in particular the external features, such as number plates and inscriptions, can be used by the control unit to estimate the expected trajectory.
- an anticipated driving style of the second vehicle is determined by the control device of the first vehicle based on the at least one feature determined by the vehicle driver.
- Control unit is detected and the driving style of the first vehicle is adapted.
- a loading state of the second vehicle is determined by the control device of the first vehicle, an anticipated one being based on the loading state of the second vehicle Vehicle dynamics of the second vehicle is calculated by the control device of the first vehicle. In this way, information about a direction of travel or driving dynamics of the second vehicle can be obtained.
- Passengers of the second vehicle calculate an expected vehicle dynamics of the second vehicle by the control device of the first vehicle.
- the load state of the vehicle can thus be used to:
- a fully loaded vehicle can react less agilely to situations than an empty vehicle.
- an anticipated braking distance of the second vehicle can thus be estimated by the control device of the first vehicle.
- the at least one second vehicle can be arranged in the surroundings of the first vehicle that are visible to sensors.
- the second vehicle can drive in front of the first vehicle or drive offset to the first vehicle.
- all of the features determined can be taken into account in combination or individually by the control unit when calculating the expected driving behavior.
- Fig. 1 is a schematic representation of a system with vehicles and an infrastructure unit and
- Fig. 2 is a schematic flow diagram to illustrate a
- FIG. 1 shows a schematic illustration of a system 1 with a first vehicle 2, a second vehicle 4 and an external database 6.
- the first vehicle 2 drives behind the second vehicle 4.
- the first vehicle 2 has two sensors 8, 10, which are designed as cameras.
- the camera sensors 8, 10 are connected in a data-conducting manner to a control unit 12 on the vehicle.
- the control unit 12 can receive and evaluate the measurement data from the sensors 8, 10.
- the control device 12 has an artificial intelligence, which was learned in advance.
- the detection areas of the sensors 8, 10 are shown schematically.
- the sensors 8, 10 of the first vehicle 2 detect the second vehicle 4. Based on the measurement data from the sensors 8, 10, the control unit 12 can determine or detect features of the second vehicle 4. According to the exemplary embodiment, an identifier 14 of the second becomes an example
- control device 12 can
- the control device 12 of the first vehicle 2 can be wireless
- Communication link 20 Obtain data from database 6.
- the database 6 can in particular have local and temporal information which can be used for the expected trajectory 22. According to the
- the control unit 12 can provide information about the exemplary embodiment
- the probability of driving down the exit 16 is approximately 50:50, or only a fixed a-priori probability can be assumed.
- FIG. 2 shows a schematic flowchart to illustrate a method 24 according to an embodiment of the invention.
- a step 25 measurement data of the vehicle environment F are obtained by the control unit 12 from the database 6 external to the vehicle.
- measurement data of the vehicle environment F can be determined 26 by the vehicle sensors 8, 10.
- the measurement data are evaluated by the control device 12 in a further step 28 and features 14 are detected or ascertained.
- At least one feature 14 of the vehicle environment F, the second vehicle 4, the driver of the second vehicle 4, the passengers and / or the loading of the second vehicle 4 is determined by the control device 12 of the first vehicle 2 on the basis of the measurement data.
- an expected driving behavior 22 of the second vehicle 4 is calculated by the control device 12 of the first vehicle 2 based on the determined features.
- Vehicle control of the first vehicle 2 by the control unit 12 takes place 30, whereby the driving style of the first vehicle 2 can be set in accordance with the expected driving behavior 22 of the second vehicle 4.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
Abstract
Offenbart ist ein Verfahren zum Durchführen einer Vorhersage eines Fahrverhaltens eines zweiten Fahrzeugs durch ein Steuergerät eines ersten Fahrzeugs, wobei Daten einer Fahrzeugumgebung des zweiten Fahrzeugs, und/oder Daten eines Fahrzeugführers und/oder einer Beladung des zweiten Fahrzeugs von dem Steuergerät empfangen werden, wobei anhand der Daten mindestens ein Merkmal ermittelt und basierend auf dem ermittelten Merkmal ein voraussichtliches Fahrverhalten des zweiten Fahrzeugs durch das Steuergerät berechnet wird. Des Weiteren ist ein Steuergerät offenbart.
Description
Beschreibung
Titel
Prädiktion eines voraussichtlichen Fahrverhaltens
Die Erfindung betrifft ein Verfahren zum Durchführen einer Vorhersage eines Fahrverhaltens eines zweiten Fahrzeugs durch ein Steuergerät sowie ein Steuergerät zum Koppeln mit mindestens einem Sensor und zum Auswerten von Messdaten des mindestens einen Sensors.
Stand der Technik
Derzeit bekannte automatisiert betreibbare Fahrzeuge, wie beispielsweise hochautomatisierte oder vollautomatisierte Fahrzeuge, weisen eine
Fahrzeugsensorik auf, welche zum Wahrnehmen eines Umfelds dient. Zum Umfeld gehören neben statischen Hindernissen und der Fahrbahn auch dynamische Objekte und insbesondere andere Verkehrsteilnehmer.
Zum Ermöglichen eines zuverlässigen und vorausschauenden Betriebs eines derartigen Fahrzeugs wird üblicherweise das bisherige Verhalten von Verkehrs- teilnehmern in Kombination mit der Erscheinungsform des Verkehrsteilnehmers dazu eingesetzt, ein voraussichtliches Verhalten des Verkehrsteilnehmers vorherzusagen. Insbesondere kann das voraussichtliche Verhalten von
Verkehrsteilnehmern zum Eingehen einer Interaktion oder einer Kooperation mit den entsprechenden Verkehrsteilnehmern eingesetzt werden.
Offenbarung der Erfindung
Die der Erfindung zugrundeliegende Aufgabe kann darin gesehen werden, ein Verfahren vorzuschlagen, durch welches ein voraussichtliches Verhalten von Verkehrsteilnehmern zuverlässig und dynamisch ermittelt werden kann.
Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
Nach einem Aspekt der Erfindung wird ein Verfahren zum Durchführen einer Vorhersage eines Fahrverhaltens eines zweiten Fahrzeugs durch ein Steuergerät eines ersten Fahrzeugs bereitgestellt.
Es kann insbesondere ein voraussichtliches Fahrverhalten von mindestens einem zweiten Fahrzeug und/oder von einem Fahrzeugführer des zweiten Fahrzeugs durch das Steuergerät des ersten Fahrzeugs berechnet werden.
In einem Schritt werden Daten einer Fahrzeugumgebung des zweiten Fahrzeugs und/oder Daten eines Fahrzeugführers und/oder einer Beladung des zweiten Fahrzeugs von dem Steuergerät empfangen.
Insbesondere können die Daten durch mindestens einen Sensor erfasst und an das Steuergerät übertragen werden. Alternativ oder zusätzlich können
Messdaten der Fahrzeugumgebung aus einer Datenbank durch das Steuergerät empfangen werden. Die Messdaten des zweiten Fahrzeugs, eines
Fahrzeugführers und/oder einer Beladung des zweiten Fahrzeugs können durch mindestens einen fahrzeugseitigen Sensor des ersten Fahrzeugs ermittelt und an das Steuergerät übertragen werden.
Anhand der Daten wird mindestens ein Merkmal ermittelt und basierend auf dem ermittelten Merkmal ein voraussichtliches Fahrverhalten des zweiten Fahrzeugs durch das Steuergerät berechnet.
Insbesondere kann mindestens ein Merkmal der Fahrzeugumgebung, des zweiten Fahrzeugs, des Fahrzeugführers des zweiten Fahrzeugs, der Passagiere und/oder der Beladung des zweiten Fahrzeugs durch das Steuergerät des ersten Fahrzeugs ermittelt werden. Gemäß einer Ausführungsform können die Daten hierbei Messdaten sein, die von mindestens einem Sensor des ersten Fahrzeugs empfangen werden und/oder Informationen bzw. Daten von mindestens einer Datenbank sein.
Nach einem weiteren Aspekt der Erfindung wird ein Steuergerät bereitgestellt, das dazu eingerichtet ist, das Verfahren auszuführen. Insbesondere ist das
Steuergerät mit mindestens einem Sensor und/oder mit mindestens einer Datenbank koppelbar.
Aufgrund zunehmender Entwicklung im Bereich von autonomen oder
teilautonomen Fahrzeugen steigen die Anforderungen an die Wahrnehmung der Fahrzeuge.
Durch das Verfahren können semantische Hinweise und/oder holistisches Wissen über die Fahrzeugumgebung und die Fahrzeuge erlangt werden. Hierfür kann das Verfahren durch ein Steuergerät ausgeführt werden. Das Steuergerät kann beispielsweise fahrzeugintern oder fahrzeugextern angeordnet sein.
Insbesondere kann das Steuergerät in dem ersten Fahrzeug oder in weiteren Fahrzeugen montiert und mit der Fahrzeugsensorik verbunden sein.
Alternativ oder zusätzlich können Infrastruktureinheiten, wie beispielsweise Verkehrsüberwachungseinheiten, ebenfalls mit einem derartigen Steuergerät ausgerüstet werden. Hierbei können die Infrastruktursensoren mit dem
Steuergerät datenleitend verbunden und beispielsweise zur prädiktiven
Auswertung von Verkehrsbewegungen eingesetzt werden.
Das Verfahren kann somit dazu eingesetzt werden, ein Szenenverständnis zu erlangen, welches anhand von Merkmalen der durch Sensoren beobachteten Fahrzeugumgebung ermittelt wird. Der durch die Sensor aufzeichnete Bereich wird hier vorzugsweise ganzheitlich betrachtet. Durch das Steuergerät werden möglichst viele Merkmale aus den Messdaten extrahiert und weiterverarbeitet.
Die Weiterverarbeitung der Merkmale durch das Steuergerät kann beispielsweise zum Einschränken von Agierungsmöglichkeiten der beobachteten Fahrzeuge, wie beispielsweise des mindestens einen zweiten Fahrzeugs, eingesetzt werden. Somit kann mit einer höheren Wahrscheinlichkeit eine voraussichtliche
Trajektorie oder eine voraussichtliche Fahrdynamik, beispielsweise bei
Bremsvorgängen oder Ausweichmanövern, bestimmt werden.
Das durch das Steuergerät ermittelbare voraussichtliche Fahrverhalten des mindestens einen zweiten Fahrzeugs kann beispielsweise eine voraussichtliche Fahrzeugdynamik, eine voraussichtliche Fahrweise, eine voraussichtliche Trajektorie und dergleichen aufweisen.
Basierend auf dem voraussichtlichen Fahrverhalten des zweiten Fahrzeugs und/oder des Fahrzeugführers des zweiten Fahrzeugs kann das Steuergerät die entsprechenden Daten über das voraussichtliche Fahrverhalten an eine
Fahrzeugsteuerung des ersten Fahrzeugs leiten. Somit kann das erste Fahrzeug an das voraussichtliche Verhalten angepasst gesteuert werden, wodurch kritische Situationen vermeidbar sind. Beispielsweise kann das erste Fahrzeug einen größeren Sicherheitsabstand einstellen oder anders auf Bremsmanöver vorfahrender Fahrzeuge, beispielsweise durch Ausweichen, reagieren. Des Weiteren kann ein Überholvorgang durch das erste Fahrzeug verzögert werden, wenn das vorausfahrende Fahrzeug mit einer hohen Wahrscheinlichkeit eine Ausfahrt nehmen und somit die aktuelle Fahrbahn freigeben wird.
Die entsprechenden Steuerbefehle können alternativ auch direkt durch das Steuergerät erzeugt und an die Fahrzeugsteuerung übermittelt werden.
Die Messdaten der Fahrzeugumgebung des zweiten Fahrzeugs können insbesondere örtliche und zeitliche Informationen aufweisen, welche in
Zusammenhang mit dem Verkehr relevant sind.
Viele der semantischen Hinweise können insbesondere mit Kenntnis der Tageszeit, der sonstigen zeitlichen, örtlichen und semantischen
Umgebungsbedingungen ermittelt werden.
Beispielsweise können die Informationen bzw. Messdaten Ferienzeiten, übliche Zeiten für Feierabendverkehr, Veranstaltungen, Messen und dergleichen aufweisen.
Des Weiteren können Kartendaten, beispielsweise über mögliche Trajektorien, sogenannte„Points of interest“, Informationen über Stadtbereiche, Taxistände, Bushaltestellen, Geschäftsadressen und dergleichen als Messdaten der Fahrzeugumgebung hinterlegt sein.
Die Messdaten der Fahrzeugumgebung können durch die Fahrzeugsensorik des ersten Fahrzeugs direkt ermittelt oder aus einer oder mehreren Datenbanken durch das Steuergerät des ersten Fahrzeugs bezogen werden.
Die Datenbank kann eine interne Datenbank des ersten Fahrzeugs und/oder des Steuergeräts oder eine fahrzeugexterne Datenbank sein. Im Falle einer externen Datenbank kann das Steuergerät eine drahtlose Kommunikationsverbindung zu der fahrzeugexternen Datenbank hersteilen und auf die örtlich und zeitlich relevanten Daten zugreifen.
Der Fahrzeugführer des mindestens einen zweiten Fahrzeugs und/oder des ersten Fahrzeugs kann bei manuell gesteuerten oder teilautonomen Fahrzeugen insbesondere eine Person und bei hochautomatisierten oder vollautomatisierten bzw. fahrerlosen Fahrzeugen eine Fahrzeugsteuerung sein.
Der mindestens eine Sensor kann eine oder mehrere Kameras, Lidarsensor, Radarsensor, Infrarotsensor, Wärmebildkamera und dergleichen sein.
Die Merkmale können durch das Steuergerät des ersten Fahrzeugs detektiert werden, wenn beispielsweise in den empfangenen Messdaten ein relevanter Bezug zu dem möglichen Fahrverhalten des zweiten Fahrzeugs hergestellt wird. Dies kann zum Beispiel anhand von statischen oder dynamischen Faktoren bzw. Bedingungen erfolgen.
Durch das Verfahren kann eine Vielzahl an Merkmalen für eine optimierte Prädiktion eines Verhaltens von Verkehrsteilnehmern gesammelt und eingesetzt werden.
Insbesondere kann eine Auswertung von wechselseitigen Abhängigkeiten von einer Vielzahl an Merkmalen anderer Verkehrsteilnehmer in Form eines ganzheitlichen Szeneverständnisses durch das Steuergerät des ersten
Fahrzeugs durchgeführt werden.
Gemäß einem Ausführungsbeispiel wird das voraussichtliche Fahrverhalten des zweiten Fahrzeugs durch ein Simulationsmodell, durch mindestens einen Algorithmus und/oder durch eine künstliche Intelligenz berechnet. Hierdurch kann das Fahrverhalten flexibel durch statische oder dynamische Systeme ermittelt werden.
Wenn die Komplexität der Möglichkeiten der Merkmale die im Steuergerät eingesetzten Rechen- oder Modellierungsfähigkeiten überschreit, können
Hinweise bzw. Merkmale als Nebenbedingungen in maschinelle Lernverfahren integriert werden. Hierbei kann die relevante Berechnung alternativ oder zusätzlich fahrzeugextern durchgeführt werden.
Durch den Einsatz von künstlicher Intelligenz bzw. dem maschinellem Lernen können ein umfassendes Verständnis der Umgebung und insbesondere ein Szenenverständnis der Verkehrsteilnehmer und deren Rolle darin durch das Steuergerät des ersten Fahrzeugs ermittelt werden.
Nach einer weiteren Ausführungsform wird als Merkmal ein Alter, Geschlecht und/oder Zustand des Fahrzeugführers durch das Steuergerät des ersten Fahrzeugs ermittelt. Basierend auf derartigen Merkmalen des Fahrzeugführers kann eine voraussichtliche Fahrweise durch das Steuergerät abgeschätzt werden. Beispielsweise kann im Rahmen von Wahrscheinlichkeiten bei einem älteren Fahrer eine gemäßigtere Fahrweise als bei einem jungen Fahrer erwartet werden. Des Weiteren kann durch die Fahrzeugsensorik oder
Infrastruktursensoren geprüft werden, ob der Fahrzeugführer müde ist und somit träge auf unerwartete Situationen reagiert.
Gemäß einer weiteren Ausführungsform wird als Merkmal eine Fahrzeugklasse, ein Fahrzeugzustand, zumindest ein Fahrzeugkennzeichen und/oder ein Zustand einer Rundumkennleuchte durch das Steuergerät des ersten Fahrzeugs ermittelt. Basierend auf den Merkmalen des Fahrzeugs kann insbesondere eine voraussichtliche Trajektorie des zweiten Fahrzeugs durch das Steuergerät des ersten Fahrzeugs geschätzt bzw. berechnet werden.
Beispielsweise wird ein Fahrzeug am wahrscheinlichsten in Richtung des Zulassungslands oder des Zulassungskreises gemäß dem ermittelten
Kennzeichen fahren. Werden zeitliche Merkmale, wie Ferienzeiten,
herangezogen, können auch Urlaubsfahren berücksichtigt werden. Somit kann insbesondere bei Kreuzungen oder Abfahrten berechnet werden, welche Spur oder Abfahrt durch das zweite Fahrzeug am wahrscheinlichsten befahren wird.
Des Weiteren können die Fahrzeugkategorie und insbesondere Fahrzeugpreis Hinweise darüber liefern, in welchen Stadtteil ein Fahrzeug fahren wird.
Die Rundumkennleuchte von Feuerwehrfahrzeugen, Polizeifahrzeugen und Krankenwagen kann ebenfalls darüber Aufschluss geben, ob das jeweilige Fahrzeug sich von einer Station bzw. einem Krankenhaus entfernt.
Beispielsweise kann auch ein Licht im Kofferaufbau eines Krankenwagens die Information liefern, dass der Krankenwagen einen Patienten aufgenommen und voraussichtlich zum Krankenhaus fährt.
Nach einem weiteren Ausführungsbeispiel werden als Merkmal eine Werbefläche und/oder eine Aufschrift auf dem zweiten Fahrzeug durch das Steuergerät des ersten Fahrzeugs ermittelt und daraus ein Fahrverhalten des zweiten Fahrzeugs abgeschätzt.
Aufschriften und Signale, wie beispielsweise ein Taxi eines definierten Stadtteils, können vom Steuergerät ebenfalls dazu genutzt werden, eine voraussichtliche Fahrtrichtung zu berechnen. Beispielsweise wird das Taxi in einem besetzten Zustand von dem Stadtteil fortfahren und im leeren Zustand zu dem Stadtteil zurückkehren.
Gemäß einem weiteren Ausführungsbeispiel wird anhand des ermittelten Merkmals eine voraussichtliche Trajektorie des zweiten Fahrzeugs durch das Steuergerät des ersten Fahrzeugs berechnet. Hierdurch können die Merkmale des Fahrzeugs und insbesondere die äußeren Merkmale, wie Kennzeichen und Aufschriften, zum Abschätzen der voraussichtlichen Trajektorie durch das Steuergerät eingesetzt werden.
Nach einem weiteren Ausführungsbeispiel wird basierend auf dem mindestens einen ermittelten Merkmal des Fahrzeugführers eine voraussichtliche Fahrweise des zweiten Fahrzeugs durch das Steuergerät des ersten Fahrzeugs ermittelt. Somit kann ein besonders dynamisches Fahrverhalten oder ein träges
Fahrverhalten erwartet werden. Insbesondere können auch voraussichtlich verzögerte Reaktionen, beispielsweise durch Übermüdung, durch das
Steuergerät detektiert und eine Anpassung der Fahrweise des ersten Fahrzeugs durchgeführt werden.
Gemäß einem weiteren Ausführungsbeispiel wird ein Beladungszustand des zweiten Fahrzeugs durch das Steuergerät des ersten Fahrzeugs ermittelt, wobei anhand des Beladungszustands des zweiten Fahrzeugs eine voraussichtliche
Fahrzeugdynamik des zweiten Fahrzeugs durch das Steuergerät des ersten Fahrzeugs berechnet wird. Hierdurch können Hinweise über eine Fahrtrichtung oder eine Fahrdynamik des zweiten Fahrzeugs gewonnen werden.
Beispielsweise wird ein mit Koffern bepacktes Fahrzeug zu Beginn der Ferien wahrscheinlich von dem Zulassungskreis des Fahrzeugs wegfahren.
Nach einer weiteren Ausführungsform wird anhand einer Anzahl von
Passagieren des zweiten Fahrzeugs eine voraussichtliche Fahrzeugdynamik des zweiten Fahrzeugs durch das Steuergerät des ersten Fahrzeugs berechnet. Es kann somit der Beladungszustand des Fahrzeugs dazu genutzt werden,
Aufschluss über seine fahrdynamischen Eigenschaften zu liefern. Ein
vollbeladenes Fahrzeug kann beispielsweise weniger agil auf Situationen reagieren als ein leeres Fahrzeug. Insbesondere kann somit ein voraussichtlicher Bremsweg des zweiten Fahrzeugs durch das Steuergerät des ersten Fahrzeugs abgeschätzt werden.
Das mindestens eine zweite Fahrzeug kann im für Sensoren sichtbaren Umfeld des ersten Fahrzeugs angeordnet sein. Insbesondere kann das zweite Fahrzeug vor dem ersten Fahrzeug fahren oder versetzt zum ersten Fahrzeug fahren.
Bevorzugterweise können alle ermittelten Merkmale in Kombination oder einzeln durch das Steuergerät bei der Berechnung des voraussichtlichen Fahrverhaltens berücksichtigt werden.
Im Folgenden werden anhand von stark vereinfachten schematischen
Darstellungen bevorzugte Ausführungsbeispiele der Erfindung näher erläutert. Hierbei zeigen
Fig. 1 eine schematische Darstellung eines Systems mit Fahrzeugen und einer Infrastruktureinheit und
Fig. 2 ein schematisches Ablaufdiagramm zum Veranschaulichen eines
Verfahrens gemäß einer Ausführungsform der Erfindung.
Die Figur 1 zeigt eine schematische Darstellung eines Systems 1 mit einem ersten Fahrzeug 2, einem zweiten Fahrzeug 4 und einer externen Datenbank 6. Das erste Fahrzeug 2 fährt hinter dem zweiten Fahrzeug 4.
Das erste Fahrzeug 2 weist zwei Sensoren 8, 10 auf, welche als Kameras ausgeführt sind. Die Kamerasensoren 8, 10 sind datenleitend mit einem fahrzeugseitigen Steuergerät 12 verbunden. Das Steuergerät 12 kann die Messdaten der Sensoren 8, 10 empfangen und auswerten. Hierfür weist das Steuergerät 12 eine künstliche Intelligenz auf, welche im Vorfeld angelernt wurde. Die Erfassungsbereiche der Sensoren 8, 10 sind schematisch dargestellt.
Die Sensoren 8, 10 des ersten Fahrzeugs 2 detektieren das zweite Fahrzeug 4. Basierend auf den Messdaten der Sensoren 8, 10 kann das Steuergerät 12 Merkmale des zweiten Fahrzeugs 4 ermitteln bzw. detektieren. Gemäß dem Ausführungsbeispiel wird beispielhaft ein Kennzeichen 14 des zweiten
Fahrzeugs 4 detektiert und ein Registrierungskreis„KA“ für Karlsruhe des zweiten Fahrzeugs 4 durch das Steuergerät 12 ermittelt.
Basierend auf dem Kennzeichen 14 kann das Steuergerät 12 das
voraussichtliche Verhalten des zweiten Fahrzeugs 4 dahingehend berechnen, dass das zweite Fahrzeug 4 mit einer erhöhten Wahrscheinlichkeit eine Abfahrt 16 in Richtung Karlsruhe nehmen und nicht dem Verlauf der gegenwärtigen Straße 18 folgen wird.
Das Steuergerät 12 des ersten Fahrzeugs 2 kann über eine drahtlose
Kommunikationsverbindung 20 Daten von der Datenbank 6 beziehen. Die Datenbank 6 kann insbesondere örtliche und zeitliche Informationen aufweisen, welche für die voraussichtliche Trajektorie 22 nutzbar sind. Gemäß dem
Ausführungsbeispiel kann das Steuergerät 12 Informationen über die
Straßenverläufe und die Route nach Karlsruhe über die Abfahrt 16 empfangen. Somit kann die voraussichtliche Trajektorie als ein voraussichtliches
Fahrverhalten des zweiten Fahrzeugs 4 durch das Steuergerät unter
Zuhilfenahme der künstlichen Intelligenz berechnet werden.
Ohne Nutzung des semantischen Wissens ist die Wahrscheinlichkeit für das Befahren der Abfahrt 16 in etwa 50:50 bzw. es kann nur eine fixe A-Priori- Wahrscheinlichkeit angenommen werden. Mit Wissen über den anderen
Verkehrsteilnehmer 4 sowie Wissen über die Umgebung kann diese A-Priori- Wahrscheinlichkeit für jeden Verkehrsteilnehmer 4 individuell bestimmt und die Prädiktion damit verbessert werden.
Die Figur 2 zeigt ein schematisches Ablaufdiagramm zum Veranschaulichen eines Verfahrens 24 gemäß einer Ausführungsform der Erfindung.
In einem Schritt 25 werden Messdaten der Fahrzeugumgebung F durch das Steuergerät 12 von der fahrzeugexternen Datenbank 6 bezogen.
Alternativ oder zusätzlich können Messdaten der Fahrzeugumgebung F durch die Fahrzeugsensoren 8, 10 ermittelt werden 26.
Anschließend oder parallel zu den vorangegangenen Schritten 25, 26 werden Messdaten des zweiten Fahrzeugs 4, eines Fahrzeugführers und/oder einer Beladung des zweiten Fahrzeugs 4 durch die Fahrzeugsensoren 8, 10 des ersten Fahrzeugs 2 ermittelt und an das Steuergerät 12 übertragen 27.
Die Messdaten werden durch das Steuergerät 12 in einem weiteren Schritt 28 ausgewertet und Merkmale 14 detektiert bzw. ermittelt.
Insbesondere wird anhand der Messdaten mindestens ein Merkmal 14 der Fahrzeugumgebung F, des zweiten Fahrzeugs 4, des Fahrzeugführers des zweiten Fahrzeugs 4, der Passagiere und/oder der Beladung des zweiten Fahrzeugs 4 durch das Steuergerät 12 des ersten Fahrzeugs 2 ermittelt.
In einem weiteren Schritt 29 wird basierend auf den ermittelten Merkmalen ein voraussichtliches Fahrverhalten 22 des zweiten Fahrzeugs 4 durch das Steuergerät 12 des ersten Fahrzeugs 2 berechnet.
Anschließend kann eine Anweisung oder eine Benachrichtigung einer
Fahrzeugsteuerung des ersten Fahrzeugs 2 durch das Steuergerät 12 erfolgen 30, wodurch die Fahrweise des ersten Fahrzeugs 2 entsprechend dem voraussichtlichen Fahrverhalten 22 des zweiten Fahrzeugs 4 eingestellt werden kann.
Claims
1. Verfahren (24) zum Durchführen einer Vorhersage eines Fahrverhaltens (22) eines zweiten Fahrzeugs (4) durch ein Steuergerät (12) eines ersten Fahrzeugs (2), wobei
Daten einer Fahrzeugumgebung (F) des zweiten Fahrzeugs (4), und/oder
Daten eines Fahrzeugführers und/oder einer Beladung des zweiten Fahrzeugs (4) von dem Steuergerät (12) empfangen werden, anhand der Daten mindestens ein Merkmal (14) ermittelt und basierend auf dem ermittelten Merkmal (14) ein voraussichtliches Fahrverhalten (22) des zweiten Fahrzeugs (4) durch das Steuergerät (12) berechnet wird.
2. Verfahren nach Anspruch 1 , wobei die Daten von einer Datenbank (6) und/oder von einem Sensor (8, 10) des ersten Fahrzeug (2) empfangen werden.
3. Verfahren nach Anspruch 1 oder 2, wobei das voraussichtliche Fahrverhalten (22) des zweiten Fahrzeugs (4) durch ein Simulationsmodell, durch mindestens einen Algorithmus und/oder durch eine künstliche Intelligenz berechnet wird.
4. Verfahren nach Anspruch 1 , 2 oder 3, wobei als Merkmal ein Alter, Geschlecht und/oder Zustand des Fahrzeugführers durch das Steuergerät (12) des ersten Fahrzeugs (2) ermittelt wird.
5. Verfahren nach einem der Ansprüche 1 bis 4, wobei als Merkmal (14) eine Fahrzeugklasse, ein Fahrzeugzustand, zumindest ein Fahrzeugkennzeichen und/oder ein Zustand einer Rundumkennleuchte durch das Steuergerät (12) des ersten Fahrzeugs (2) ermittelt werden.
6. Verfahren nach einem der Ansprüche 1 bis 5, wobei als Merkmal (14) eine Werbefläche und/oder eine Aufschrift auf dem zweiten Fahrzeug (4) durch das Steuergerät (12) des ersten Fahrzeugs (2) ermittelt wird und daraus ein Fahrverhalten des zweiten Fahrzeugs (4) abgeschätzt wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, wobei anhand des ermittelten Merkmals eine voraussichtliche Trajektorie des zweiten Fahrzeugs (4) durch das Steuergerät (12) des ersten Fahrzeugs (2) berechnet wird.
8. Verfahren nach einem der Ansprüche 1 bis 7, wobei basierend auf dem
mindestens einen ermittelten Merkmal (14) des Fahrzeugführers eine voraussichtliche Fahrweise des zweiten Fahrzeugs (4) durch das Steuergerät (12) des ersten Fahrzeugs (2) ermittelt wird.
9. Verfahren nach einem der Ansprüche 1 bis 8, wobei ein Beladungszustand des zweiten Fahrzeugs (4) durch das Steuergerät (12) des ersten Fahrzeugs (2) basierend auf den empfangenen Messdaten ermittelt wird, wobei anhand des Beladungszustands des zweiten Fahrzeugs (4) eine voraussichtliche
Fahrzeugdynamik des zweiten Fahrzeugs (4) durch das Steuergerät (12) des ersten Fahrzeugs (2) berechnet wird.
10. Verfahren nach einem der Ansprüche 1 bis 9, wobei anhand einer Anzahl von Passagieren des zweiten Fahrzeugs (4) eine voraussichtliche
Fahrzeugdynamik des zweiten Fahrzeugs (4) durch das Steuergerät (12) des ersten Fahrzeugs (2) berechnet wird.
1 1. Steuergerät (12), das dazu eingerichtet ist, das Verfahren (24) gemäß einem der vorhergehenden Ansprüche auszuführen.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19773368.6A EP3877231A1 (de) | 2018-11-06 | 2019-09-16 | Prädiktion eines voraussichtlichen fahrverhaltens |
US17/291,175 US20210362707A1 (en) | 2018-11-06 | 2019-09-16 | Prediction of a likely driving behavior |
CN201980073118.8A CN112955361A (zh) | 2018-11-06 | 2019-09-16 | 对预期行驶行为的预测 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018218922.6A DE102018218922A1 (de) | 2018-11-06 | 2018-11-06 | Prädiktion eines voraussichtlichen Fahrverhaltens |
DE102018218922.6 | 2018-11-06 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020094279A1 true WO2020094279A1 (de) | 2020-05-14 |
Family
ID=68051752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2019/074652 WO2020094279A1 (de) | 2018-11-06 | 2019-09-16 | Prädiktion eines voraussichtlichen fahrverhaltens |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210362707A1 (de) |
EP (1) | EP3877231A1 (de) |
CN (1) | CN112955361A (de) |
DE (1) | DE102018218922A1 (de) |
WO (1) | WO2020094279A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021203482A1 (de) | 2021-04-08 | 2022-10-13 | Volkswagen Aktiengesellschaft | Verfahren und optisches Ausgabesystem für ein Fahrzeug zur optischen Ausgabe eines Merkmals eines in einem Fahrzeugumfeld befindlichen zu erfassenden Fahrzeugs |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019134922A1 (de) * | 2019-12-18 | 2021-06-24 | Audi Ag | Verfahren zum Betrieb eines autonomen bewegten Verkehrsteilnehmers |
DE102021200803A1 (de) | 2021-01-29 | 2022-08-04 | Siemens Mobility GmbH | Auswerteinrichtung für eine technische Einrichtung und Verfahren zum Herstellen einer Auswerteinrichtung |
US20240051581A1 (en) * | 2022-08-15 | 2024-02-15 | Motional Ad Llc | Determination of an action for an autonomous vehicle in the presence of intelligent agents |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014225804A1 (de) * | 2014-12-15 | 2016-06-16 | Bayerische Motoren Werke Aktiengesellschaft | Unterstützung beim Führen eines Fahrzeugs |
US10037699B1 (en) * | 2017-05-05 | 2018-07-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for motivating a driver according to behaviors of nearby vehicles |
DE102017204393A1 (de) * | 2017-03-16 | 2018-09-20 | Robert Bosch Gmbh | Verfahren zum Ansteuern eines Fahrbetriebs eines Fahrzeugs |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8577088B2 (en) * | 2010-08-05 | 2013-11-05 | Hi-Tech Solutions Ltd. | Method and system for collecting information relating to identity parameters of a vehicle |
US8493196B2 (en) * | 2010-11-15 | 2013-07-23 | Bendix Commercial Vehicle Systems Llc | ACB following distance alert and warning adjustment as a function of forward vehicle size and host vehicle mass |
DE102013208763A1 (de) * | 2013-05-13 | 2014-11-13 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erkennen einer Anfahrabsicht eines haltenden Fahrzeugs |
SE539157C2 (sv) * | 2014-02-19 | 2017-04-18 | Scania Cv Ab | Identifikation av säkerhetsrisker i ett fordon för att meddela medtrafikanter |
US9731713B2 (en) * | 2014-09-10 | 2017-08-15 | Volkswagen Ag | Modifying autonomous vehicle driving by recognizing vehicle characteristics |
US10181264B2 (en) * | 2016-04-18 | 2019-01-15 | Ford Global Technologies, Llc | Systems and methods for intersection assistance using dedicated short range communications |
SE540619C2 (en) * | 2016-04-22 | 2018-10-02 | Scania Cv Ab | Method and system for adapting platooning operation according to the behavior of other road users |
US20180137756A1 (en) * | 2016-11-17 | 2018-05-17 | Ford Global Technologies, Llc | Detecting and responding to emergency vehicles in a roadway |
DE102017207097A1 (de) * | 2017-04-27 | 2018-10-31 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Steuerung eines Fahrzeugs |
CN110997387B (zh) * | 2017-06-20 | 2023-06-20 | 动态Ad 有限责任公司 | 具有自主驾驶能力的运载工具的风险处理 |
US10957201B2 (en) * | 2017-09-15 | 2021-03-23 | Qualcomm Incorporated | System and method for relative positioning based safe autonomous driving |
US11110932B2 (en) * | 2017-11-03 | 2021-09-07 | Toyota Research Institute, Inc. | Methods and systems for predicting object action |
WO2019099413A1 (en) * | 2017-11-14 | 2019-05-23 | AWARE Technologies | Systems and methods for moving object predictive locating, reporting, and alerting |
WO2020018394A1 (en) * | 2018-07-14 | 2020-01-23 | Moove.Ai | Vehicle-data analytics |
-
2018
- 2018-11-06 DE DE102018218922.6A patent/DE102018218922A1/de active Pending
-
2019
- 2019-09-16 EP EP19773368.6A patent/EP3877231A1/de active Pending
- 2019-09-16 US US17/291,175 patent/US20210362707A1/en active Pending
- 2019-09-16 CN CN201980073118.8A patent/CN112955361A/zh active Pending
- 2019-09-16 WO PCT/EP2019/074652 patent/WO2020094279A1/de unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014225804A1 (de) * | 2014-12-15 | 2016-06-16 | Bayerische Motoren Werke Aktiengesellschaft | Unterstützung beim Führen eines Fahrzeugs |
DE102017204393A1 (de) * | 2017-03-16 | 2018-09-20 | Robert Bosch Gmbh | Verfahren zum Ansteuern eines Fahrbetriebs eines Fahrzeugs |
US10037699B1 (en) * | 2017-05-05 | 2018-07-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for motivating a driver according to behaviors of nearby vehicles |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021203482A1 (de) | 2021-04-08 | 2022-10-13 | Volkswagen Aktiengesellschaft | Verfahren und optisches Ausgabesystem für ein Fahrzeug zur optischen Ausgabe eines Merkmals eines in einem Fahrzeugumfeld befindlichen zu erfassenden Fahrzeugs |
Also Published As
Publication number | Publication date |
---|---|
EP3877231A1 (de) | 2021-09-15 |
DE102018218922A1 (de) | 2020-05-07 |
CN112955361A (zh) | 2021-06-11 |
US20210362707A1 (en) | 2021-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112012006226B4 (de) | Fahrassistenzvorrichtung | |
WO2020094279A1 (de) | Prädiktion eines voraussichtlichen fahrverhaltens | |
DE102014008578B4 (de) | Verfahren zur Ermittlung von Positionsdaten zur Nutzung beim Betrieb eines Fahrzeugsystems eines Kraftfahrzeugs und Positionsdatenermittlungs- und-verteilssystem | |
DE112017007713T5 (de) | Systeme und Verfahren zur Fahrzeugbelegungsverwaltung | |
DE102017129076A1 (de) | Autonomer schulbus | |
DE112017006530T5 (de) | Rückmeldung für ein autonomes fahrzeug | |
DE102016205152A1 (de) | Fahrerassistenzsystem zum Unterstützen eines Fahrers beim Führen eines Fahrzeugs | |
DE102017217444B4 (de) | Verfahren und System zum Aktualisieren eines Steuerungsmodells für eine automatische Steuerung zumindest einer mobilen Einheit | |
DE102018222601A1 (de) | Verfahren und Fahrerassistenzsystem zum Unterstützen eines Fahrers eines Fahrzeugs beim Führen des Fahrzeugs | |
DE102020122757A1 (de) | Systeme und verfahren für mitfahrgelegenheiten unter verwendung von blockchain | |
DE102018212286A1 (de) | Verfahren und Vorrichtung zur Unterstützung einer Aufmerksamkeit und/oder Fahrbereitschaft eines Fahrers bei einem automatisierten Fahrvorgang eines Fahrzeugs | |
DE102016223830A1 (de) | Verfahren zum Betreiben eines automatisierten Fahrzeugs | |
DE102017216202A1 (de) | Verfahren zur Prädiktion einer optimalen Fahrspur auf einer mehrspurigen Straße | |
WO2020083962A1 (de) | Vorrichtung und steuereinheit zur automatisierung einer zustandsänderung einer fensterscheibe eines fahrzeugs | |
DE102021107602A1 (de) | Fahrassistenzvorrichtung und datensammelsystem | |
DE102020113611A1 (de) | Verfahren und Sicherheitssystem zum Absichern einer automatisierten Fahrzeugfunktion und Kraftfahrzeug | |
DE102018219760A1 (de) | Kollisionsprädiktionssystem | |
DE102017217131B3 (de) | Verfahren zur Unterstützung einer Parkplatzsuche für einen Fahrzeugführer eines Lastkraftwagens sowie ein System, welches dazu eingerichtet ist, ein solches Verfahren durchzuführen | |
DE112018006674T5 (de) | Fahrassistenzvorrichtung, Fahrassistenzsystem, Fahrassistenzverfahren und Aufzeichnungsmedium, in dem ein Fahrassistenzprogramm gespeichert ist | |
DE102021000792A1 (de) | Verfahren zum Betrieb eines Fahrzeuges | |
DE102018211726A1 (de) | Verfahren zum automatischen maschinellen Trainieren eines elektronischen Fahrzeugführungssystems, sowie Kraftfahrzeug | |
DE102021201133A1 (de) | Verfahren zum infrastrukturgestützten Assistieren eines Kraftfahrzeugs | |
DE102017223621A1 (de) | Verfahren und Steuereinheit zur Steuerung einer Funktion eines zumindest teilweise automatisiert fahrenden Fahrzeugs | |
WO2019211293A1 (de) | Verfahren zum betreiben eines fahrerassistenzsystems eines egofahrzeugs mit wenigstens einem umfeldsensor zum erfassen eines umfelds des egofahrzeugs, computer-lesbares medium, system, und fahrzeug | |
DE102021201978A1 (de) | Sammeln von sensordaten von fahrzeugen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19773368 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2019773368 Country of ref document: EP Effective date: 20210607 |