EP3928127A1 - Infrastrukturseitige umfelderfassung beim autonomen fahren - Google Patents

Infrastrukturseitige umfelderfassung beim autonomen fahren

Info

Publication number
EP3928127A1
EP3928127A1 EP20725093.7A EP20725093A EP3928127A1 EP 3928127 A1 EP3928127 A1 EP 3928127A1 EP 20725093 A EP20725093 A EP 20725093A EP 3928127 A1 EP3928127 A1 EP 3928127A1
Authority
EP
European Patent Office
Prior art keywords
vehicle
environment model
data
sensor data
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP20725093.7A
Other languages
English (en)
French (fr)
Inventor
Dominic BERGES
Dominik Zoeke
Marcus Zwick
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Siemens Mobility GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Mobility GmbH filed Critical Siemens Mobility GmbH
Publication of EP3928127A1 publication Critical patent/EP3928127A1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4804Auxiliary means for detecting or identifying lidar signals or the like, e.g. laser illuminators
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations

Definitions

  • the invention relates to a method for generating a field model of an autonomously controlled vehicle.
  • the invention also relates to a method for the autonomous control of a vehicle.
  • the invention also relates to an environment model generation device.
  • the invention also relates to a vehicle control device.
  • the invention also relates to an autonomously controlled vehicle.
  • the invention also relates to an automated transport system.
  • Autonomous driving is understood to be the independent driving, control and parking of a vehicle without human influence.
  • Autonomous driving requires precise knowledge of the position and speed both of the autonomously controlled vehicle itself and of objects located in the vicinity of a route of an autonomously controlled vehicle. Therefore, in the context of autonomous vehicles, the perception of the surroundings and the localization and detection of objects as well as the autonomous vehicle itself are of outstanding importance. If the surroundings are only detected by the autonomous vehicle itself, this detection is limited to the detection sensors of the autonomous vehicle.
  • the sensors used in vehicles, such as lidar, radar, ultrasonic sensors and cameras have limitations in terms of their range, real-time capability, coverage of the surrounding area and performance, especially in different weather conditions, such as strong sunlight, rain and
  • shading areas caused by trucks or cars can occur during the vehicle-side environment recognition, which cannot be perceived by one's own environment detection.
  • major decisions when detecting objects, ie an object is detected by a majority of the available sensors, but not by a minority. It is then accepted that an object has been detected. It would be desirable to have the To increase the number of sensors contributing to such a decision beyond the number of sensors directly available to an autonomous vehicle. Infrastructural sensors could then also be consulted for such a decision two sensors of the vehicle detect an object but two sensors of two existing sensors on the side of the infrastructure detect the object, then it would also be accepted that an object was detected.
  • Some situations also require a "look around the corner", for example driving on an X-junction or T-junction. Difficult situations, such as entrances and exits from underpasses or bridges, turning maneuvers, overtaking maneuvers, etc., cannot be safely dealt with by sensors on the vehicle either.
  • Another problem is that an ever more complex sensor system and an increasingly complex environment modeling algorithm are used in a powerful environment detection. This is associated with immense costs for the individual vehicles. For example, up to 12 lidar devices are currently installed, the unit price of which is between 6,000 and 65,000 euros.
  • the speed of the autonomous vehicle is greatly reduced in order to ensure the safety of the vehicle, or emergency braking occurs, as a result of which occupants in autonomous vehicles are endangered. Attempts should therefore be made to avoid such emergency braking.
  • a safety driver is required, who forms a fallback level of the system.
  • the object is therefore to provide a method and a device for improved environment recognition and localization of autonomous vehicles.
  • This object is achieved by a method for generating an environment model of an autonomously controlled vehicle according to claim 1, a method for autonomous control of a vehicle according to claim 10, an environment model generation device according to claim 11, a vehicle control device according to claim 12, an autonomously controlled vehicle according to claim 13 and an automated transport system according to claim 14 solved.
  • sensor data are recorded by a plurality of infrastructure-side sensors in a surrounding area of the vehicle.
  • the merged sensor data are generated on the basis of the recorded sensor data.
  • environment model data are generated in a stationary manner by evaluating the sensor data on the infrastructure side, objects located in the environment area being localized and be identified. Finally, the environment model data are transmitted to the vehicle.
  • the sensors on the infrastructure side work on the principle of geofencing. If an autonomously controlled vehicle enters a communication area of the infrastructure-side monitoring, communication takes place between the infrastructure and the autonomous vehicle. As part of this communication, the vehicle receives information about the permanently defined surrounding area monitored by the sensors and objects that are present or moving therein. An environment model of the autonomous vehicle can be created or supplemented on the basis of this information. If the autonomous vehicle drives into the detection area of the infrastructure-side sensors, it is detected and this information is integrated into the environment model of the area monitored by the sensors. If the autonomously controlled vehicle leaves the communication area, communication between the infrastructure-side monitoring units and the relevant autonomously controlled vehicle ends. The communication area and the monitoring area do not have to, but can also be identical.
  • an environment model is generated by using the method according to the invention for generating an environment model of an autonomously controlled vehicle.
  • the environment model can be transmitted statically for a defined so-called traffic cell in which the autonomous vehicle is currently located.
  • the current vehicle position can be used to dynamically track the transmitted environment model section.
  • the environment model generating device has infrastructure-side sensors for acquiring sensor data in the area surrounding the sensors.
  • Part of the environment model generation device according to the invention is also a stationary fusion unit for merging the sensor data.
  • the environment model generation device according to the invention also has an evaluation unit for the stationary generation of environment model data on the basis of the merged sensor data. Objects located in the surrounding area are localized and identified.
  • Part of the environment model generation device according to the invention is also a stationary communication unit for transmitting the environment model data to an autonomously controlled vehicle.
  • the environmental mo- Dent generation device shares the advantages of the method according to the invention for generating an environment model of an autonomously controlled vehicle.
  • the vehicle control device has a vehicle-side communication unit for receiving field model data from the stationary environment model generation device. Part of the vehicle control device according to the invention is also a control unit for the automated control of the driving behavior of a vehicle on the basis of the environment model generated by the stationary environment model generation device according to the invention.
  • the vehicle control device shares the advantages of the method according to the invention for autonomous control of a vehicle.
  • the autonomously controlled vehicle according to the invention comprises the vehicle control device according to the invention.
  • the autonomously controlled vehicle according to the invention shares the advantages of the vehicle control device according to the invention.
  • the automated transport system according to the invention has a surrounding model generating device arranged on the infrastructure side according to the invention and at least one autonomously controlled vehicle according to the invention.
  • An object localization can advantageously be supplemented by the infrastructure or at least partially outsourced to it, so that the performance of the object localization and object recognition of an autonomously controlled vehicle is improved.
  • Some components of the environment model generation device according to the invention, the vehicle control device according to the invention, the autonomously controlled vehicle according to the invention and the automated transport system according to the invention can for the most part be designed in the form of software components. This applies in particular to parts of the stationary fusion unit, the evaluation unit and the control unit. Basically, these components can but also in part, especially when it comes to particularly fast calculations, in the form of software-supported hardware, for example FPGAs or the like. Likewise, the required interfaces, for example if it is only a matter of transferring data from other software components, can be designed as software interfaces. But they can also be configured as hardware-based
  • Interfaces can be formed that are controlled by suitable software.
  • a largely software-based implementation has the advantage that computer systems already present in a mobile object or in infrastructure can easily be retrofitted with a software update after a possible addition by additional hardware elements, such as sensors and communication units. to work in the manner of the invention.
  • the object is also achieved by a corresponding computer program product with a computer program that can be loaded directly into a memory device of such a computer system, with program sections to carry out the steps of the method according to the invention that can be implemented by software when the computer program is executed in the computer system.
  • such a computer program product can optionally contain additional components such as documentation and / or additional components, including hardware components, such as Hardware keys (dongles etc.) for using the software.
  • additional components such as documentation and / or additional components, including hardware components, such as Hardware keys (dongles etc.) for using the software.
  • a computer-readable medium for example a memory stick, a hard disk or some other transportable or permanently installed data carrier on which the program sections of the computer program that can be read and executed by a computer unit can be used for transport to the memory device of the computer system and / or for storage on the computer system are stored.
  • the computing unit can, for example, have one or more cooperating microprocessors or the like for this purpose.
  • the sensors include radar sensors and / or lidar sensors.
  • radar waves preferably have wavelengths of a few millimeters to centimeters. Radar offers complete volume illumination without blind spots, but with a comparable sensor size, a lower selectivity is achieved than with lidar. But radar is robust in almost all weather conditions, such as rain, snow, fog, darkness or direct sunlight.
  • Lidar has the property of being able to display object edges more precisely than radar. However, Lidar has a very limited field of vision and is also more susceptible to adverse weather conditions.
  • the two detection technologies can also be advantageously combined in order to combine the various advantages of the different technologies described with one another and to compensate for the disadvantages described.
  • the sensors can also have cameras. With cameras, an extensive area can be recorded and monitored simultaneously with good resolution.
  • a combination of radar and / or lidar with cameras as sensors can also be used advantageously.
  • the environment model data are preferably generated object-based, with attributes being assigned to individual objects.
  • the at tributes include information on relevant properties of the detected objects. These properties enable a hazard assessment in connection with a detected object and they allow the behavior of a detected object to be predicted to a certain extent.
  • the named attributes of an object can include at least one of the following attribute types:
  • Further attributes can include time stamps, an identification number, the length, width and height of a vehicle or object, contours, parameters close to raw data, such as the number of reflection points or a security level or reliability level of transmitted data.
  • the reliability of the data can depend, for example, on whether they were estimated or otherwise determined.
  • the environment model data include a grid-based occupancy map.
  • a grid-based occupancy map also referred to as an "occupancy grid map” divides the monitored area into a plurality of cells, the occupancy probability of which is determined on the basis of sensor data.
  • An object can be identified on the basis of the position and number of occupied cells in the grid or grid of the grid-based occupancy map, and a detection probability value of an object can be specified on the basis of the probability of the cells being occupied.
  • the surrounding area is divided into sub-areas with different priorities.
  • Areas with different priorities can, for example, have different requirements for real-time capabilities of sensor detection, different security requirements and system requirements derived from them.
  • a high priority may require the use of different sensors with different performance in different weather conditions, a high level of redundancy in the detection of objects and the processing of sensor data, high real-time requirements and a high level of accuracy and resolution in the area detection.
  • a significant proportion of the processing of the sensor data is preferably carried out in each sensor itself, taking into account the specific sensor properties. No further prior knowledge is therefore required to generate the occupancy card. This reduces the amount of data collected by all sensors and the computing load for creating the occupancy card. However, this can be at the expense of the accuracy of the result, since information can be lost during the sensor-internal processing, which information can be helpful for a possible data fusion when creating the occupancy card.
  • the grid-based occupancy map is preferably generated on the basis of the object-based environment model data.
  • the amount of data for generating the grid-based occupancy rate is relatively small, so that the grid-based occupancy map can be created very quickly.
  • the grid-based occupancy card is particularly preferably generated directly on the basis of the sensor data.
  • the captured data can be processed particularly precisely, since no intermediate steps can lead to a loss of information.
  • the processing takes place here on the basis of sensor data, which are composed in such a way that no information that is helpful for increasing the accuracy of the data fusion is lost due to any preprocessing.
  • the amount of data is not necessarily increased in this case, however, certain sensor properties or prior knowledge of the procurement unit of the sensor, such as the resolution, the measurement accuracy, etc., must be known and taken into account during the fusion.
  • sensor data recorded on the vehicle side from the area surrounding the vehicle are also used to generate the environment model data.
  • a database for the environment model of the vehicle can advantageously be expanded, so that the reliability, resolution and completeness of the environment model is improved.
  • FIG. 1 shows a flow diagram which illustrates a method for generating an environment model of an autonomously controlled vehicle according to an exemplary embodiment of the invention
  • FIG. 2 shows a schematic representation of an automated transport system
  • 3 shows a schematic representation of a stationary monitored straight route with areas with different priorities
  • FIG. 5 shows a schematic representation of a layer model of determined environment data
  • FIG. 6 shows a schematic representation which illustrates the creation of a digital twin of a node or an intersection
  • FIG. 7 shows an environment model generating device according to an exemplary embodiment of the invention
  • FIG. 8 shows a schematic representation of a vehicle control device.
  • FIG. 1 shows a flow diagram 100 which illustrates a method for generating an environment model MD of an autonomously controlled vehicle F according to an exemplary embodiment of the invention.
  • step 1. I sensor data SD are recorded by a plurality of infrastructure-side sensors in an area surrounding the vehicle F.
  • the sensors used to acquire the sensor data can include, for example, lidar sensors, radar sensors and cameras.
  • the sensors are arranged on sensor masts at regular intervals along a driveway or around an intersection or junction and each monitor a closer environment.
  • step 1.II the sensor data SD from different sensors are merged, so that merged sensor data FSD are generated on the basis of the sensed sensor data.
  • step 1.III an environment model MD of a street section, for example an intersection or a straight line, becomes stationary Section, based on the merged sensor data. In the context of the environment model, rich objects located in the environment are localized and identified.
  • the environment model data MD are also transmitted to the vehicle F.
  • the vehicle F enriches its own environment model MDF with the stationary environment model MD, ie it supplements its environment model MDF with the environment model data MD obtained, which were recorded and generated in a stationary manner.
  • FIG. 2 shows a schematic representation 20 of an arrangement made up of a vehicle-side and an infrastructure-side sensor system.
  • the infrastructure 23 comprises sensor units 22a, 22b with sensors A2, with which a road section 21 is monitored on which a vehicle F is on the way.
  • Typical sensors are, for example, lidar sensors, radar sensors and optical sensors, such as cameras, with which data from the environment of the infrastructure is recorded.
  • the recorded data is also evaluated, checked for plausibility and exchanged.
  • a defined area is monitored on the infrastructure side by the devices 22a, 22b mentioned, which is also referred to as GeoFence. This area is divided into a core area with high priority and an area with low priority. The monitoring of the different areas mentioned meets different requirements in terms of latency, detection probability, etc.
  • the sensor units 22a, 22b each have communication antennas A1, with which they can communicate with other units, such as an evaluation device 22d or with the vehicle F, with the aid of a communication unit 22c on the roadside.
  • the vehicle F also has a sensor unit A2 with which it can monitor its surroundings.
  • the vehicle F also an antenna A1, with which it can communicate with the sensor units 22a, 22b or the evaluation device 22d, if necessary via the infrastructure-side communication unit 22c.
  • an autonomous vehicle F has an on-board unit (not shown) for communication, with which it can communicate via the antenna A1 with an infrastructure-side communication unit 22c.
  • the infrastructure-side communication unit 22c transmits its information periodically by radio. For example, the IEEE 802.11 standard or car-to-X can be used for transmission.
  • the vehicle F receives information relating to an environment model of the infrastructure.
  • the information on the surroundings can be transmitted, for example, to all road users in the catchment area of the infrastructure-side communication unit 22c or the traffic cell assigned to it. If an environment model is to be dynamically adapted for individual vehicles, identification can take place via bidirectional communication.
  • FIG. 3 shows an example of a straight stretch 30 which is divided into a core area 31a with high priority and an outer area 31b with low priority.
  • the core area 31a is formed by the driving area of the route 30 for vehicles F and has particularly high safety requirements. These are met by an increased number of different sensors 22a, 22b that monitor this core area rich.
  • the different sensors complement each other through their properties in terms of detection accuracy and availability in different weather conditions and have redundancy in the acquisition and processing of the monitoring data.
  • the real-time requirements as well as the accuracy and resolution of the environment detection in the core area are significantly higher than in the Periphery.
  • the required sensors and evaluation devices are selected and arranged accordingly.
  • a junction 40 is shown in the road network. This also has a core area 41a with high priority and a peripheral area 41b with lower priority. The junction 40 is with the help of three sensor units 22a,
  • monitoring data are transmitted from a communication unit 22c by radio to vehicles F in the transmission range.
  • FIG. 5 shows a layer model 50 for an environment model with five layers.
  • Four-layer models are already known as “local dynamic map”.
  • the conventional four-layer model is supplemented by an additional layer S5 can be transferred to a vehicle as a compact representation of a surrounding situation.
  • the lowest layer S1 comprises so-called permanent static data, such as map data.
  • the second lowest layer S2 comprises transient static data, such as the roadside infrastructure. This includes street signs, landmarks, etc.
  • the third layer S3 comprises the transient dynamic data. These include, for example, traffic data and data about the signal phase or data about the current weather-related road conditions.
  • the fourth layer S4 comprises highly dynamic data, such as vehicles and pedestrians.
  • the traffic participants detected by the sensors such as pedestrians P, cyclists, vehicles F and the associated estimated attributes, such as their position. position, length, speed, detection probability and type.
  • the determination of the type ie the distinction between a pedestrian, a cyclist and a vehicle, is carried out by applying a classification algorithm to the recorded sensor data.
  • the fifth layer S5 is formed by a grid-like occupancy map.
  • the current positions of objects, such as vehicles, are shown as a grid R.
  • the data present in layer S4 are converted into the occupancy grid format.
  • the raw data from the sensors can also be used directly.
  • the monitored area is divided into cells and the probability that the cells are occupied is determined by the infrastructure-side evaluation units and, if necessary, also by the vehicle-side evaluation units. The quality of the determination of the occupation probability and the attributes mentioned is increased by sensor data fusion.
  • scene interpretations such as a suitable behavior model for the autonomous vehicle F
  • the infrastructural monitoring enables a better assessment of the dynamics in the area under consideration. For this purpose, information about the traffic flow of certain streets and intersections can be collected.
  • Layer S1 is static, whereas layers S4 and S5 concern highly dynamic processes.
  • the information recorded on the infrastructure side relates in particular to layers S4 and S5. Depending on the dynamics and criticality of the available data, these are passed on to the vehicle at a correspondingly high update rate. For highly dy- Named data is typically at least 15 updates per second.
  • Layer 1 data is static and only needs to be transmitted to the vehicle once a day.
  • the data of the different layers basically have different update frequencies and therefore also have different requirements with regard to real-time data acquisition and data transmission.
  • Layer S5 is used, in particular, for free space modeling with a very small amount of data and thus a high possible update rate and low latency. A vehicle can be informed in real time about a drivable area using data from layer S5.
  • FIG. 6 shows a schematic illustration 60 which illustrates the creation of a digital twin of a node or an intersection.
  • the detected objects F, M, P are shown as cubic objects.
  • This data can then be passed on to an autonomous vehicle for enrichment and expansion.
  • the transmission process can take place through a communication medium such as a roadside unit 22c (see also FIG. 2) or with the aid of 4G / 5G data transmission.
  • the flow of information can be unidirectional from infrastructure 22a, 22b, 22c, 22d to vehicle F and vice versa, unidirectional from vehicle F to infrastructure 22a, 22b,
  • 22c, 22d take place.
  • the flow of information can, however, also be bidirectional.
  • FIG. 7 shows a schematic representation of a surrounding model generating device 70.
  • the environment model generation device 70 comprises infrastructure-side sensors 22a, 22b for acquiring sensor data SD in the vicinity of the sensors.
  • the recorded sensor data are transmitted to an evaluation device 22d via a communication unit 22c.
  • the evaluation device 22d comprises a stationary fusion unit 71 for merging the sensor data SD and an evaluation unit 72 for the stationary generation of environment model data MD on the basis of the merged sensor data SD.
  • a stationary fusion unit 71 for merging the sensor data SD
  • an evaluation unit 72 for the stationary generation of environment model data MD on the basis of the merged sensor data SD.
  • the evaluation device 22d also includes a stationary communication unit 73 for transmitting the environment model data MD, possibly also via the communication unit 22c, to an autonomously controlled vehicle F.
  • FIG. 8 shows a vehicle control device 80 which has a vehicle-side communication unit 81 for receiving environment model data MD from a stationary environment model generation device 70. Part of the vehicle control device 80 is also a control unit 82 for the automated control of the driving behavior of a vehicle F on the basis of an environment model MD generated by the stationary environment model generation device 70.

Abstract

Es wird ein Verfahren zum Erzeugen eines Umfeldmodells eines autonom gesteuerten Fahrzeugs F beschrieben. Bei dem Verfahren werden Sensordaten durch eine Mehrzahl von infrastrukturseitigen Sensoren 22a, 22b in einem Umgebungsbereich des Fahrzeugs F erfasst. Es werden fusionierte Sensordaten auf Basis der erfassten Sensordaten stationär erzeugt. Weiterhin werden Umfeldmodelldaten durch infrastrukturseitiges Auswerten der Sensordaten stationär erzeugt, wobei in dem Umgebungsbereich befindliche Objekte lokalisiert und identifiziert werden. Schließlich werden die Umfeldmodelldaten an das Fahrzeug F übermittelt. Daneben wird ein Verfahren zur autonomen Steuerung eines Fahrzeugs F beschrieben. Es wird zudem eine Umfeldmodellerzeugungseinrichtung und eine Fahrzeugsteuerungseinrichtung beschrieben. Weiterhin wird ein autonom gesteuertes Fahrzeug F und ein automatisiertes Transportsystem beschrieben. Eine Einmündung 40 im Straßennetz weist einen Kernbereich 41a mit hoher Priorität und einen peripheren Bereich 41b mit niedrigerer Priorität auf. Die Einmündung 40 wird mit Hilfe von Sensoreinheiten 22a, 22b überwacht. Im Einmündungsbereich und damit auch im Überwachungsbereich 41a, 41b befinden sich zwei Fahrzeuge F, die jeweils auf die Einmündung zufahren. Weiterhin wird ein Motorrad M detektiert, das sich aus dem inneren Überwachungsbereich 41a entfernt. Überdies wird im inneren Überwachungsbereich 41a eine Person P detektiert, die gerade einen Zebra streifen Z überquert. Überwachungsdaten werden von einer Kommunikationseinheit 22c per Rundfunk an im Sendebereich befindliche Fahrzeuge F übertragen. Vorzugsweise werden zum Erzeugen der Umfeldmodelldaten auch fahrzeugseitig erfasste Sensordaten von dem Umgebungsbereich des Fahrzeugs herangezogen. Vorteilhaft kann eine Datengrundlage für das Umfeldmodell des Fahrzeugs erweitert werden, so dass die Zuverlässigkeit, Auflösung und Vollständigkeit des Umfeldmodells verbessert ist.

Description

Beschreibung
Infrastrukturseitige Umfelderfassung beim autonomen Fahren
Die Erfindung betrifft ein Verfahren zum Erzeugen eines Um feldmodells eines autonom gesteuerten Fahrzeugs. Weiterhin betrifft die Erfindung ein Verfahren zur autonomen Steuerung eines Fahrzeugs. Überdies betrifft die Erfindung eine Umfeld modellerzeugungseinrichtung. Ferner betrifft die Erfindung eine Fahrzeugsteuerungseinrichtung. Auch betrifft die Erfin dung ein autonom gesteuertes Fahrzeug. Darüber hinaus be trifft die Erfindung ein automatisiertes Transportsystem.
Unter autonomem Fahren versteht man das selbständige Fahren, Steuern und Einparken eines Fahrzeugs ohne menschlichen Ein fluss. Autonomes Fahren erfordert eine genaue Kenntnis der Position und Geschwindigkeit sowohl des autonom gesteuerten Fahrzeugs selbst als auch von in der Nähe einer Fahrtstrecke eines autonom gesteuerten Fahrzeugs befindlichen Objekten. Daher ist im Kontext von autonomen Fahrzeugen die Umfelder fassung und die Lokalisierung und Erfassung von Objekten so wie des autonomen Fahrzeugs selbst von herausragender Bedeu tung. Erfolgt eine Umfelderfassung ausschließlich durch das autonome Fahrzeug selbst, ist diese Erfassung auf die Erfas sungssensorik des autonomen Fahrzeugs beschränkt. Die in Fahrzeugen verwendeten Sensoren, wie zum Beispiel Lidar-, Ra dar-, Ultraschallsensoren sowie Kameras, weisen allerdings Limitierungen hinsichtlich ihrer Reichweite, der Echtzeitfä higkeit, der Umfelderfassungsabdeckung und der Performanz, insbesondere bei unterschiedlichen Witterungsverhältnissen, wie zum Beispiel starker Sonneneinstrahlung, Regen und
Schnee, auf.
Soll ein vollständig autonomes Fahren realisiert werden, bei dem der Fahrer als Kontrollinstanz wegfällt, so lässt sich aufgrund der genannten Limitierungen kein redundantes System aufbauen, das ausreichende Sicherheit gewährleistet. Daher muss bei vollständig autonom gesteuerten Fahrzeugen die Ge schwindigkeit des Fahrzeugs drastisch reduziert werden, so dass kein flüssiger Verkehr, wie er in der Straßenverkehrs ordnung gefordert wird, mehr gewährleistet werden kann. Be sonders komplexe Verkehrssituationen, wie sie zum Beispiel in größeren Städten auftreten, können so nicht bewältigt werden und daher können derartige Bereiche bisher auch nicht autonom befahren werden.
Beispielsweise können bei der fahrzeugseitigen Umfelderken nung Abschattungsbereiche durch LKWs oder PKWs auftreten, die nicht durch eigene Umfelderfassung wahrgenommen werden kön nen. Weiterhin gibt es bei Objekterfassungen viele „Mehr- heitsentscheidungen" , d.h., es wird ein Objekt von einer Mehrheit der zur Verfügung stehenden Sensoren erfasst, von einer Minderheit aber nicht. Es wird dann akzeptiert, dass ein Objekt detektiert wurde. Es wäre wünschenswert, die An zahl der zu einer solchen Entscheidung beitragenden Sensoren über die Anzahl der einem autonomen Fahrzeug direkt zur Ver fügung stehenden Sensoren hinaus zu vergrößern. Zu einer sol chen Entscheidung könnte dann auch die infrastrukturelle Sen sorik hinzugezogen werden. Wenn zum Beispiel nur ein Sensor eines Fahrzeugs von zwei Sensoren des Fahrzeugs ein Objekt detektiert aber zwei Sensoren von zwei vorhandenen Sensoren auf der Seite der Infrastruktur das Objekt detektieren, so würde dann ebenfalls akzeptiert, dass ein Objekt detektiert wurde. Manche Situationen erfordern auch ein „Um die Ecke schauen", wie zum Beispiel das Befahren einer X-Kreuzung oder T-Kreuzung. Schwierige Situationen, wie zum Beispiel an Auf- und Abfahrten von Unterführungen oder Brücken, Einbiegevor- gänge, Überholvorgänge usw. lassen sich ebenfalls allein durch fahrzeugseitige Sensorik nicht sicher bewältigen.
Ein weiteres Problem besteht darin, dass bei einer leistungs fähigen Umfelderfassung eine immer komplexere Sensorik und eine zunehmend aufwändige Umfeldmodellierungs-Algorithmik zum Einsatz kommen. Hiermit verbunden sind immense Kosten für die einzelnen Fahrzeuge. Beispielsweise werden aktuell bis zu 12 Lidargeräte verbaut, deren Stückpreis bei 6000 bis 65000 Euro liegt . Herkömmlich wird in den genannten Situationen die Geschwin digkeit des autonomen Fahrzeugs stark reduziert, um die Si cherheit des Fahrzeugs zu gewährleisten, oder es kommt zu Notbremsungen, wodurch Insassen in autonomen Fahrzeugen ge fährdet werden. Daher sollte versucht werden, solche Notbrem sungen zu vermeiden. Zudem wird ein Sicherheitsfahrer benö tigt, der eine Rückfallebene des Systems bildet.
Um die Qualität und die Vollständigkeit der Umfelderkennung zu erhöhen, wird ein Austausch von Informationen über das je weilige Umfeld von Fahrzeugen zwischen den Fahrzeugen erwo gen. Allerdings ist dieser Ansatz dadurch limitiert, dass nur ein Teil der am Verkehr teilnehmenden Fahrzeuge zu einem In formationsaustausch fähig ist.
Es besteht also die Aufgabe, ein Verfahren und eine Vorrich tung zur verbesserten Umfelderkennung und Lokalisierung von autonomen Fahrzeugen bereitzustellen.
Diese Aufgabe wird durch ein Verfahren zum Erzeugen eines Um feldmodells eines autonom gesteuerten Fahrzeugs gemäß Patent anspruch 1, ein Verfahren zur autonomen Steuerung eines Fahr zeugs gemäß Patentanspruch 10, eine Umfeldmodellerzeugungs einrichtung gemäß Patentanspruch 11, eine Fahrzeugsteuerungs einrichtung gemäß Patentanspruch 12, ein autonom gesteuertes Fahrzeug gemäß Patentanspruch 13 und ein automatisiertes Transportsystem gemäß Patentanspruch 14 gelöst.
Bei dem erfindungsgemäßen Verfahren zum Erzeugen eines Um feldmodells eines autonom gesteuerten Fahrzeugs werden Sen sordaten durch eine Mehrzahl von infrastrukturseitigen Senso ren in einem Umgebungsbereich des Fahrzeugs erfasst. Es wer den fusionierte Sensordaten auf Basis der erfassten Sensorda ten erzeugt. Weiterhin werden Umfeldmodelldaten durch infra strukturseitiges Auswerten der Sensordaten stationär erzeugt, wobei in dem Umgebungsbereich befindliche Objekte lokalisiert und identifiziert werden. Schließlich werden die Umfeldmo- delldaten an das Fahrzeug übermittelt.
Die infrastrukturseitigen Sensoren funktionieren nach dem Prinzip des Geofencing. Fährt ein autonom gesteuertes Fahr zeug in einen Kommunikationsbereich der infrastrukturseitigen Überwachung ein, so erfolgt eine Kommunikation zwischen der Infrastruktur und dem autonomen Fahrzeug. Im Rahmen dieser Kommunikation erhält das Fahrzeug Informationen über den von den Sensoren überwachten fest definierten Umgebungsbereich und darin vorhandene bzw. sich bewegende Objekte. Auf Basis dieser Informationen kann ein Umfeldmodell des autonomen Fahrzeugs erstellt oder ergänzt werden. Fährt das autonome Fahrzeug selbst in den Erfassungsbereich der infrastruktur seitigen Sensoren ein, so wird es erfasst und diese Informa tion wird in das Umfeldmodell des von den Sensoren überwach ten Bereichs integriert. Verlässt das autonom gesteuerte Fahrzeug den Kommunikationsbereich, so endet die Kommunikati on zwischen den infrastrukturseitigen Überwachungseinheiten und dem betreffenden autonom gesteuerten Fahrzeug. Der Kommu nikationsbereich und der Überwachungsbereich müssen nicht, können aber auch identisch sein.
Durch die Einbeziehung von stationären Sensordaten bzw. eines stationären Umfeldmodells in das Umfeldmodell des Fahrzeugs können Bereiche, die von den Sensoren des Fahrzeugs nicht er fasst werden, bei der Bildung des Umfeldmodells des Fahrzeugs berücksichtigt werden. Außerdem kann die Rechenkapazität des Fahrzeugs entlastet werden, indem Teile des Umfeldmodells o- der das gesamte Umfeldmodell infrastrukturseitig berechnet werden. Überdies kann die Umfeldmodellbildung aufgrund der typischerweise höheren Rechenkapazität der stationären Infra struktur im Vergleich zu mobilen Einheiten schneller und da mit echtzeitnaher erfolgen. Eine echtzeitnahe Modellbildung ermöglicht es einem Fahrzeug, rechtzeitig auf Hindernisse und Gefahren auch durch mobile Objekte zu reagieren. Bei dem erfindungsgemäßen Verfahren zur autonomen Steuerung eines Fahrzeugs wird ein Umfeldmodell durch Anwendung des er findungsgemäßen Verfahrens zum Erzeugen eines Umfeldmodells eines autonom gesteuerten Fahrzeugs erzeugt. Es erfolgt ein automatisiertes Steuern des Fahrverhaltens des Fahrzeugs auf Basis des erzeugten Umfeldmodells. Beispielsweise werden durch das Umfeldmodell lokalisierte Hindernisse bzw. sich im Umfeld des autonom gesteuerten Fahrzeugs vorhandene Objekte lokalisiert und identifiziert, denen das Fahrzeug dann gege benenfalls ausweichen kann. Vorteilhaft können bei der auto nomen Steuerung von Fahrzeugen auch Gefahrenquellen berück sichtigt werden, die durch die bordseitigen Sensoren nicht erfasst oder durch die bordseitige Auswertungseinheit nicht identifiziert werden können.
Das Umfeldmodell kann einerseits statisch für eine definierte sogenannte Verkehrszelle, in welcher sich das autonome Fahr zeug gerade befindet, übermittelt werden. Andererseits kann, sofern die Position des autonomen Fahrzeugs von diesem aktiv an die Infrastruktur gemeldet oder direkt durch die Infra struktursensorik selbst die Fahrzeugposition erfasst wird, die momentane Fahrzeugposition dazu dienen, eine dynamische Nachführung des übermittelten Umfeldmodellausschnitts zu er reichen .
Die erfindungsgemäße Umfeldmodellerzeugungseinrichtung weist infrastrukturseitige Sensoren zum Erfassen von Sensordaten im Umgebungsbereich der Sensoren auf. Teil der erfindungsge mäßen Umfeldmodellerzeugungseinrichtung ist auch eine statio näre Fusionseinheit zum Fusionieren der Sensordaten. Die er findungsgemäße Umfeldmodellerzeugungseinrichtung weist auch eine Auswertungseinheit zum stationären Erzeugen von Umfeld modelldaten auf Basis der fusionierten Sensordaten auf. Dabei werden in dem Umgebungsbereich befindliche Objekte lokali siert und identifiziert. Teil der erfindungsgemäßen Umfeldmo dellerzeugungseinrichtung ist auch eine stationäre Kommunika tionseinheit zum Übermitteln der Umfeldmodelldaten an ein au tonom gesteuertes Fahrzeug. Die erfindungsgemäße Umfeldmo- dellerzeugungseinrichtung teilt die Vorteile des erfindungs- gemäßen Verfahrens zum Erzeugen eines Umfeldmodells eines au tonom gesteuerten Fahrzeugs.
Die erfindungsgemäße Fahrzeugsteuerungseinrichtung weist eine fahrzeugseitige Kommunikationseinheit zum Empfangen von Um feldmodelldaten von der stationären Umfeldmodellerzeugungs einrichtung auf. Teil der erfindungsgemäßen Fahrzeugsteue rungseinrichtung ist auch eine Steuerungseinheit zum automa tisierten Steuern des Fahrverhaltens eines Fahrzeugs auf Ba sis des durch die erfindungsgemäße stationäre Umfeldmodeller zeugungseinrichtung erzeugten Umfeldmodells. Die erfindungs gemäße Fahrzeugsteuerungseinrichtung teilt die Vorteile des erfindungsgemäßen Verfahrens zur autonomen Steuerung eines Fahrzeugs .
Das erfindungsgemäße autonom gesteuerte Fahrzeug umfasst die erfindungsgemäße Fahrzeugsteuerungseinrichtung. Das erfin dungsgemäße autonom gesteuerte Fahrzeug teilt die Vorteile der erfindungsgemäßen Fahrzeugsteuerungseinrichtung.
Das erfindungsgemäße automatisierte Transportsystem weist ei ne erfindungsgemäße infrastrukturseitig angeordnete Umfeldmo dellerzeugungseinrichtung sowie mindestens ein erfindungsge mäßes autonom gesteuertes Fahrzeug auf. Vorteilhaft kann eine Obj ektlokalisierung durch die Infrastruktur ergänzt bzw. an diese zumindest teilweise ausgelagert werden, so dass die Leistungsfähigkeit der Obj ektlokalisierung und Objekterken nung eines autonom gesteuerten Fahrzeugs verbessert wird.
Einige Komponenten der erfindungsgemäßen Umfeldmodellerzeu gungseinrichtung, der erfindungsgemäßen Fahrzeugsteuerungs einrichtung, des erfindungsgemäßen autonom gesteuerten Fahr zeugs und des erfindungsgemäßen automatisierten Transportsys- tems können zum überwiegenden Teil in Form von Softwarekompo nenten ausgebildet sein. Dies betrifft insbesondere Teile der stationären Fusionseinheit, der Auswertungseinheit und der Steuerungseinheit. Grundsätzlich können diese Komponenten aber auch zum Teil, insbesondere wenn es um besonders schnel le Berechnungen geht, in Form von softwareunterstützter Hard ware, beispielsweise FPGAs oder dergleichen, realisiert sein. Ebenso können die benötigten Schnittstellen, beispielsweise wenn es nur um eine Übernahme von Daten aus anderen Software komponenten geht, als Softwareschnittstellen ausgebildet sein. Sie können aber auch als hardwaremäßig aufgebaute
Schnittstellen ausgebildet sein, die durch geeignete Software angesteuert werden.
Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher in einem mobilen Objekt oder in Infra struktur vorhandene Rechnersysteme nach einer eventuellen Er gänzung durch zusätzliche Hardwareelemente, wie zum Beispiel Sensoren und Kommunikationseinheiten, auf einfache Weise durch ein Software-Update nachgerüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Insofern wird die Aufgabe auch durch ein entsprechendes Computerprogrammprodukt mit einem Computerprogramm gelöst, welches direkt in eine Speichereinrichtung eines solchen Rechnersystems ladbar ist, mit Programmabschnitten, um die durch Software realisierbaren Schritte der erfindungsgemäßen Verfahrens auszuführen, wenn das Computerprogramm in dem Rechnersystem ausgeführt wird.
Ein solches Computerprogrammprodukt kann neben dem Computer programm gegebenenfalls zusätzliche Bestandteile, wie z.B. eine Dokumentation und/oder zusätzliche Komponenten, auch Hardware-Komponenten, wie z.B. Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen.
Zum Transport zur Speichereinrichtung des Rechnersystems und/oder zur Speicherung an dem Rechnersystem kann ein compu terlesbares Medium, beispielsweise ein Memorystick, eine Festplatte oder ein sonstiger transportabler oder fest einge bauter Datenträger dienen, auf welchem die von einer Rech nereinheit einlesbaren und ausführbaren Programmabschnitte des Computerprogramms gespeichert sind. Die Rechnereinheit kann z.B. hierzu einen oder mehrere zusammenarbeitende Mikro prozessoren oder dergleichen aufweisen.
Die abhängigen Ansprüche sowie die nachfolgende Beschreibung enthalten jeweils besonders vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung. Dabei können insbesondere die Ansprüche einer Anspruchskategorie auch analog zu den ab hängigen Ansprüchen einer anderen Anspruchskategorie und de ren Beschreibungsteilen weitergebildet sein. Zudem können im Rahmen der Erfindung die verschiedenen Merkmale unterschied licher Ausführungsbeispiele und Ansprüche auch zu neuen Aus führungsbeispielen kombiniert werden.
In einer Ausgestaltung des erfindungsgemäßen Verfahrens zum Erzeugen eines Umfeldmodells eines autonom gesteuerten Fahr zeugs umfassen die Sensoren Radarsensoren und/oder Lidar sensoren .
Radarwellen haben für die beschriebene Anwendung vorzugsweise Wellenlängen von wenigen Millimetern bis Zentimetern. Radar bietet eine vollständige Volumenausleuchtung ohne blinde Fle cken, allerdings wird bei vergleichbarer Sensorgröße eine ge ringere Trennschärfe als bei Lidar erreicht. Dafür ist Radar robust bei nahezu allen Witterungsbedingungen, wie zum Bei spiel Regen, Schnee, Nebel, Dunkelheit oder direkter Sonnen einstrahlung .
Lidar hat die Eigenschaft, Objektkanten präziser als Radar darstellen zu können. Allerdings weist Lidar einen sehr ein geschränkten Sichtbereich auf und ist auch anfälliger gegen ungünstige Witterungsverhältnisse .
Die beiden Detektionstechnologien können auch vorteilhaft kombiniert werden, um die beschriebenen unterschiedlichen Vorteile der unterschiedlichen Technologien miteinander zu kombinieren und die beschriebenen Nachteile zu kompensieren. Alternativ oder zusätzlich können die Sensoren auch Kameras aufweisen. Mit Kameras kann ein ausgedehnter Bereich mit gu ter Auflösung simultan erfasst und überwacht werden. Auch ei ne Kombination von Radar und/oder Lidar mit Kameras als Sen sorik kann vorteilhaft angewendet werden.
Bevorzugt werden die Umfeldmodelldaten objektbasiert erzeugt, wobei einzelnen Objekten Attribute zugeordnet werden. Die At tribute umfassen Informationen zu relevanten Eigenschaften der detektierten Objekte. Diese Eigenschaften ermöglichen ei ne Gefahrenabschätzung im Zusammenhang mit einem detektierten Objekt und sie erlauben in gewissem Maße ein Vorhersehen des Verhaltens eines detektierten Objekts.
Die genannten Attribute eines Objekts können mindestens einen der folgenden Attributarten umfassen:
- die Position des Objekts,
- die Länge des Objekts,
- die Geschwindigkeit des Objekts,
- die Detektionswahrscheinlichkeit des Objekts,
- den Typ des Objekts.
Weitere Attribute können Zeitstempel, eine Identifikations nummer, die Länge, Breite und Höhe eines Fahrzeugs oder Ob jekts, Konturen, rohdatennahe Kenngrößen, wie zum Beispiel die Anzahl der Reflexionspunkte oder ein Sicherheitsniveau bzw. Zuverlässigkeitsniveau übermittelter Daten umfassen. Die Zuverlässigkeit der Daten kann zum Beispiel davon abhängen, ob diese geschätzt oder anderweitig ermittelt wurden.
In einer Ausgestaltung des erfindungsgemäßen Verfahrens zum Erzeugen eines Umfeldmodells eines autonom gesteuerten Fahr zeugs umfassen die Umfeldmodelldaten eine rasterbasierte Be legungskarte. Eine solche rasterbasierte Belegungskarte, auch als „occupancy grid map" bezeichnet, teilt den überwachten Bereich in eine Mehrzahl von Zellen ein, deren Besetzungs wahrscheinlichkeit auf Basis von Sensordaten ermittelt wird. Auf Basis der Position und Anzahl der besetzten Zellen in dem Raster bzw. Gitter der rasterbasierten Belegungskarte kann ein Objekt identifiziert werden und auf Basis der Besetzungs wahrscheinlichkeit der Zellen kann ein Detektionswahrschein- lichkeitswert eines Objekts angegeben werden.
In einer vorteilhaften Variante des erfindungsgemäßen Verfah rens zum Erzeugen eines Umfeldmodells eines autonom gesteuer ten Fahrzeugs wird der Umgebungsbereich in Teilbereiche mit unterschiedlichen Prioritäten eingeteilt. Bereiche mit unter schiedlichen Prioritäten können zum Beispiel unterschiedliche Anforderungen an Echtzeitfähigkeiten der Sensorerfassung, un terschiedliche Sicherheitsanforderungen und daraus abgeleite te Systemanforderungen stellen. Beispielsweise kann eine hohe Priorität den Einsatz von unterschiedlichen Sensoren mit ei ner unterschiedlichen Performanz bei unterschiedlichen Witte rungsverhältnissen, eine hohe Redundanz der Erfassung von Ob jekten und der Verarbeitung der Sensordaten, hohe Echtzeitan forderungen und eine hohe Genauigkeit bzw. Auflösung der Um felderfassung notwendig machen.
Vorzugsweise wird bei dieser Variante ein signifikanter An teil der Prozessierung der Sensordaten bereits in jedem Sen sor unter Berücksichtigung der spezifischen Sensoreigenschaf ten selbst vorgenommen. Mithin ist zur Erzeugung der Bele gungskarte kein weiteres Vorwissen nötig. Dadurch wird die Datenmenge der von allen Sensoren gesammelten Daten, sowie die Rechenlast zur Erstellung der Belegungskarte reduziert. Allerdings kann dies auf Kosten der Genauigkeit des Ergebnis ses gehen, da bei der sensorinternen Prozessierung Informati onen verloren gehen können, welche für eine mögliche Datenfu sion bei Erstellung der Belegungskarte hilfreich sein können.
Bevorzugt wird die rasterbasierte Belegungskarte auf Basis der objektbasierten Umfeldmodelldaten erzeugt. Bei dieser Va riante ist die Datenmenge zur Erzeugung der rasterbasierten Belegungsrate relativ klein, so dass die Erstellung der ras terbasierten Belegungskarte sehr schnell erfolgen kann. Besonders bevorzugt wird die rasterbasierte Belegungskarte direkt auf Basis der Sensordaten erzeugt. Bei dieser Vorge hensweise kann eine besonders präzise Prozessierung der er fassten Daten erfolgen, da dabei keine Zwischenschritte zu einem Verlust von Informationen führen können. Die Prozessie rung erfolgt hier auf Basis von Sensordaten, welche derart beschaffen sind, dass durch eventuelle Vorprozessierung kei nerlei zur Steigerung der Genauigkeit der Datenfusion hilf reiche Informationen verloren gehen. Die Datenmenge ist hier bei allerdings nicht zwangsläufig erhöht, es müssen jedoch bei der Fusion gewisse Sensoreigenschaften bzw. Vorwissen über die Beschaffeinheit des Sensors, wie zum Beispiel das Auflösungsvermögen, die Messgenauigkeit usw., bekannt sein und berücksichtigt werden.
In einer Variante des erfindungsgemäßen Verfahrens zum Erzeu gen eines Umfeldmodells eines autonom gesteuerten Fahrzeugs werden zum Erzeugen der Umfeldmodelldaten auch fahrzeugseitig erfasste Sensordaten von dem Umgebungsbereich des Fahrzeugs herangezogen. Vorteilhaft kann eine Datengrundlage für das Umfeldmodell des Fahrzeugs erweitert werden, so dass die Zu verlässigkeit, Auflösung und Vollständigkeit des Umfeldmo dells verbessert ist.
Die Erfindung wird im Folgenden unter Hinweis auf die beige fügten Figuren anhand von Ausführungsbeispielen noch einmal näher erläutert. Es zeigen:
FIG 1 ein Flussdiagramm, welches ein Verfahren zum Erzeugen eines Umfeldmodells eines autonom gesteuerten Fahrzeugs gemäß einem Ausführungsbeispiel der Erfindung veranschaulicht,
FIG 2 eine schematische Darstellung eines automatisierten TransportSystems , FIG 3 eine schematische Darstellung einer stationär überwach ten geraden Fahrstrecke mit Bereichen mit unterschiedlichen Prioritäten,
FIG 4 eine schematische Darstellung einer stationär überwach ten Einmündung,
FIG 5 eine schematische Darstellung eines Schichtenmodells von ermittelten Umfelddaten,
FIG 6 eine schematische Darstellung, welche eine Erstellung eines digitalen Zwilling eines Knotens bzw. einer Einmündung veranschaulicht,
FIG 7 eine Umfeldmodellerzeugungseinrichtung gemäßen einem Ausführungsbeispiel der Erfindung,
FIG 8 eine schematische Darstellung einer Fahrzeugsteuerungs einrichtung .
In FIG 1 ist ein Flussdiagramm 100 gezeigt, welches ein Ver fahren zum Erzeugen eines Umfeldmodells MD eines autonom ge steuerten Fahrzeugs F gemäß einem Ausführungsbeispiel der Er findung veranschaulicht.
Bei dem Schritt 1. I werden Sensordaten SD durch eine Mehrzahl von infrastrukturseitigen Sensoren in einem Umgebungsbereich des Fahrzeugs F erfasst. Die für die Erfassung der Sensorda ten eingesetzten Sensoren können zum Beispiel Lidarsensoren, Radarsensoren und Kameras umfassen. Die Sensoren sind zum Beispiel an Sensormasten in regelmäßigen Abständen längs ei nes Fahrwegs oder um eine Kreuzung oder Einmündung verteilt angeordnet und überwachen jeweils eine nähere Umgebung. Bei dem Schritt l.II werden die Sensordaten SD von verschiedenen Sensoren zusammengeführt, so dass fusionierte Sensordaten FSD auf Basis der erfassten Sensordaten erzeugt werden. Bei dem Schritt l.III wird stationär ein Umfeldmodell MD eines Stra ßenabschnitts, beispielsweise eine Kreuzung oder ein gerader Streckenabschnitt, auf Basis der fusionierten Sensordaten er zeugt. Im Rahmen des Umfeldmodells werden in dem Umgebungsbe reich befindliche Objekte lokalisiert und identifiziert. Bei dem Schritt 1. IV werden weiterhin die Umfeldmodelldaten MD an das Fahrzeug F übermittelt. Das Fahrzeug F reichert bei dem Schritt l.V sein eigenes Umfeldmodell MDF mit dem stationären Umfeldmodell MD an, d.h. es ergänzt sein Umfeldmodell MDF mit den erhaltenen Umfeldmodelldaten MD, welche stationär erfasst und erzeugt wurden.
In FIG 2 ist eine schematische Darstellung 20 einer Anordnung aus einem fahrzeugseitigen und einem infrastrukturseitigen Sensorsystem veranschaulicht. Die Infrastruktur 23 umfasst Sensoreinheiten 22a, 22b mit Sensoren A2, mit denen ein Stra ßenabschnitt 21 überwacht wird, auf dem ein Fahrzeug F unter wegs ist. Typische Sensoren sind zum Beispiel Lidarsensoren, Radarsensoren und optische Sensoren, wie zum Beispiel Kame ras, mit denen Daten von der Umgebung der Infrastruktur er fasst werden. Die erfassten Daten werden infrastrukturseitig auch bewertet, plausibilisiert und ausgetauscht. Von den ge nannten Einrichtungen 22a, 22b wird infrastrukturseitig ein definierter Bereich überwacht, was auch als GeoFence bezeich net wird. Dieser Bereich wird in einen Kernbereich mit hoher Priorität und einen Bereich mit niedriger Priorität einge teilt. Die Überwachung der genannten unterschiedlichen Berei che erfüllt unterschiedliche Anforderungen hinsichtlich La tenz, Detektionswahrscheinlichkeit usw.. D.h., beispielsweise muss ein dem Fahrzeug F näherer Bereich mit einer höheren Frequenz und einer erhöhten Detektionswahrscheinlichkeit überwacht werden, da dieser Bereich relevanter für die Si cherheit des Fahrzeugs F ist als ein von dem Fahrzeug ent fernter äußerer Bereich. Die Sensoreinheiten 22a, 22b weisen jeweils Kommunikationsantennen Al auf, mit denen sie mit Hil fe einer straßenseitigen Kommunikationseinheit 22c mit ande ren Einheiten, wie zum Beispiel einer Auswertungseinrichtung 22d oder mit dem Fahrzeug F kommunizieren können. Das Fahr zeug F weist ebenfalls eine Sensoreinheit A2 auf, mit der es sein Umfeld überwachen kann. Weiterhin umfasst das Fahrzeug F auch eine Antenne Al, mit des es mit den Sensoreinheiten 22a, 22b oder der Auswertungseinrichtung 22d gegebenenfalls über die infrastrukturseitige Kommunikationseinheit 22c kommuni zieren kann.
Konkret weist ein autonomes Fahrzeug F eine bordseitige Ein heit (nicht gezeigt) zur Kommunikation auf, mit der es über die Antenne Al mit einer infrastrukturseitigen Kommunikati onseinheit 22c kommunizieren kann. Die infrastrukturseitige Kommunikationseinheit 22c sendet ihre Informationen perio disch mittels Rundfunk aus. Zur Übertragung kann zum Beispiel der IEEE 802.11-Standard oder car-to-X genutzt werden. Sobald das Fahrzeug F in den Kommunikationsradius der infrastruktur seitigen Kommunikationseinheit 22c gelangt, empfängt es In formationen bezüglich eines Umgebungsmodells der Infrastruk tur. Die Umfeldinformationen können beispielsweise an alle Verkehrsteilnehmer im Einzugsbereich der infrastrukturseiti gen Kommunikationseinheit 22c bzw. der dieser zugeordneten Verkehrszelle übermittelt werden. Soll ein Umfeldmodell dyna misch für einzelne Fahrzeuge angepasst werden, so kann eine Identifikation über eine bidirektionale Kommunikation erfol gen .
In FIG 3 ist beispielhaft eine gerade Strecke 30 gezeigt, welche in einen Kernbereich 31a mit hoher Priorität und einen Außenbereich 31b mit niedriger Priorität eingeteilt ist. Der Kernbereich 31a wird von dem Fahrbereich der Strecke 30 für Fahrzeuge F gebildet und stellt besonders hohe Sicherheitsan forderungen. Diese werden durch eine erhöhte Zahl von unter schiedlichen Sensoren 22a, 22b erfüllt, die diesen Kernbe reich überwachen. Die unterschiedlichen Sensoren ergänzen sich gegenseitig durch ihre Eigenschaften hinsichtlich Erfas sungsgenauigkeit und Verfügbarkeit bei unterschiedlichen Wit terungsverhältnissen und weisen eine Redundanz bei der Erfas sung und Verarbeitung der Überwachungsdaten auf. Die Echt- zeitanforderungen sowie die Genauigkeit und die Auflösung der Umfelderfassung im Kernbereich sind deutlich höher als in der Peripherie. Entsprechend werden die erforderlichen Sensoren und Auswertungseinrichtungen ausgewählt und angeordnet.
In FIG 4 ist eine Einmündung 40 im Straßennetz gezeigt. Auch diese weist einen Kernbereich 41a mit hoher Priorität und ei nen peripheren Bereich 41b mit niedrigerer Priorität auf. Die Einmündung 40 wird mit Hilfe von drei Sensoreinheiten 22a,
22b überwacht. Im Einmündungsbereich und damit auch im Über wachungsbereich 41a, 41b befinden sich zwei Fahrzeuge F, die jeweils auf die Einmündung zufahren. Weiterhin wird ein Mo torrad M detektiert, dass sich aus dem inneren Überwachungs bereich 41a entfernt. Überdies wird im inneren Überwachungs bereich 41a eine Person P detektiert, die gerade einen Zebra streifen Z überquert. Überwachungsdaten werden von einer Kom munikationseinheit 22c per Rundfunk an im Sendebereich be findliche Fahrzeuge F übertragen.
In FIG 5 ist ein Schichtenmodell 50 für ein Umfeldmodell mit fünf Schichten veranschaulicht. Vierschichtenmodelle sind als „local dynamic map" bereits bekannt. Bei dem in FIG 5 gezeig ten Ausführungsbeispiel wird das herkömmliche Vierschichten modell um eine zusätzliche Schicht S5 ergänzt. Diese fünfte Schicht S5 umfasst eine sogenannte rasterbasierte Belegungs karte („occupancy grid map"), welche als kompakte Repräsenta tion einer Umfeldsituation an ein Fahrzeug übertragen werden kann. Die unterste Schicht S1 umfasst sogenannte permanente statische Daten, wie zum Beispiel Kartendaten. Die zweitun terste Schicht S2 umfasst transiente statische Daten, wie zum Beispiel die straßenseitige Infrastruktur. Hierzu gehören Straßenschilder, Landmarken usw. Die dritte Schicht S3 um fasst die transienten dynamischen Daten. Diese umfassen zum Beispiel Staudaten und Daten über die Signalphase oder Daten über den aktuellen wetterbedingten Straßenzustand. Die vierte Schicht S4 umfasst hochdynamische Daten, wie zum Beispiel Fahrzeuge und Fußgänger. In der vierten Schicht befinden sich die von den Sensoren detektierten Verkehrsbeteiligten, wie zum Beispiel Fußgänger P, Radfahrer, Fahrzeuge F und die zu gehörigen abgeschätzten Attribute, wie zum Beispiel deren Po- sition, Länge, Geschwindigkeit, Detektionswahrscheinlichkeit und Typ. Die Ermittlung des Typs, d.h. die Unterscheidung zwischen einem Fußgänger, einem Radfahrer und einem Fahrzeug erfolgt durch die Anwendung eines Klassifikationsalgorithmus auf die erfassten Sensordaten.
Die fünfte Schicht S5 wird von einer rasterartigen Belegungs karte (Occupancy Gridmap) gebildet. In dieser sind die aktu ellen Positionen von Objekten, wie zum Beispiel Fahrzeugen, als Raster R eingezeichnet. In der Schicht S5 werden die in der Schicht S4 vorhandenen Daten in das Occupancy-Grid-Format umgewandelt. Alternativ können auch die Rohdaten der Sensoren direkt verwendet werden. Dabei wird der überwachte Bereich in Zellen unterteilt und die Besetzungswahrscheinlichkeit der Zellen durch die infrastrukturseitigen Auswerteeinheiten und gegebenenfalls auch durch fahrzeugseitige Auswerteeinheiten bestimmt. Die Qualität der Bestimmung der Besetzungswahr scheinlichkeit sowie der genannten Attribute wird durch Sens ordatenfusion erhöht.
Auf Basis der in den Schichten S4 und S5 durch mehrere Senso ren und auch das autonome Fahrzeug selbst gesammelten Infor mationen können nachfolgende Szeneninterpretationen, wie zum Beispiel ein geeignetes Verhaltensmodell für das autonome Fahrzeug F gewählt werden. Außerdem ermöglicht die infra strukturseitige Überwachung eine bessere Abschätzung der Dy namik im betrachteten Bereich. Hierzu können Informationen über den Verkehrsfluss bestimmter Straßen und Kreuzungen ge sammelt werden.
Allgemein formuliert, geben die unterschiedlichen Schichten unterschiedliche Veränderungen der Umgebung eines Fahrzeugs wieder. Schicht S1 ist statisch, wohingegen die Schichten S4 und S5 hoch dynamische Vorgänge betreffen. Die infrastruktur seitig erfassten Informationen betreffen insbesondere die Schichten S4 und S5. Je nach Dynamik und Kritikalität der vorliegenden Daten werden diese mit einer entsprechend hohen Aktualisierungsrate an das Fahrzeug weitegegeben. Für hochdy- namische Daten sind wenigstens 15 Aktualisierungen pro Sekun de typisch.
Daten der Schicht 1 sind statisch und müssen nur einmal am Tag an das Fahrzeug übermittelt werden. Die Daten der unter schiedlichen Schichten haben im Grunde unterschiedliche Aktu alisierungshäufigkeiten und haben deshalb auch unterschiedli che Anforderungen hinsichtlich echtzeitfähiger Datenerfassung und Datenübertragung. Die Schicht S5 dient insbesondere der Freiflächenmodellierung bei gleichzeitig sehr geringer Daten menge und damit hoher möglicher Aktualisierungsrate und ge ringer Latenz. Ein Fahrzeug kann mit Daten der Schicht S5 in Echtzeit über eine befahrbare Fläche informiert werden.
In FIG 6 ist eine schematische Darstellung 60 gezeigt, welche eine Erstellung eines digitalen Zwillings eines Knotens bzw. einer Einmündung veranschaulicht. Dabei werden die detektier- ten Objekte F, M, P als kubische Objekte dargestellt.
Diese Daten können dann an ein autonomes Fahrzeug zur Umfeld- Anreicherung und Erweiterung weitervermittelt werden. Der Übertragungsvorgang kann durch ein Kommunikationsmedium wie zum Beispiel einer Road side unit 22c (siehe auch FIG 2) oder mit Hilfe einer 4G/5G-Datenübertragung erfolgen. Der Informa tionsfluss kann sowohl unidirektional von der Infrastruktur 22a, 22b, 22c, 22d zum Fahrzeug F erfolgen als auch umgekehrt unidirektional vom Fahrzeug F zur Infrastruktur 22a, 22b,
22c, 22d erfolgen. Der Informationsfluss kann aber auch bidi rektional erfolgen.
In FIG 7 ist eine schematische Darstellung einer Umfeldmo dellerzeugungseinrichtung 70 gezeigt. Die Umfeldmodellerzeu gungseinrichtung 70 umfasst infrastrukturseitige Sensoren 22a, 22b zum Erfassen von Sensordaten SD im Umgebungsbereich der Sensoren. Die erfassten Sensordaten werden über eine Kom munikationseinheit 22c an eine Auswertungseinrichtung 22d übermittelt. Die Auswertungseinrichtung 22d umfasst eine sta tionäre Fusionseinheit 71 zum Fusionieren der Sensordaten SD und eine Auswertungseinheit 72 zum stationären Erzeugen von Umfeldmodelldaten MD auf Basis der fusionierten Sensordaten SD. Dabei werden in dem Umgebungsbereich der Sensoren 22a,
22b befindliche Objekte lokalisiert und identifiziert. Die Auswertungseinrichtung 22d umfasst auch eine stationäre Kom munikationseinheit 73 zum Übermitteln der Umfeldmodelldaten MD gegebenenfalls auch über die Kommunikationseinheit 22c an ein autonom gesteuertes Fahrzeug F.
In FIG 8 ist eine Fahrzeugsteuerungseinrichtung 80 gezeigt, welche eine fahrzeugseitige Kommunikationseinheit 81 zum Emp fangen von Umfeldmodelldaten MD von einer stationären Umfeld modellerzeugungseinrichtung 70 aufweist. Teil der Fahrzeug steuerungseinrichtung 80 ist auch eine Steuerungseinheit 82 zum automatisierten Steuern des Fahrverhaltens eines Fahr zeugs F auf Basis eines durch die stationäre Umfeldmodeller zeugungseinrichtung 70 erzeugten Umfeldmodells MD.
Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorbeschriebenen Verfahren und Vorrichtungen le diglich um bevorzugte Ausführungsbeispiele der Erfindung han delt und dass die Erfindung vom Fachmann variiert werden kann, ohne den Bereich der Erfindung zu verlassen, soweit er durch die Ansprüche vorgegeben ist. Es wird der Vollständig keit halber auch darauf hingewiesen, dass die Verwendung der unbestimmten Artikel „ein" bzw. „eine" nicht ausschließt, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließt der Begriff „Einheit" nicht aus, dass diese aus mehreren Komponenten besteht, die gegebenenfalls auch räumlich verteilt sein können.

Claims

Patentansprüche
1. Verfahren zum Erzeugen eines Umfeldmodells (MD) eines au tonom gesteuerten Fahrzeugs (F), aufweisend die Schritte:
- Erfassen von Sensordaten (SD) durch eine Mehrzahl von inf rastrukturseitigen Sensoren (22a, 22b) in einem Umgebungs bereich des Fahrzeugs (F),
- stationäres Erzeugen von fusionierten Sensordaten (FSD) auf Basis der erfassten Sensordaten (SD) ,
- stationäres Erzeugen von Umfeldmodelldaten (MD) durch inf rastrukturseitiges Auswerten der Sensordaten (SD) , wobei in dem Umgebungsbereich befindliche Objekte lokalisiert und identifiziert werden,
- Übermitteln der Umfeldmodelldaten (MD) an das Fahrzeug (F) .
2. Verfahren nach Anspruch 1, wobei die Sensoren (22a, 22b) Radarsensoren und/oder Lidarsensoren umfassen.
3. Verfahren nach Anspruch 1 oder 2, wobei die Umfeldmodell daten (MD) objektbasiert erzeugt werden, wobei einzelnen Ob jekten Attribute zugeordnet werden.
4. Verfahren nach Anspruch 3, wobei die Attribute eines Ob jekts mindestens einen der folgenden Attributtypen umfassen:
- die Position des Objekts,
- die Länge des Objekts,
- die Geschwindigkeit des Objekts,
- die Detektionswahrscheinlichkeit des Objekts,
- den Typ des Objekts.
5. Verfahren nach einem der vorstehenden Ansprüche, wobei die Umfeldmodelldaten (MD) eine rasterbasierte Belegungskarte um fassen .
6. Verfahren nach einem der vorstehenden Ansprüche, wobei der Umgebungsbereich in Teilbereiche (41a, 41b) mit unterschied lichen Prioritäten eingeteilt wird.
7. Verfahren nach Anspruch 5, wobei die rasterbasierte Bele gungskarte auf Basis der objektbasierten Umfeldmodelldaten (MD) erzeugt wird
8. Verfahren nach einem der vorstehenden Ansprüche, wobei die rasterbasierte Belegungskarte direkt auf Basis der Sensorda ten (SD) erzeugt wird.
9. Verfahren nach einem der vorstehenden Ansprüche, wobei zum Erzeugen der Umfeldmodelldaten (MD) auch fahrzeugseitig er fasste Sensordaten (SD) von dem Umgebungsbereich des Fahr zeugs (F) herangezogen werden.
10. Verfahren zur autonomen Steuerung eines Fahrzeugs (F), aufweisend die Schritte:
- Erzeugen eines Umfeldmodells (MD) durch Anwendung des Ver fahrens nach einem der Ansprüche 1 bis 9,
- automatisiertes Steuern des Fahrverhaltens des Fahrzeugs (F) auf Basis des erzeugten Umfeldmodells (MD) .
11. Umfeldmodellerzeugungseinrichtung (70), aufweisend:
- infrastrukturseitige Sensoren (22a, 22b) zum Erfassen von Sensordaten (SD) im Umgebungsbereich der Sensoren,
- eine stationäre Fusionseinheit (71) zum Fusionieren der Sensordaten (SD) ,
- eine Auswertungseinheit (72) zum stationären Erzeugen von Umfeldmodelldaten (MD) auf Basis der fusionierten Sensorda ten (SD), wobei in dem Umgebungsbereich befindliche Objekte lokalisiert und identifiziert werden,
- eine stationäre Kommunikationseinheit (73) zum Übermitteln der Umfeldmodelldaten (MD) an ein autonom gesteuertes Fahr zeug (F) .
12. Fahrzeugsteuerungseinrichtung (80), aufweisend:
- eine fahrzeugseitige Kommunikationseinheit (81) zum Empfan gen von Umfeldmodelldaten (MD) von einer stationären Um feldmodellerzeugungseinrichtung (70) nach Anspruch 11, - eine Steuerungseinheit (82) zum automatisierten Steuern des Fahrverhaltens eines Fahrzeugs (F) auf Basis des durch die stationäre Umfeldmodellerzeugungseinrichtung (70) nach An spruch 11 erzeugten Umfeldmodells (MD) .
13. Autonom gesteuertes Fahrzeug (F), aufweisend eine Fahr zeugsteuerungseinrichtung (80) nach Anspruch 12.
14. Automatisiertes Transportsystem, aufweisend:
- eine infrastrukturseitig angeordnete Umfeldmodellerzeu gungseinrichtung (70),
- mindestens ein autonom gesteuertes Fahrzeug (F) nach An spruch 13.
15. Computerprogrammprodukt mit einem Computerprogramm, wel ches direkt in eine Speichereinheit eines automatisierten Transportsystems ladbar ist, mit Programmabschnitten, um alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 10 auszuführen, wenn das Computerprogramm in dem automatisierten Transportsystem ausgeführt wird.
16. Computerlesbares Medium, auf welchem von einer Rech nereinheit ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 10 auszuführen, wenn die Programmabschnitte von der Rech nereinheit ausgeführt werden.
EP20725093.7A 2019-06-25 2020-04-21 Infrastrukturseitige umfelderfassung beim autonomen fahren Pending EP3928127A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019209154.7A DE102019209154A1 (de) 2019-06-25 2019-06-25 Infrastrukturseitige Umfelderfassung beim autonomen Fahren
PCT/EP2020/061065 WO2020259892A1 (de) 2019-06-25 2020-04-21 Infrastrukturseitige umfelderfassung beim autonomen fahren

Publications (1)

Publication Number Publication Date
EP3928127A1 true EP3928127A1 (de) 2021-12-29

Family

ID=70680458

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20725093.7A Pending EP3928127A1 (de) 2019-06-25 2020-04-21 Infrastrukturseitige umfelderfassung beim autonomen fahren

Country Status (3)

Country Link
EP (1) EP3928127A1 (de)
DE (1) DE102019209154A1 (de)
WO (1) WO2020259892A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020211478A1 (de) 2020-09-14 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Konzept zum Unterstützen eines zumindest teilautomatisiert geführten Kraftfahrzeugs
DE102020213661A1 (de) 2020-10-30 2022-05-05 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Analysieren eines Umfelds eines Kraftfahrzeugs
DE102021203994A1 (de) 2021-04-21 2022-10-27 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Betreiben eines wenigstens teilweise automatisierten Fahrzeugs
DE102021206319A1 (de) * 2021-06-21 2022-12-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum infrastrukturgestützten Assistieren eines Kraftfahrzeugs
DE102021207997A1 (de) 2021-07-26 2023-01-26 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Überprüfen einer Vollständigkeit eines Modells einer Verkehrsdynamik an einem Verkehrsknotenpunkt
DE102021208616A1 (de) 2021-08-06 2023-02-09 Siemens Mobility GmbH Anordnung von infrastrukturseitiger Überwachungssensorik
DE102021209699A1 (de) 2021-09-03 2023-03-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Betreiben von mehreren Infrastruktursystemen
DE102021209680A1 (de) 2021-09-03 2023-03-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Verbesserung der Schätzung von Existenzwahrscheinlichkeiten
DE102021213818A1 (de) 2021-12-06 2023-06-07 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bestimmen einer Datenübertragungsqualität eines Infrastruktursystems zur Fahrunterstützung von zumindest teilautomatisiert geführten vernetzten Kraftfahrzeugen
DE102021213819A1 (de) 2021-12-06 2023-06-07 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bestimmen einer Datenübertragungsqualität einer Kommunikationsverbindung zwischen vernetzten Kraftfahrzeugen und einem Infrastruktursystem zur Fahrunterstützung von zumindest teilautomatisiert geführten vernetzten Kraftfahrzeugen
DE102022201280A1 (de) 2022-02-08 2023-08-10 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Betreiben eines Infrastruktursensorsystems
DE102022203289A1 (de) 2022-04-01 2023-10-05 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Erkennen von Fehlausrichtungen eines stationären Sensors sowie stationärer Sensor
DE102022206981A1 (de) 2022-07-08 2024-01-11 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Fahrunterstützung eines vernetzten Kraftfahrzeugs

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130127822A (ko) * 2012-05-15 2013-11-25 한국전자통신연구원 도로상 물체 분류 및 위치검출을 위한 이종 센서 융합처리 장치 및 방법
DE102016205139B4 (de) * 2015-09-29 2022-10-27 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zur Charakterisierung von Objekten
DE102016214470B4 (de) * 2016-08-04 2023-06-22 Volkswagen Aktiengesellschaft Verfahren und System zum Erfassen eines Verkehrsumfeldes einer mobilen Einheit
US10692365B2 (en) * 2017-06-20 2020-06-23 Cavh Llc Intelligent road infrastructure system (IRIS): systems and methods
DE102017212533A1 (de) * 2017-07-21 2019-01-24 Robert Bosch Gmbh Vorrichtung und Verfahren zum Bereitstellen einer Zustandsinformation eines automatischen Valet Parking Systems

Also Published As

Publication number Publication date
WO2020259892A1 (de) 2020-12-30
DE102019209154A1 (de) 2020-12-31

Similar Documents

Publication Publication Date Title
WO2020259892A1 (de) Infrastrukturseitige umfelderfassung beim autonomen fahren
DE102015100812B4 (de) Verfahren zum Verwenden von Strassenniveaubildern zum Verbessern eines Modus eines automatisierten Fahrens für ein Fahrzeug
EP3688742B1 (de) System zur erzeugung und/oder aktualisierung eines digitalen modells einer digitalen karte
EP3363005B1 (de) Verfahren zur ermittlung und bereitstellung einer auf eine vorbestimmte umgebung bezogenen, umfelddaten enthaltenden datenbank
EP3572293B1 (de) Verfahren zum unterstützen eines führens wenigstens eines kraftfahrzeugs und assistenzsystem
DE102020111682A1 (de) Systeme und verfahren zum implementieren einer autonomen fahrzeugreaktion auf ein sensorversagen
DE112020004587T5 (de) Verteilter verkehrssicherheitskonsens
DE112018002143T5 (de) Systeme und verfahren zur kompression von fahrspurdaten
DE102018129048A1 (de) Systeme und verfahren zum bestimmen von sicherheitsereignissen für ein autonomes fahrzeug
DE112017003968T5 (de) Steuerung eines autonomen fahrzeugs
DE102014220681A1 (de) Verkehrssignalvorhersage
DE102015209947A1 (de) Evakuierungsfahrtassistenzvorrichtung
DE102014220678A1 (de) Fahrzeug-fernüberwachung
DE102013107959A1 (de) Verfahren zur Unterstützung des Parkens von Fahrzeugen auf einer Parkfläche, Parkflächenmanagementsystem, fahrzeugseitiges System und Computerprogramm dafür
DE102016212700A1 (de) Verfahren und System zur Steuerung eines Fahrzeugs
EP2858039A1 (de) Verfahren zur automatischen Kontrolle des Einfahrens eines Straßenfahrzeuges in einen kontrollierten Straßenabschnitt, Kontrollsystem und fahrzeugseitiges System dafür sowie Computerprogramm
EP2936470B1 (de) Verfahren und system zum lernen von verkehrsereignissen sowie verwendung des systems
DE102019209552A1 (de) Verfahren zur Verkehrserfassung
WO2017102623A1 (de) VERFAHREN UND VORRICHTUNG ZUM PRÄDIZIEREN EINER BEWEGUNG EINES STRAßENVERKEHRSTEILNEHMERS IN EINEM VERKEHRSRAUM
DE102018124578A1 (de) System und verfahren zur dynamischen fahrzeuganpassung und zum -tuning
DE112019004772T5 (de) System und Verfahren zum Bereitstellen von unterstützenden Aktionen zur gemeinsamen Straßenbenutzung
DE102013107960B4 (de) Verfahren zur Aktualisierung einer Datenbasis sowie Einrichtung und Computerprogramm
DE102017209347A1 (de) Verfahren und Vorrichtung zum Steuern eines Fahrzeugs
DE102019117136A1 (de) Kommunikation und steuerung für verkehrsinfrastruktur
WO2018010875A1 (de) Verfahren und vorrichtung zum erstellen einer gefahrenkarte zum identifizieren zumindest einer gefahrenstelle für ein fahrzeug

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20210923

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ROBERT BOSCH GMBH

17Q First examination report despatched

Effective date: 20231222