WO2022171460A1 - Verfahren zum betreiben einer sensorschaltung in einem kraftfahrzeug, entsprechend betreibbare sensorschaltung und kraftfahrzeug mit der sensorschaltung - Google Patents

Verfahren zum betreiben einer sensorschaltung in einem kraftfahrzeug, entsprechend betreibbare sensorschaltung und kraftfahrzeug mit der sensorschaltung Download PDF

Info

Publication number
WO2022171460A1
WO2022171460A1 PCT/EP2022/052076 EP2022052076W WO2022171460A1 WO 2022171460 A1 WO2022171460 A1 WO 2022171460A1 EP 2022052076 W EP2022052076 W EP 2022052076W WO 2022171460 A1 WO2022171460 A1 WO 2022171460A1
Authority
WO
WIPO (PCT)
Prior art keywords
motor vehicle
area
sensor
surroundings
stationary
Prior art date
Application number
PCT/EP2022/052076
Other languages
English (en)
French (fr)
Inventor
Muhammad Saad Nawaz
Original Assignee
Cariad Se
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cariad Se filed Critical Cariad Se
Priority to US18/264,921 priority Critical patent/US20240125604A1/en
Priority to CN202280014250.3A priority patent/CN116964481A/zh
Publication of WO2022171460A1 publication Critical patent/WO2022171460A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps

Definitions

  • the invention relates to a method for operating a sensor circuit in a motor vehicle.
  • a processor unit uses at least one surroundings sensor to receive reflection signals from surroundings of the motor vehicle and uses them to determine a respective detection point that describes a relative position of a reflection event with respect to the motor vehicle.
  • An example of such a sensor circuit is a radar environment sensor.
  • the invention relates to a corresponding sensor circuit and a motor vehicle with such a sensor circuit.
  • a challenging scenario is the detection of traffic jams from a safe distance (over 200m). Due to the limited range of the front camera sensor and the LIDAR sensor, only the radar sensor remains as the main data source for detecting tails of traffic jams at such a great distance.
  • the temporarily stationary objects (vehicles) at the end of the traffic jam have the same speed as the road infrastructure (those are landmarks such as crash barriers, tunnel entrances, gantry signs), one of the strengths of the radar, namely the radar reflections in the Doppler range (based on the movement speed of the others vehicles) does not contribute to the detection of stationary vehicles in such scenarios. So it can't be reliably distinguished between a landmark of the road infrastructure and a vehicle.
  • a similar scenario occurs with parked vehicles in an urban environment on bends that approach a traffic signal system (e.g. traffic lights).
  • a traffic signal system e.g. traffic lights
  • a motor vehicle with a sensor circuit for measuring its surroundings is known, for example, from WO 2020/154366 A1. It describes how stationary objects can be detected by means of at least one environment sensor and mapped in a digital map of the environment. Since parked motor vehicles are also detected as stationary objects during such a test drive of a motor vehicle and are incorrectly entered in the map of the surroundings, the created map of the surroundings is later compared with older versions of this map of the surroundings in order to avoid such objects that have only appeared during the current test drive. to be recognized as temporary or transient objects and to be deleted from the updated map of the area if they were only visible during a single measurement run. With this technology, it is not possible to detect the end of a traffic jam that is far ahead while a motor vehicle is driving.
  • a motor vehicle can carry out self-localization by using at least one surroundings sensor to detect objects in the surroundings are determined and these detection points are compared with map data in order to determine a relative position of the motor vehicle with respect to mapped objects in the area.
  • this is only possible with objects that are close enough to have a sufficient local resolution of the environment sensor.
  • Such self-localization based on map data and sensor data is also known from DE 102019 101 405 A1.
  • the object of the invention is to use at least one environment sensor to distinguish other road users from stationary landmarks in a motor vehicle, even if the road users are not moving in the area.
  • One aspect of the invention relates to a method for operating a sensor circuit in a motor vehicle, with a processor unit in the sensor circuit using at least one surroundings sensor receiving a respective reflection signal from the surroundings of the motor vehicle and from the respective reflection signal determining a detection point that determines a relative position of an associated reflection event describes relative to the motor vehicle.
  • the method is therefore based on the fact that, in a manner known per se, an object in the surroundings of the motor vehicle reflects a signal, for example electromagnetic radiation or ultrasound, and this reflection signal can be received by means of an surroundings sensor.
  • Examples of a reflection signal are a radar signal, an ultrasonic signal, a LIDAR signal and light, respectively. Radar, ultrasound and LIDAR can each be emitted by the sensor circuit itself.
  • Light can be received, for example, by means of a camera or a stereo camera.
  • a detection point can, for example, indicate a distance and an azimuth angle (for example with respect to a longitudinal axis of the vehicle).
  • a detection point can also indicate a height or Z coordinate.
  • a relative driving speed or movement speed for the detection point can also be determined.
  • At least one area in the environment and a category of the respective area can be defined. Each area can be used as a
  • Template can be used to categorize the individual detection points.
  • the respective area and its category can be defined by the processor unit using predetermined template data.
  • the processor unit checks for the respective detection point whether it lies in the at least one area, and the respective detection point that lies in an area is categorized according to the template data of this area. If a detection point is e.g. in an area of the category
  • Period development the detection point is categorized as a reflection on a perimeter development. Detection points outside each
  • Areas of land may be categorized as the opposite of each, or left uncategorized, or assigned a default category, respectively.
  • the at least one detection point is then filtered according to its categorization using a filter measure for a trajectory planning of a travel trajectory of the motor vehicle.
  • Trajectory planning is the planning or calculation that defines a travel trajectory for the motor vehicle along the route ahead, ie a travel line and a speed profile to be set along the travel line.
  • the invention has the advantage that when determining individual detection points for each of these individual detection points, in particular even then or even when it is not yet known to which object or object type (stationary landmark or road user) the respective detection point belongs, already on the basis of the Template data, it is decided whether the detection point is relevant for the trajectory planning or not, and appropriate filtering or filtering measures can be carried out for the respective detection point.
  • a downstream processing unit can be relieved in terms of the amount of data and/or computing load and/or incorrect detection in the downstream processing unit can be avoided.
  • Areas or shapes for example a horizontal area in the form of a rectangle and/or a triangle, can be defined as area areas of the surroundings, and it can be determined for each detection point whether it lies in an area area or not.
  • each area it can be specified which category it belongs to, for example whether it is an area of a stationary landmark or the area of a roadway.
  • that category of the area in which it is located can be assigned to a detection point.
  • a detection point may be assigned the opposite category, a default category, or no category if it falls outside any or each area of a particular category.
  • stationary landmarks are defined as surface areas
  • the standard category “potential road user” can be assigned to a detection point outside of each surface area of the stationary landmarks.
  • the trajectory planning which is supplied with the filtered detection points, can involve the planning of a new travel trajectory and/or the monitoring and adjustment of an existing travel trajectory. For example, when recognizing at least one detection point that belongs to a potential road user (shape recognition has not yet taken place at this point in time), the driving trajectory can be adjusted accordingly in such a way that collision avoidance is operated or achieved (e.g. by reducing the driving speed).
  • the template data by means of which the surface areas are defined, are those geometric data or pieces of information which describe the surfaces or boundary profiles of the at least one surface area. It can be vector data or point data, just to name examples.
  • the surface areas can be defined relative to the motor vehicle or in an absolute coordinate system of the environment or in a coordinate system of the respective environment sensor.
  • An area can be used as an exclusion criterion by delimiting an area or an area in the vicinity in which no road user can stay, for example because there is already a building or generally an already known stationary landmark in the area.
  • a respective example of a stationary landmark is a crash barrier, a building, a traffic sign, a traffic light or an infrastructure object in general, ie an object that belongs to the traffic infrastructure and is installed there in a stationary or permanent manner.
  • An area occupied by such a stationary landmark can be considered as said
  • Exclusion criterion can be used to recognize or categorize a reflection event taking place there, ie a detection point contained there, as detection of the stationary landmark. For a surface area that, on the other hand, corresponds to a roadway or is covered by a roadway, a detection point or the corresponding reflection event indicates that a road user who triggered or caused the reflection event is detected or arranged there.
  • the filter measure for the detection points contained therein can be controlled or adjusted.
  • the template data are determined from a digital map of the environment and describe stationary landmarks and/or lanes mapped in the map of the environment and at least one area delimits an area occupied by a landmark and/or at least one area delimits an area occupied by a lane.
  • a receiver for a position signal from a GNSS Global Positioning Satellite System
  • the map data can be selected from a navigation database based on the current geoposition.
  • An embodiment includes that the respective area is defined as one of the following areas.
  • a surface area can be defined as a landmark surface that has at least one stationary landmark and is irrelevant for a visit and into which the trajectory must not lead. Additionally or alternatively, a (different) surface area can be defined as a roadway surface or traffic surface for at least one other road user that is relevant for the trajectory planning.
  • a road surface or traffic area is an area that can be driven on by a motor vehicle or a vehicle in general (ie, for example, a bicycle as well), or in general Source of potential traffic or other road users potentially located there.
  • detection points By assigning detection points to a landmark area and/or a roadway surface, it is possible to decide individually without recognizing a shape or object recognition for the detection points whether it is a reflection event at a stationary landmark that has already been identified based on the map data of the map of the surroundings the trajectory planning was taken into account, or a potential road user who still has to be included in the further planning of the travel trajectory.
  • one embodiment provides that at least one further landmark is detected by means of the surroundings sensor and/or by means of at least one further surroundings sensor and is described by further detection points and a relative position of the motor vehicle with respect to the at least one mapped stationary landmark and/or the at least one mapped roadway is determined by comparing the further detection points with the map of the surroundings and the map of the surroundings is thus registered or aligned with respect to the motor vehicle. A position and/or spatial orientation of the motor vehicle with respect to or “within” the map of the surroundings can thus be determined.
  • the further detection points are in particular detection points in a close range or central range of the respective environmental sensor, in particular they are closer than the first-mentioned detection points, in particular closer than 100 m or closer than 75 m.
  • One embodiment includes such a detection point, which is recognized as immobile in relation to the environment (i.e. calculated in absolute geocoordinates) and which is outside of each surface area that is considered a landmark area and/or within a surface area that is considered a roadway area. is arranged, is categorized as a reflection event on a stationary road user. Due to the movement of the motor vehicle, a detection point at a Object that is standing still in the area can still be signaled in the reflection signal itself as a moving surface or moving reflection event, since the motor vehicle itself, which has the sensor circuit or the area sensor, can move or drive in the area.
  • this detection point is stationary or immobile in relation to the surroundings, and if it is also recognized that it is located outside of any surface area that is considered a landmark surface, then this detection point is considered a reflection event a stationary road user recognized or categorized. It is thus also possible, for example, with a radar signal to distinguish a stationary road user from a stationary landmark, that is to say, for example, a building or a crash barrier.
  • An embodiment includes that the reflection event at a stationary road user is signaled as the end of a traffic jam or as a queue at a traffic sign (e.g. stop sign) or a traffic signal system (traffic light).
  • a traffic sign e.g. stop sign
  • a traffic signal system traffic light
  • the end of a traffic jam or the end of a queue for example at a stop sign or a red traffic light, can be detected using a single detection point or several detection points, even if the road users could not yet be recognized by a downstream object recognition because the detection points have not yet been examined to that effect . In this way, an approach to the end of a traffic jam can be recognized with a short response time.
  • the filter measure described includes that a respective detection point of a landmark area is marked and/or deleted. If a detection point is recognized as lying within a landmark area, it can be marked and is thus still available to a downstream processing unit. As an alternative to this, a detection point belonging to a stationary landmark or to a landmark area can be deleted, as a result of which the computing load can be reduced in a downstream processing unit, for example in the object recognition described.
  • the surface areas described do not represent the entire detection area of the environmental sensor, but they are sub-areas or sub-areas delimited within the detection area, for example by vector data and/or a contour line or boundary line.
  • these sub-areas do not represent a simple distance limitation, e.g. distant areas that are irrelevant for current planning of the travel trajectory (e.g. all detection points at a distance of more than 200 m).
  • at least two surface areas are defined by the template data, which are next to one another as seen along the travel trajectory, that is, as seen from the vehicle, are next to one another on the right and left.
  • stationary landmarks from a map of the surroundings can be used to define surface areas that can be used as landmark areas, ie describe stationary landmarks.
  • positive detection i.e. active assignment of a detection point
  • a surface area can be used for the active detection of another road user by defining such an area or such a surface in the environment as a surface area in which a road user can potentially be present. If there is then a reflection event and thus a detection point in such a surface area, it can be assumed that a road user is present there.
  • such a surface area can be defined as a band or strip that runs along the travel trajectory and covers a tolerance range or edge area to the right and left of the travel trajectory.
  • the tolerance range along the travel trajectory can be defined with a width in a range from 2 meters to 20 meters.
  • This surface area can have a conically widened shape, which means that it is wider the greater the distance from the motor vehicle.
  • Each detection point located in this lane can then be evaluated or categorized as a reflection event on a potential road user.
  • At least one of the at least one surface area is defined by a course of the road ahead (the motor vehicle in the direction of travel) and/or by a lane ahead, which is formed by the driving trajectory and a tolerance range of predetermined width arranged on both sides of the driving trajectory.
  • the at least one environmental sensor includes a radar sensor and a movement speed of the object causing the reflection event is also described by the reflection signal in addition to the relative position.
  • the radar sensor has the advantage described above that a detection point can still be generated or determined at a distance of more than 100 meters, in particular more than 150 meters or more than 200 meters, and a movement speed can also be assigned for a detection point can. In the event that this movement speed is zero (relative to the environment), the sensor circuit can use the method to support the evaluation of the reflection signals of the radar sensor.
  • the filter measure is only used for those detection points that are recognized as standing still in the area and/or that are at a distance greater than a predetermined minimum distance.
  • the detection points are filtered for a minimum distance greater than 50 meters or greater than 100 meters or greater than 150 meters or greater than 200 meters.
  • One embodiment includes that after the filter measure has been applied, a result of the filter measure is forwarded to a downstream processing unit and the processing unit uses a relative position of the filtered detection points to carry out an object detection and/or based on a position of the detection points the trajectory planning and/or a plausibility check of an object detection and /or performs trajectory planning.
  • a processing unit can be, for example, an electronic control unit (ECU—Electronic Control Unit) or a combination of several such ECUs. Because the detection points are either marked by the filtering, i.e. have a category such as stationary landmarks, or the detection points of stationary landmarks are deleted, object recognition (e.g.
  • Detection points that can be assigned to a potential road user can be used in trajectory planning, for example to adapt the Speed profile (speed reduction) and/or adjustment of the driving line (to drive around the object that caused the detection point) can be used.
  • a second or further check of an object detection and/or a trajectory planning from another data source can be checked by means of a plausibility check.
  • One specific embodiment includes the driver assistance system planning the trajectory for an autonomous driving function (in particular levels 3 to 5) while the motor vehicle is driving.
  • a driver assistance system for an automated or autonomous driving function can thus carry out an evaluation of the reflection signals in a more robust manner.
  • One aspect of the invention relates to a sensor circuit for a motor vehicle, which has an environment sensor for detecting reflection signals from the environment of a motor vehicle.
  • a sensor circuit can provide additional information about the detection points by assigning detection points to surface areas.
  • the environmental sensor is coupled to a processor unit that is set up to carry out an embodiment of the method according to the invention.
  • the processor unit can have a data processing device or a processor circuit that is set up to do so
  • the processor unit can have at least one microprocessor and/or at least one microcontroller and/or at least one FPGA (Field Programmable Gate Array) and/or at least one DSP (Digital Signal Processor) and/or at least one ASIC (Application Specific Integrated Circuit).
  • the processor unit can have program code which is set up to carry out the embodiment of the method according to the invention when executed by the processor unit.
  • the program code can be stored in a data memory of the processor unit.
  • An embodiment includes that the sensor circuit is designed as a radar. The method can be used to support the radar in the initially described problem of detecting the end of a traffic jam and/or the end of a queue.
  • the motor vehicle according to the invention has at least one embodiment of a sensor circuit according to the invention.
  • the motor vehicle according to the invention is preferably designed as a motor vehicle, in particular as a passenger car or truck, or as a passenger bus or motorcycle.
  • the invention also includes the combinations of features of the described embodiments.
  • the invention also includes implementations that each have a combination of the features of several of the described embodiments, unless the embodiments were described as mutually exclusive.
  • FIG. 1 shows a schematic representation of an embodiment of the motor vehicle according to the invention
  • FIG. 2 shows a schematic representation of an embodiment of the sensor circuit according to the invention
  • 3 shows a schematic representation of a plan view of a traffic scene in which an embodiment of the method according to the invention can be carried out in the motor vehicle;
  • FIG. 4 shows a sketch to illustrate detection points that were determined from reflection signals from an area surrounding the motor vehicle
  • Fig. 5 is a schematic representation to illustrate
  • FIG. 6 shows a sketch to illustrate a filter result of a filter measure.
  • Motor vehicle 10 can be a motor vehicle, in particular a passenger car or truck.
  • Motor vehicle 10 can have a sensor circuit 11, in which at least one environment sensor 12 with a processor unit 13 can be coupled.
  • the sensor circuit 11 can, for example, be a radar sensor, in particular a front radar, for which the surroundings sensor 12 can correspondingly be a radar sensor.
  • At least one reflection signal 16 can be received by means of environment sensor 12 from an environment 14 , in particular an environment ahead of motor vehicle 10 , within a detection range 15 of environment sensor 12 .
  • the reflection signal 16 can be generated by a reflection event 17 at a reflection point or reflection surface 18 of an object 19 in the surroundings 14 .
  • it can be a reflected radar signal from the surroundings sensor 12 itself.
  • the reflection signal 16 detected by means of the environmental sensor 12 can be processed in the sensor circuit 11 by the processor unit 13 in such a way that the reflection signal 16 can be assigned a respective detection point 20, which describes a location or coordinates of the respective reflection surface 18, without the entire shape of the Object 19 itself must be analyzed or known.
  • Each detection point 20 thus stands individually for a respective reflection event 17 and can indicate its coordinates in the surroundings 14, for example. They can be absolute coordinates in an absolute coordinate system of the environment 14 or relative coordinates in relation to the motor vehicle 10 and/or the sensor circuit 11 .
  • the detection points 20 can be filtered by means of a filter measure 21 and a result 22 of the filtering can consist in the detection points 20 being provided or output as filtered detection points 23, with each filtered detection point 23 being a categorized detection point 24 which can be assigned to a category can, for example, one of the following categories: stationary object or stationary landmark, moving object or potential road user, temporarily stationary object or stationary road user.
  • map data 25 of a digital environment map 26 can be used, in which stationary landmarks can be mapped or indicated.
  • the card data 25 can represent template data 27 which define geographic templates or areas in the environment 14 which are known to contain a stationary landmark.
  • Fig. 2 illustrates an embodiment of the sensor circuit 11. It shows how the reflection signals 16' detected by the environmental sensor 12, for example echo signals or radar signals, are shown by means of an FFT (Fast Fourier Transformation) 28 and/or a CFAR unit (CFAR - Constant False Alarm rate) 29 can be processed or analyzed and by means of a detection of local maxima (peak detection) potential detection points 20 'can be provided.
  • FFT Fast Fourier Transformation
  • CFAR unit CFAR - Constant False Alarm rate
  • a clutter filter 29' for multipath propagation and/or clutter can be used to suppress interference such as that caused by reflections in multipath propagation and/or interference from weather influences, for example fog or rain, resulting in detection points 20 that are fed to filter measure 21 be able.
  • the filter measure 21 can be operated here as a landmark detection filter in order to filter out or mark those detection points 20 from radar signals, for example, which belong to previously known stationary landmarks.
  • the template data 27 described which describe the positions of landmarks 30 in map data 25, can also be made available for the categorization from the map of the surroundings 26, preferably a so-called HD map.
  • map data 25 can also be made available to a sensor fusion function 31, which can also receive detection points 20 and/or sensor data 33' from at least one other environmental sensor 33.
  • An example of a further environment sensor can be a camera and/or a lidar and/or at least one further radar sensor.
  • Detection points 20 which can be specified in relative coordinates in relation to motor vehicle 10, can now be described or defined as landmarks 30 as surface areas 44 (see also the further figures) in surroundings 14 in detection area 15.
  • the detection points 20 can be categorized, and by means of the filter measure 21, the result 22 of the filtering can be generated and, for example, at least one downstream processing unit 34, for example a control unit of the
  • Motor vehicle 10 are provided.
  • a planning 35 of a driving trajectory of the motor vehicle 10 can be carried out there, for example.
  • FIGS. 3 to 6 illustrate the method described in FIG. 2 .
  • FIG. 3 shows an exemplary driving situation 36 in which motor vehicle 10 is driving in surroundings 14 on a road 37 towards the end of a traffic jam 38 .
  • Motor vehicle 10 can drive in a lane, which is therefore referred to here as ego lane 39 .
  • An adjacent lane 40 may also be blocked by the end of the traffic jam 38 .
  • a travel direction 41 for the motor vehicle 10 is shown in FIG. 3, along which the motor vehicle 10 can travel at a speed V greater than 0 m/s.
  • Motor vehicle 10 can, for example, use processing unit 34 to plan a travel trajectory 42 that leads along ego lane 39 . This travel trajectory 42 may not initially include the end of the traffic jam 38 or may not have planned it, which is why the travel trajectory 42 must be adjusted.
  • the end of the traffic jam 38 can be formed by vehicles 43 that are stationary, that is to say that their driving speed V is 0 m/s.
  • stationary landmarks 30 are shown in FIG. 3 , as they can be mapped or described in the map 26 of the surroundings.
  • Exemplary landmarks 30 (FIG. 2) are represented here by a crash barrier 45, crash barrier supports 46 and building 47. Stationary landmarks can each occupy a horizontal area 44 .
  • FIG. 4 illustrates how a respective detection point 20 can be determined on the basis of the reflection signals 16 .
  • only a few detection points 20 are provided with a reference number in FIG. 4 . It should be noted that initially only the detection points 20 are available for the method, ie the contours or shapes of the stationary landmarks or of the vehicles 43 are unknown or unrecognized.
  • the sensor circuit 11 makes it possible to analyze or categorize the individual detection points 20 without recognizing their association as to whether they belong to a stationary landmark or a potential road user in the form of a vehicle.
  • mapped surface areas 48 in the environment 14 can be delimited, of which it is known that a stationary landmark is located within these mapped surface areas 48 or that it describes the contour thereof.
  • the road can also be defined or delimited as a surface area 49 of a traffic area or roadway area and be described by template data 27 .
  • the mapped areas 48 can be selected and used as areas 44 (see Figure 4) for categorization. For example, all those surface areas 48 that are in one can be selected predetermined area in the direction of travel in front of motor vehicle 10, in particular that area for which the filtering is to take place.
  • the areas 44 may be made larger than the mapped areas 48 to account for the reflection events occurring at the surface or at an outer edge of the respective stationary landmark.
  • Fig. 6 illustrates how, by matching or comparing the coordinates of the detection points 20 with the detection points 24 categorized from the selected surface areas 44, detection points 24 can be determined or formed from the detection points 20 by a detection point 20 within a landmark area, i.e. a surface area 44 of a stationary Landmark categorized as a detection point of a stationary landmark (shown with hatching).
  • a detection point can be considered to be within an area if its horizontal coordinates (e.g. X and Y or azimuth and distance to the motor vehicle) are in the area delimited by area 44 and/or on the boundary of the area, i.e. height information or Z-coordinate can be ignored (since it is fuzzy or not available anyway for e.g. radar).
  • a height evaluation can take place. Detection points outside of these landmark areas can then be categorized as potential road users or detection points of potential road users (shown without hatching). Using the filter measure 21, the categorized detection points 24 can then be processed or treated according to their category, for example marked or deleted. This gives the result 22 of the filtering.
  • a situation interpretation module of an autonomous or automated driving function of the motor vehicle 10 thus does not fail when recognizing the end of a traffic jam and, for example, triggers a signal for signaling the risk of an accident out.
  • This logic or method does not require human driver intervention (e.g. intensive braking) in autonomous or automated ferry operations.
  • the idea is to use landmarks (road infrastructure and/or other stationary objects such as buildings along the road) from a so-called HD map data (environment map with infrastructure information), to merge them with the radar data of a radar sensor and/or to filter them out of the radar data.
  • the detection system will be able to identify or detect the only temporarily stationary objects, such as stationary vehicles, standing at the end of a traffic jam or at a traffic light.
  • the driving function can make a decision and prevent a potentially too close approach to a stationary vehicle in front of it.
  • the inputs to the radar landmark detection filter can be the radar tips or radar peaks after filtering, as well as the localization output (to register or position within the environment map) and the filtered landmarks from the environment map or HD map.
  • the vehicle can be localized after a fusion of all sensor data (if they contribute to the localization) and additionally the map data. Localization can help to align the orientation axes or alignment axes of radar data and map data so that the landmarks can be matched to the radar readings with an accuracy error of less than one centimetre.
  • An example scenario (FIG. 3) can demonstrate the usefulness of the radar landmark detection filter in which the motor vehicle 10 approaches the end of the traffic jam/the red light as the ego vehicle; and landmarks are in the field of view.
  • the scenario includes the following vehicles at the end of the traffic jam: vehicles 1 and 2 in the first lane and vehicles 3 and 4 in the adjacent lane.
  • the scenario also includes buildings, crash barriers, and traffic signs as landmarks (or road infrastructure).
  • the representation in Figure 4 may be the (clutter) filtered output of the radar processing chain that is sent to the RLD filter.
  • the RLD filter receives the landmarks extracted from the map data, as shown in FIG. 5, which can be linked to the radar data using localization information.
  • the radar detections associated with permanently stationary and/or non-traffic landmarks can be filtered out, leaving only the temporarily stationary object detections. These detections can then be sent to the situation interpretation block of a driving function or for further fusion with other sensor data and can thus help in the early detection of traffic jams.
  • the landmark features are preferred from the HD map or
  • the RLD filter extracts the radar bounces from infrastructure (or stationary objects) by matching them with the HD map data, distinguishing them from the radar bounces from temporarily stationary objects (such as stationary vehicles), resulting in better detection of temporarily stationary road users.
  • the examples show how detection points of the landmarks can be distinguished from detection points of stationary road users in sensor signals (especially radar signals) by mapping map landmarks onto the detection range of an environmental sensor (especially a radar).

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben einer Sensorschaltung (11) in einem Kraftfahrzeug (10), wobei in der Sensorschaltung (11) eine Prozessoreinheit (13) mittels zumindest eines Umgebungssensors (12) Reflexionssignale (16) aus einer Umgebung (14) des Kraftfahrzeugs (10) empfängt und aus dem jeweiligen Reflexionssignal (16) einen jeweiligen Detektionspunkt (20) ermittelt, der eine Relativlage eines Reflexionsereignisses (17) bezüglich des Kraftfahrzeugs (10) beschreibt. Die Erfindung umfasst, dass durch die Prozessoreinheit (13) mittels vorbestimmter Schablonendaten (27) zumindest ein Flächenbereich (44) in der Umgebung (14) sowie eine Kategorie des jeweiligen Flächenbereichs (44) festgelegt wird und für den jeweiligen Detektionspunkt (20) überprüft wird, ob er in dem zumindest einen Flächenbereich (44) liegt, und der jeweilige Detektionspunkt (20), der in einem Flächenbereich (44) liegt, gemäß den Schablonendaten (27) dieses Flächenbereichs (44) kategorisiert wird und der zumindest eine Detektionspunkt (20) gemäß seiner Kategorisierung mittels einer Filtermaßnahme (21) für eine Trajektorienplanung (35) einer Fahrtrajektorie (42) des Kraftfahrzeugs (10) gefiltert wird.

Description

Verfahren zum Betreiben einer Sensorschaltung in einem Kraftfahrzeug, entsprechend betreibbare Sensorschaltung und Kraftfahrzeug mit der
Sensorschaltung BESCHREIBUNG:
Die Erfindung betrifft ein Verfahren zum Betreiben einer Sensorschaltung in einem Kraftfahrzeug. In der Sensorschaltung empfängt eine Prozessoreinheit mittels zumindest eines Umgebungssensors Reflexionssignale aus einer Umgebung des Kraftfahrzeugs und ermittelt daraus einen jeweiligen Detektionspunkt, der eine Relativlage eines Reflexionsereignisses bezüglich des Kraftfahrzeugs beschreibt. Ein Beispiel für eine solche Sensorschaltung ist ein Radar-Umgebungssensor. Die Erfindung betrifft eine entsprechende Sensorschaltung und ein Kraftfahrzeug mit einer solchen Sensorschaltung.
Für automatisierte Fahrfunktionen, wie z.B. einen Tempomat oder einen Autobahnpiloten, ist ein herausforderndes Szenario die Erkennung von Stauenden aus einer sicheren Entfernung (über 200m). Aufgrund der begrenzten Reichweite des Frontkamerasensors und des LIDAR-Sensors bleibt nur der Radarsensor als Hauptdatenquelle für die Erkennung von Stauenden in solch großer Entfernung übrig.
Da die temporär stillstehenden Objekte (Fahrzeuge) am Stauende die gleiche Geschwindigkeit haben wie die Straßeninfrastruktur (das sind Landmarken, wie z.B. Leitplanken, Tunneleinfahrten, Schilderbrücken), liefert eine der Stärken des Radars, nämlich die Radarreflexionen im Dopplerbereich (basierend auf der Bewegungsgeschwindigkeit der anderen Fahrzeuge) zu unterscheiden, keinen Beitrag zur Erkennung von stillstehenden Fahrzeugen in solchen Szenarien. Es kann somit nicht zuverlässig zwischen einer Landmarke der Straßeninfrastruktur und einem Fahrzeug unterschieden werden.
Selbst ein seitlicher Abstand von 2 m (größer als im Normalfall) zwischen den angehaltenen oder stillstehenden Fahrzeugen und der Straßeninfrastruktur an den Straßenrändern entspricht einem Winkelabstand (Azimut) von nur etwas mehr als einem halben Grad. Dieser geringe Winkelabstand führt dazu, dass diese angehaltenen Fahrzeuge als Fortsetzung der Straßeninfrastruktur wahrgenommen werden, wenn einzelne Detektionspunkte des Radarsensors bei der Objekterkennung zu Objekten verknüpft oder verbunden werden.
Ein ähnliches Szenario ergibt sich bei stellstehenden Fahrzeugen in städtischer Umgebung bei Kurven, die sich einer Verkehrssignalanlage (z.B. einer Verkehrsampel) nähern.
Ein Kraftfahrzeug mit einer Sensorschaltung zum Vermessen seiner Umgebung ist beispielsweise aus der WO 2020/154366 A1 bekannt. Darin ist beschrieben, wie mittels zumindest eines Umgebungssensors stationäre Objekte erfasst werden und in einer digitalen Umgebungskarte kartographiert werden können. Da bei einer solchen Messfahrt eines Kraftfahrzeugs auch parkende Kraftfahrzeuge als stationäre Objekte detektiert und fälschlicherweise in die Umgebungskarte eingetragen werden, erfolgt später noch ein Vergleich der erstellten Umgebungskarte mit älteren Versionen dieser Umgebungskarte, um solche Objekte, die sich nur während der aktuellen Messfahrt gezeigt haben, als vorübergehende oder transiente Objekte zu erkennen und aus der aktualisierten Umgebungskarte wieder zu löschen, wenn sie nur während einer einzelnen Messfahrt zu sehen waren. Mit dieser Technologie ist das Erkennen eines weit vorausliegenden Stauendes während einer Fahrt eines Kraftfahrzeugs nicht möglich.
Aus der DE 102018220782 A1 ist bekannt, dass ein Kraftfahrzeug eine Eigenlokalisation dadurch durchführen kann, dass mittels zumindest eines Umgebungssensors Detektionspunkte von Objekten in der Umgebung ermittelt werden und diese Detektionspunkte mit Kartendaten abgeglichen werden, um eine Relativposition des Kraftfahrzeugs bezüglich von kartographieren Objekten der Umgebung zu ermitteln. Dies geht allerdings nur mit solchen Objekten, die nahe genug sind, um eine ausreichende örtliche Auflösung des Umgebungssensors zur Verfügung zu haben. Eine solche Eigenlokalisation auf der Grundlage von Kartendaten und Sensordaten ist auch aus der DE 102019 101 405 A1 bekannt.
Der Erfindung liegt die Aufgabe zugrunde, in einem Kraftfahrzeug mittels zumindest eines Umgebungssensors andere Verkehrsteilnehmer von stationären Landmarken zu unterscheiden, selbst wenn sich die Verkehrsteilnehmer in der Umgebung nicht bewegen.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen der Erfindung sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren beschrieben.
Ein Aspekt der Erfindung betrifft ein Verfahren zum Betreiben einer Sensorschaltung in einem Kraftfahrzeug, wobei in der Sensorschaltung eine Prozessoreinheit mittels zumindest eines Umgebungssensors ein jeweiliges Reflexionssignal aus einer Umgebung des Kraftfahrzeugs empfängt und aus dem jeweiligen Reflexionssignal jeweils einen Detektionspunkt ermittelt, der eine Relativlage eines zugehörigen Reflexionsereignisses relativ zum Kraftfahrzeug beschreibt. Das Verfahren geht also davon aus, dass in an sich bekannter Weise ein Objekt in einer Umgebung des Kraftfahrzeugs ein Signal reflektiert, beispielsweise elektromagnetische Strahlung oder Ultraschall, und dieses Reflexionssignal mittels eines Umgebungssensors empfangen werden kann. Beispiele für ein Reflexionssignal sind jeweils ein Radarsignal, ein Ultraschallsignal, ein LIDAR-Signal und Licht. Radar, Ultraschall und LIDAR können dabei jeweils von der Sensorschaltung selbst ausgestrahlt sein. Licht kann z.B. mittels einer Kamera oder einer Stereokamera empfangen werden. Bevor eine Form eines Objekts erkannt ist, liegen in der Sensorschaltung in an sich bekannter Weise zunächst nur einzelne Detektionspunkte von Reflexionsereignissen vor, die an jeweils einem Objekt stattgefunden haben. Ein solcher Detektionspunkt kann beispielsweise einen Abstand und einen Azimut-Winkel (beispielsweise bezüglich einer Fahrzeuglängsachse) angeben. Durch einen Detektionspunkt kann auch eine Höhe oder Z-Koordinate angegeben sein. Bei einem Radarsignal kann zudem eine relative Fahrgeschwindigkeit oder Bewegungsgeschwindigkeit für den Detektionspunkt ermittelt werden.
Um für einzelne Detektionspunkte eine individuelle Filterfunktion oder eine punktindividuelle Vorverarbeitung zu erhalten, die bereits eine Abschätzung dahingehend durchführt, ob es sich bei einem Detektionspunkt um einen anderen Verkehrsteilnehmer oder eine stationäre Landmarke handeln könnte, ist erfindungsgemäß vorgesehen, dass zumindest ein Flächenbereich in der Umgebung und eine Kategorie des jeweiligen Flächenbereichs festgelegt werden. Jeder Flächenbereich kann als
Schablone für die Kategorisierung der einzelnen Detektionspunkte verwendet werden. Das Festlegen des jeweiligen Flächenbereichs und seiner Kategorie kann durch die Prozessoreinheit mittels vorbestimmter Schablonendaten erfolgen.
Für den jeweiligen Detektionspunkt wird durch die Prozessoreinheit überprüft, ob er in dem zumindest einen Flächenbereich liegt, und der jeweilige Detektionspunkt, der in einem Flächenbereich liegt, wird gemäß den Schablonendaten dieses Flächenbereichs kategorisiert. Liegt ein Detektionspunkt z.B. in einem Flächenbereich der Kategorie
„Randbebauung“, so wird der Detektionspunkt als Reflexion an einer Randbebauung kategorisiert. Detektionspunkte außerhalb jedes
Flächenbereichs können entsprechend jeweils als das jeweilige Gegenteil kategorisiert werden oder ohne Kategorie bleiben oder einer Standard- Kategorie zugeordnet werden.
Der zumindest eine Detektionspunkt wird dann gemäß seiner Kategorisierung mittels einer Filtermaßnahme für eine Trajektorienplanung einer Fahrtrajektorie des Kraftfahrzeugs gefiltert. An die Trajektorienplanung können somit einzeln gefilterte Detektionspunkte bereitgestellt werden. Die Trajektorienplanung ist diejenige Planung oder Berechnung, die für das Kraftfahrzeug entlang des vorausliegenden Fahrweges eine Fahrtrajektorie festlegt, also eine Fahrlinie und ein entlang der Fahrlinie einzustellendes Geschwindigkeitsprofil.
Durch die Erfindung ergibt sich der Vorteil, dass beim Ermitteln einzelner Detektionspunkte für jeden dieser einzelnen Detektionspunkt insbesondere selbst dann oder bereits dann, wenn noch nicht bekannt ist, zu welchem Objekt oder Objekttyp (stationäre Landmarke oder Verkehrsteilnehmer) der jeweilige Detektionspunkt gehört, bereits aufgrund der Schablonendaten entschieden wird, ob der Detektionspunkt relevant für die Trajektorienplanung ist oder nicht und es kann eine entsprechende Filterung oder Filtermaßnahme für den jeweiligen Detektionspunkt vorgenommen werden. Hierdurch kann eine nachgeschaltete Verarbeitungseinheit in Bezug auf die Datenmenge und/oder Rechenlast entlastet werden und/oder eine Fehldetektion in der nachgeschalteten Verarbeitungseinheit vermieden werden. Als Flächenbereiche der Umgebung können Areale oder Formen, beispielsweise ein horizontaler Flächenbereich in Form eines Rechtecks und/oder eines Dreiecks, definiert werden und für jeden Detektionspunkt kann ermittelt werden, ob er in einem Flächenbereich liegt oder nicht. Für jeden Flächenbereich kann angegeben werden, welcher Kategorie er angehört, beispielsweise ob es sich um eine Fläche einer stationären Landmarke oder die Fläche einer Fahrbahn handelt. Entsprechend kann einem Detektionspunkt diejenige Kategorie des Flächenbereichs, in welchem er liegt, zugeordnet werden. Ein Detektionspunkt kann für den Fall, dass er außerhalb eines oder jedes Flächenbereichs einer bestimmten Kategorie liegt, die gegenteilige Kategorie oder eine Standard-Kategorie oder keine Kategorie zugeordnet werden. Werden beispielsweise als Flächenbereiche stationäre Landmarken definiert, so kann einem Detektionspunkt außerhalb jedes Flächenbereichs der stationären Landmarken beispielsweise die Standard-Kategorie „potentieller Verkehrsteilnehmer“ zugeordnet werden. Für die Trajektorienplanung kann somit schon eine Vorverarbeitung oder Filterung in Abhängigkeit von der jeweiligen Kategorie des Detektionspunkts mittels der Filtermaßnahme vorgenommen oder bereitgestellt werden. Bei der Trajektorienplanung, die mit den gefilterten Detektionspunkten versorgt wird, kann es sich um die Planung einer neuen Fahrtrajektorie und/oder die Überwachung und Anpassung einer bestehenden Fahrtrajektorie handeln. So kann beispielsweise bei Erkennen zumindest eines Detektionspunkts, der zu einem potentiellen Verkehrsteilnehmer gehört (eine Formenerkennung hat zu diesem Zeitpunkt noch nicht stattgefunden), die Fahrtrajektorie entsprechend dahingehend angepasst werden, dass eine Kollisionsvermeidung betrieben oder erreicht wird (z.B. durch Verringerung der Fahrgeschwindigkeit). Die Schablonendaten, mittels welchen die Flächenbereiche definiert werden, sind diejenigen geometrischen Daten oder Informationen, welche die Flächen oder Grenzverläufe des zumindest einen Flächenbereichs beschreiben. Es kann sich um Vektordaten oder Punktdaten handeln, um nur Beispiele zu nennen. Die Flächenbereiche können relativ zum Kraftfahrzeug oder in einem absoluten Koordinatensystem der Umgebung oder in einem Koordinatensystem des jeweiligen Umgebungssensors festgelegt sein.
Die Erfindung umfasst auch Ausführungsformen, durch die sich zusätzliche Vorteile ergeben. Ein Flächenbereich kann als Ausschlusskriterium genutzt werden, indem als Flächenbereich ein solches Areal oder eine solche Fläche in der Umgebung abgegrenzt wird, in welchem sich kein Verkehrsteilnehmer aufhalten kann, weil sich in dem Flächenbereich beispielsweise bereits ein Gebäude oder allgemein eine bereits bekannte stationäre Landmarke befindet. Ein jeweiliges Beispiel für eine stationäre Landmarke sind eine Leitplanke, ein Gebäude, ein Verkehrsschild, eine Ampel oder ein Infrastrukturobjekt im Allgemeinen, also ein Objekt, das zur Verkehrsinfrastruktur gehört und dort stationär oder permanent installiert ist. Ein Flächenbereich, der durch eine solche stationäre Landmarke belegt ist, kann als das besagte Ausschlusskriterium genutzt werden, um ein dort stattfindendes Reflexionsereignis, das heißt einen dort enthaltenen Detektionspunkt, als Detektion der stationären Landmarke zu erkennen oder zu kategorisieren. Für einen Flächenbereich, der dagegen einer Fahrbahn entspricht oder durch eine Fahrbahn abgedeckt ist, ergibt ein Detektionspunkt oder das entsprechende Reflexionsereignis, dass dort ein Verkehrsteilnehmer detektiert oder angeordnet ist, der das Reflexionsereignis ausgelöst der verursacht hat.
Für jeden Flächenbereich kann dessen Kategorie, also stationäre Landmarke oder Fahrbahn, festgelegt werden und somit die Filtermaßnahme für darin enthaltene Detektionspunkte gesteuert oder eingestellt werden. Hierfür umfasst eine Ausführungsform, dass die Schablonendaten aus einer digitalen Umgebungskarte ermittelt werden und in der Umgebungskarte kartographierte stationäre Landmarken und/oder Fahrbahnen beschreiben und zumindest ein Flächenbereich eine durch eine Landmarke belegte Fläche und/oder zumindest ein Flächenbereich eine durch eine Fahrbahn belegte Fläche abgrenzt. Für die Auswahl der passenden Kartendaten oder des passenden Kartenausschnitts kann in dem Kraftfahrzeug beispielsweise ein Empfänger für ein Positionssignal eines GNSS (Global Positioning Satellite System) betrieben werden und die Kartendaten können anhand der aktuellen Geoposition aus einer Navigationsdatenbank ausgewählt werden.
Eine Ausführungsform umfasst, dass der jeweilige Flächenbereich als eine der folgenden Flächen definiert ist.
Ein Flächenbereich kann als Landmarkenfläche definiert sein, die zumindest eine stationäre Landmarke aufweist und für eine Befahrung irrelevant ist und in den die Trajektorie nicht hineinführen darf. Zusätzlich oder alternativ kann ein (anderer) Flächenbereich als Fahrbahnfläche oder Verkehrsfläche für zumindest einen anderen Verkehrsteilnehmer definiert sein, der für die Trajektorienplanung relevant ist. Eine Fahrbahnfläche oder Verkehrsfläche ist eine für ein Kraftfahrzeug oder allgemein ein Fahrzeug (also beispielsweise auch ein Fahrrad) befahrbare Fläche oder allgemein eine Quelle für potentiellen Verkehr oder potentiell dort angeordnete andere Verkehrsteilnehmer. Indem Detektionspunkte einer Landmarkenfläche und/oder einer Fahrbahnfläche zugeordnet werden, kann ohne Erkennung einer Form oder eine Objekterkennung für die Detektionspunkte bereits einzeln oder individuell entschieden werden, ob es sich um ein Reflexionsereignis an einer stationären Landmarke handelt, die bereits anhand der Kartendaten der Umgebungskarte in der Trajektorienplanung berücksichtigt wurde, oder um einen potentiellen Verkehrsteilnehmer, der in die weitere Planung der Fahrtrajektorie noch einbezogen werden muss.
Um die besagten Kartendaten mit den Koordinaten der Detektionspunkte in Deckung zu bekommen, also im selben Koordinatensystem zu beschreiben, sieht eine Ausführungsform vor, dass zumindest eine weitere Landmarke mittels des Umgebungssensors und/oder mittels zumindest eines weiteren Umgebungssensors detektiert und durch weitere Detektionspunkte beschrieben wird und eine Relativlage des Kraftfahrzeugs bezüglich der zumindest einen kartographierten stationären Landmarke und/oder der zumindest einen kartographierten Fahrbahn durch einen Abgleich der weiteren Detektionspunkte mit der Umgebungskarte ermittelt wird und damit die Umgebungskarte bezüglich des Kraftfahrzeugs registriert oder ausgerichtet wird. Somit kann eine Position und/oder räumliche Orientierung des Kraftfahrzeugs bezüglich oder „innerhalb“ der Umgebungskarte ermittelt werden. Die weiteren Detektionspunkte sind insbesondere Detektionspunkte in einem Nahbereich oder Mittenbereich des jeweiligen Umgebungssensors, insbesondere sind sie näher als die erstgenannten Detektionspunkte, insbesondere näher als 100 m oder näher als 75 m.
Eine Ausführungsform umfasst, dass ein solcher Detektionspunkt, der in Bezug auf die Umgebung (also in absoluten Geokoordinaten gerechnet) als unbeweglich erkannt wird und der dabei außerhalb jedes Flächenbereichs, der als Landmarkenfläche gilt, und/oder innerhalb eines Flächenbereichs, der als Fahrbahnbereich gilt, angeordnet ist, als Reflexionsereignis an einem stillstehenden Verkehrsteilnehmer kategorisiert wird. Aufgrund der Eigenbewegung des Kraftfahrzeugs kann ein Detektionspunkt an einem Objekt, das in der Umgebung stillsteht, dennoch zunächst in dem Reflexionssignal selbst noch als bewegte Oberfläche oder bewegtes Reflexionsereignis signalisiert sein, da sich das Kraftfahrzeug selbst, welches die Sensorschaltung oder den Umgebungssensor aufweist, in der Umgebung bewegen oder fahren kann. Wird aber abzüglich dieser Eigenbewegung des Kraftfahrzeugs für den Detektionspunkt erkannt, dass er in Bezug auf die Umgebung stillsteht oder unbeweglich ist, und wird zusätzlich erkannt, dass er außerhalb jedes Flächenbereichs, der als Landmarkenfläche gilt, angeordnet ist, so wird dieser Detektionspunkt als Reflexionsereignis an einem stillstehenden Verkehrsteilnehmer erkannt oder kategorisiert. Somit ist es auch beispielsweise bei einem Radarsignal möglich, einen stillstehenden Verkehrsteilnehmer von einer stationären Landmarke, also beispielsweise einem Gebäude oder eine Leitplanke, zu unterscheiden.
Eine Ausführungsform umfasst, dass das Reflexionsereignis an einem stillstehenden Verkehrsteilnehmer als ein Stauende oder als eine Warteschlange an einem Verkehrszeichen (z.B. Stoppschild) oder einer Verkehrssignalanlage (Ampel) signalisiert wird. Somit kann bereits anhand eines einzelnes Detektionspunktes oder einiger Detektionspunkte ein Stauende oder das Ende einer Warteschlange beispielsweise an einem Stoppschild oder einer roten Ampel detektiert werden, selbst wenn die Verkehrsteilnehmer noch nicht durch eine nachgeschaltete Objekterkennung erkannt werden konnten, weil die Detektionspunkte noch nicht dahingehend untersucht wurden. Somit kann mit einer geringen Reaktionszeit eine Annäherung an ein Stauende erkannt werden.
Eine Ausführungsform umfasst, dass die beschriebene Filtermaßnahme umfasst, dass ein jeweiliger Detektionspunkt einer Landmarkenfläche markiert und/oder gelöscht wird. Wird ein Detektionspunkt als innerhalb einer Landmarkenfläche liegend erkannt, so kann er markiert werden und steht somit weiterhin einer nachgeschalteten Verarbeitungseinheit zur Verfügung. Alternativ dazu kann ein als stationäre Landmarke oder zu einer Landmarkenfläche gehörender Detektionspunkt gelöscht werden, wodurch sich die Rechenlast in einer nachgeschalteten Verarbeitungseinheit reduzieren lässt, z.B. in der beschriebenen Objekterkennung.
Die beschriebenen Flächenbereiche stellen insbesondere nicht den gesamten Erfassungsbereich des Umgebungssensors dar, sondern sie sind innerhalb des Erfassungsbereichs beispielsweise durch Vektordaten und/oder eine Konturlinie oder Grenzlinie abgegrenzte Teilflächen oder Teilbereiche. Eine Ausführungsform umfasst entsprechend, dass der jeweilige Flächenbereich nur ein Teilbereich (oder Ausschnitt) eines gesamten Erfassungsbereichs des jeweiligen Umgebungssensors ist. Diese Teilflächen stellen insbesondere auch keine einfache Abstandsbegrenzung dar, also beispielsweise weit entfernte Flächenbereiche, die für eine aktuelle Planung der Fahrtrajektorie irrelevant sind (z.B. alle Detektionspunkte in eine Entfernung jenseits von 200 m). Stattdessen ist insbesondere vorgesehen, dass durch die Schablonendaten zumindest zwei Flächenbereiche definiert sind, welche entlang der Fahrtrajektorie gesehen nebeneinander liegen, also vom Fahrzeug aus gesehen rechts und links nebeneinander liegen. Somit kann also zwischen einem Flächenbereich an einem Fahrbahnrand und einem Flächenbereich auf der Fahrbahn selbst unterschieden werden. Mit anderen Worten gibt es zwischen den Flächenbereichen eine seitliche Abgrenzung. Somit gibt es zwei Flächenbereiche, die aus Sicht des Kraftfahrzeugs oder des Umgebungssensors nebeneinander liegen, also einen weiter rechts und einen weiter links gelegenen Flächenbereich. Es kann auch lediglich zumindest ein Flächenbereich für den Fahrbahnrand oder eine stationäre Landmarke am Fahrbahnrand vorgesehen sein und außerhalb jedes Flächenbereichs ergibt sich dann ein möglicher Verkehrsbereich oder Fahrbahnbereich.
Bisher wurde beschrieben, wie mittels stationärer Landmarken aus einer Umgebungskarte Flächenbereiche definiert werden können, die als Landmarkenbereiche genutzt werden können, also stationäre Landmarken beschreiben. Aber auch ohne eine Umgebungskarte kann anhand der vorausliegenden Fahrbahn und/oder der bereits geplanten Fahrtrajektorie eine Positiv-Detektion (also aktives Zuordnen eines Detektionspunkts zu einem potentiellen Verkehrsteilnehmer) durchgeführt werden. Ein Flächenbereich kann zur aktiven Detektion eines anderen Verkehrsteilnehmers verwendet werden, indem als Flächenbereich ein solches Areal oder eine solche Fläche in der Umgebung definiert wird, in welcher sich potentiell ein Verkehrsteilnehmer aufhalten kann. Kommt es dann zu einem Reflexionsereignis und damit zu einem Detektionspunkt in einem solchen Flächenbereich, so kann angenommen werden, dass sich dort ein Verkehrsteilnehmer aufhält. Insbesondere kann ein solcher Flächenbereich als ein Band oder Streifen definiert werden, der entlang der Fahrtrajektorie verläuft und einen Toleranzbereich oder Randbereich rechts und links der Fahrtrajektorie abdeckt. Beispielsweise kann der Toleranzbereich entlang der Fahrtrajektorie mit einer Breite in einem Bereich von 2 Meter bis 20 Meter definiert werden. Dieser Flächenbereich kann konisch aufgeweitet geformt sein, womit er umso breiter ist, je größer der Abstand zum Kraftfahrzeug ist. Jeder in diesem Fahrstreifen befindliche Detektionspunkt kann dann als Reflexionsereignis an einem potentiellen Verkehrsteilnehmer gewertet oder kategorisiert werden. Eine Ausführungsform umfasst hierzu, dass von dem zumindest einen Flächenbereich zumindest einer durch einen (dem Kraftfahrzeug in Fahrtrichtung) vorausliegenden Fahrbahnverlauf und/oder durch einen vorausliegenden Fahrstreifen definiert ist, der durch die Fahrtrajektorie und einen beiderseits der Fahrtrajektorie angeordneten Toleranzbereich vorgegebener Breite gebildet ist.
Eine Ausführungsform umfasst, dass der zumindest eine Umgebungssensor einen Radarsensor umfasst und durch das Reflexionssignal zusätzlich zur Relativlage auch eine Bewegungsgeschwindigkeit des das Reflexionsereignis verursachenden Objekts beschrieben ist. Bei dem Radarsensor ergibt sich der eingangs beschriebene Vorteil, dass auch in einem Abstand von mehr als 100 Meter, insbesondere mehr als 150 Meter oder mehr als 200 Meter, noch ein Detektionspunkt erzeugt oder ermittelt werden kann, und für einen Detektionspunkt auch eine Bewegungsgeschwindigkeit zugeordnet werden kann. Für den Fall, dass diese Bewegungsgeschwindigkeit Null (bezüglich der Umgebung) beträgt, kann mittels des Verfahrens die Sensorschaltung die Auswertung der Reflexionssignale des Radarsensors unterstützen.
Eine Ausführungsform umfasst, dass die Filtermaßnahme nur für solche Detektionspunkte angewendet wird, die als in der Umgebung stillstehend erkannt werden und/oder die einen Abstand größer als einen vorbestimmten Mindestabstand aufweisen. Insbesondere findet die Filterung der Detektionspunkte für einen Mindestabstand größer als 50 Meter oder größer als 100 Meter oder größer als 150 Meter oder größer als 200 Meter statt. Somit können für stillstehende Verkehrsobjekte in einem Abstand größer als der Mindestabstand die sich hierdurch ergebende Mehrdeutigkeit eines Detektionspunktes durch das enge Zusammenliegen oder den geringen Azimutwinkel zwischen Verkehrsobjekten und stationären Landmarken mittels des Verfahrens kompensiert werden.
Eine Ausführungsform umfasst, dass nach dem Anwenden der Filtermaßnahme ein Ergebnis der Filtermaßnahme an eine nachgeschaltete Verarbeitungseinheit weitergeleitet wird und die Verarbeitungseinheit anhand einer relativen Lage der gefilterten Detektionspunkte eine Objekterkennung und/oder anhand einer Position der Detektionspunkte die Trajektorienplanung und/oder eine Plausibilisierung einer Objekterkennung und/oder Trajektorienplanung durchführt. Eine solche Verarbeitungseinheit kann beispielsweise eine elektronische Steuereinheit (ECU - Electronic Control Unit) oder ein Verbund mehrerer solcher ECUs sein. Indem die Detektionspunkte durch die Filterung entweder markiert sind, also eine Kategorie wie beispielsweise stationäre Landmarke aufweisen, oder die Detektionspunkte stationärer Landmarken gelöscht sind, kann die Objekterkennung (also beispielsweise eine Unterscheidung zwischen Verkehrsobjekt und stationärer Landmarke oder die Erkennung eines Objekttyps, wie beispielsweise „Kraftfahrzeug“ oder „Personenkraftwagen“ oder „Lastkraftwagen“ oder „Fußgänger“ oder „Radfahrer“) unterstützt werden. Detektionspunkte, die einem potentiellen Verkehrsteilnehmer (insbesondere ohne weitere Objekterkennung) zugeordnet werden können, können bei der Trajektorienplanung beispielsweise für eine Anpassung des Geschwindigkeitsprofils (Geschwindigkeitsreduktion) und/oder Anpassung der Fahrlinie (zum Umfahren desjenigen Objekts, das den Detektionspunkt verursacht hat) genutzt werden. Mittels einer Plausibilisierung kann eine zweite oder weitere Überprüfung einer Objekterkennung und/oder einer Trajektorienplanung aus einer anderen Datenquelle überprüft werden.
Eine Ausführungsform umfasst, dass Fahrerassistenzsystem die Trajektorienplanung für eine autonome Fahrfunktion (insbesondere Level 3 bis 5) während einer Fahrt des Kraftfahrzeugs durchführt. Insbesondere ein Fahrerassistenzsystem für eine automatisierte oder autonome Fahrfunktion kann somit robuster eine Auswertung der Reflexionssignale durchführen.
Ein Aspekt der Erfindung betrifft eine Sensorschaltung für ein Kraftfahrzeug, die einen Umgebungssensor zum Erfassen von Reflexionssignalen aus einer Umgebung eines Kraftfahrzeugs aufweist. Eine solche Sensorschaltung kann durch das Zuordnen von Detektionspunkten zu Flächenbereichen eine weitere Information zu den Detektionspunkten bereitstellen. Hierfür ist der Umgebungssensor mit einer Prozessoreinheit gekoppelt, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen.
Die Prozessoreinheit kann eine Datenverarbeitungsvorrichtung oder eine Prozessorschaltung aufweisen, die dazu eingerichtet ist, die
Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinheit kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller und/oder zumindest einen FPGA (Field Programmable Gate Array) und/oder zumindest einen DSP (Digital Signal Processor) und/oder zumindest einen ASIC (Application Specific Integrated Circuit) aufweisen. Des Weiteren kann die Prozessoreinheit Programmcode aufweisen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinheit gespeichert sein. Eine Ausführungsform umfasst, dass die Sensorschaltung als Radar ausgebildet ist. Der Radar kann mittels des Verfahrens bei dem eingangs beschriebenen Problem der Detektion eines Stauendes und/oder des Endes einer Warteschlange unterstützt werden. Indem stationäre Landmarken aus einer Umgebungskarte in das Koordinatensystem des Erfassungsbereichs des Umgebungssensors, insbesondere des Radars, eingeblendet oder abgebildet werden, kann zu einem Detektionspunkt entschieden werden, ob er durch eine stationäre Landmarke verursacht wurde oder nicht. Dies kann für jeden einzelnen Detektionspunkt ohne Zuordnung von dessen Zugehörigkeit zu einer Form oder ohne durch eine Objekterkennung erreicht werden.
Ein Aspekt der Erfindung betrifft ein Kraftfahrzeug. Das erfindungsgemäße Kraftfahrzeug weist zumindest eine Ausführungsform einer erfindungsgemäßen Sensorschaltung auf. Das erfindungsgemäße Kraftfahrzeug ist bevorzugt als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, oder als Personenbus oder Motorrad ausgestaltet.
Die Erfindung umfasst auch die Kombinationen der Merkmale der beschriebenen Ausführungsformen. Die Erfindung umfasst also auch Realisierungen, die jeweils eine Kombination der Merkmale mehrerer der beschriebenen Ausführungsformen aufweisen, sofern die Ausführungsformen nicht als sich gegenseitig ausschließend beschrieben wurden.
Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:
Fig. 1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Kraftfahrzeugs;
Fig. 2 eine schematische Darstellung einer Ausführungsform der erfindungsgemäßen Sensorschaltung; Fig. 3 eine schematische Darstellung einer Draufsicht auf eine Verkehrsszene, in welcher in dem Kraftfahrzeug eine Ausführungsform des erfindungsgemäßen Verfahrens durchgeführt werden kann;
Fig. 4 eine Skizze zur Veranschaulichung von Detektionspunkten, die aus Reflexionssignalen aus einer Umgebung des Kraftfahrzeugs ermittelt wurden;
Fig. 5 eine schematische Darstellung zur Veranschaulichung von
Kartendaten einer digitalen Umgebungskarte;
Fig. 6 eine Skizze zur Veranschaulichung eines Filterergebnisses einer Filtermaßnahme.
Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden. Daher soll die Offenbarung auch andere als die dargestellten Kombinationen der Merkmale der Ausführungsformen umfassen. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente.
Fig. 1 zeigt ein Kraftfahrzeug 10, bei dem es sich um einen Kraftwagen, insbesondere einen Personenkraftwagen oder Lastkraftwagen, handeln kann. Das Kraftfahrzeug 10 kann eine Sensorschaltung 11 aufweisen, in welcher zumindest ein Umgebungssensor 12 mit einer Prozessoreinheit 13 gekoppelt sein kann. Die Sensorschaltung 11 kann beispielsweise ein Radarsensor, insbesondere ein Frontradar, sein, wofür der Umgebungssensor 12 entsprechend ein Radarsensor sein kann. Mittels des Umgebungssensors 12 kann aus einer Umgebung 14, insbesondere einer dem Kraftfahrzeug 10 vorausliegenden Umgebung, innerhalb eines Erfassungsbereichs 15 des Umgebungssensors 12 zumindest ein Reflexionssignal 16 empfangen werden. Das Reflexionssignal 16 kann durch ein Reflexionsereignis 17 an einer Reflexionsstelle oder Reflexionsfläche 18 eines Objekts 19 in der Umgebung 14 erzeugt werden. Beispielsweise kann es sich um ein reflektiertes Radarsignal des Umgebungssensors 12 selbst handeln. Das mittels des Umgebungssensors 12 erfasste Reflexionssignal 16 kann in der Sensorschaltung 11 durch die Prozessoreinheit 13 dahingehend verarbeitet werden, dass dem Reflexionssignal 16 ein jeweiliger Detektionspunkt 20 zugeordnet werden kann, welcher einen Ort oder Koordinaten der jeweiligen Reflexionsfläche 18 beschreibt, ohne dass die gesamte Form des Objekts 19 selbst analysiert oder bekannt sein muss. Jeder Detektionspunkt 20 steht also für sich einzeln für jeweils ein Reflexionsereignis 17 und kann beispielsweise dessen Koordinaten in der Umgebung 14 angeben. Es kann sich um absolute Koordinaten in einem absoluten Koordinatensystem der Umgebung 14 oder relative Koordinaten in Bezug auf das Kraftfahrzeug 10 und/oder die Sensorschaltung 11 handeln. Mittels einer Filtermaßnahme 21 können die Detektionspunkte 20 gefiltert werden und ein Ergebnis 22 der Filterung kann darin bestehen, dass die Detektionspunkte 20 als gefilterte Detektionspunkte 23 bereitgestellt oder ausgegeben werden, wobei jeder gefilterte Detektionspunkt 23 ein kategorisierter Detektionspunkt 24 sein kann, der einer Kategorie zugeordnet sein kann, beispielsweise einer der folgenden Kategorien: stationäres Objekt oder stationäre Landmarke, bewegtes Objekt oder potentieller Verkehrsteilnehmer, temporär stationäres Objekt oder stillstehender Verkehrsteilnehmer.
Für eine solche Kategorisierung kann auf Kartendaten 25 einer digitalen Umgebungskarte 26 zurückgegriffen werden, in welcher stationäre Landmarken kartographiert oder angegeben sein können. Die Kartendaten 25 können hierbei Schablonendaten 27 darstellen, welche geografische Schablonen oder Flächenbereiche in der Umgebung 14 definieren, von denen bekannt ist, dass sich darin eine stationäre Landmarke befindet.
Fig. 2 veranschaulicht eine Ausgestaltung der Sensorschaltung 11. Dargestellt ist, wie die durch den Umgebungssensor 12 erfassten Reflexionssignale 16‘, beispielsweise Echosignale oder Radarsignale, mittels einer FFT (Fast Fourier Transformation) 28 und/oder einer CFAR-Einheit (CFAR - Constant False Alarm Rate) 29 verarbeitet oder analysiert werden können und mittels einer Detektion lokaler Maxima (Peak Detection) potentielle Detektionspunkte 20' bereitgestellt werden können.
Mittels eines Clutterfilters 29' für Mehrwegeausbreitung und/oder Clutter können Störungen, wie sie durch Reflexionen bei der Mehrwegeausbreitung und/oder Störungen durch Witterungseinflüsse, zum Beispiel Nebel oder Regen, unterdrückt werden, wodurch sich die Detektionspunkte 20 ergeben, die der Filtermaßnahme 21 zugeführt werden können. Die Filtermaßnahme 21 kann hier als Landmarken-Detektionsfilter betrieben werden, um beispielsweise aus Radarsignalen diejenigen Detektionspunkte 20 herauszufiltern oder zu markieren, die zu vorbekannten stationären Landmarken gehören.
Hierzu können aus der Umgebungskarte 26, bevorzugt einer sogenannten HD-Map, die beschriebenen Schablonendaten 27, welche die Positionen von Landmarken 30 in Kartendaten 25 beschreiben, ebenfalls für die Kategorisierung bereitgestellt werden.
Um eine relative Position dieser Landmarken 30 in Bezug auf das Kraftfahrzeug 10 bestimmen zu können, können die Kartendaten 25 zusätzlich einer Sensorfusions-Funktion 31 bereitgestellt werden, die auch die Detektionspunkte 20 und/oder Sensordaten 33' zumindest eines weiteren Umgebungssensors 33 empfangen kann. Ein Beispiel für einen weiteren Umgebungssensor kann eine Kamera und/oder ein Lidar und/oder zumindest ein weiterer Radarsensor sein. Durch Abgleichen der Sensordaten 33' und/oder der Detektionspunkte 20 mit den Kartendaten 25 kann in an sich bekannter Weise die Eigenlokalisierung des Kraftfahrzeugs 10 und damit eine Eigenposition E in Bezug auf die Landmarken 30 ermittelt werden. Auf Grundlage der Eigenposition E des Kraftfahrzeugs 10 und der
Detektionspunkte 20, die in relativen Koordinaten in Bezug auf das Kraftfahrzeug 10 angegeben sein können, können nun Landmarken 30 als Flächenbereiche 44 (siehe auch die weiteren Figuren) in der Umgebung 14 im Erfassungsbereich 15 beschrieben oder definiert werden.
Durch Vergleichen der Position der Detektionspunkte 20 mit den
Flächenbereichen 44 können die Detektionspunkte 20 kategorisiert werden, und mittels der Filtermaßnahme 21 kann das Ergebnis 22 der Filterung erzeugt werden und beispielsweise zumindest einer nachgeschalteten Verarbeitungseinheit 34, beispielsweise einem Steuergerät des
Kraftfahrzeugs 10, bereitgestellt werden. Dort kann beispielsweise eine Planung 35 einer Fahrtrajektorie des Kraftfahrzeugs 10 durchgeführt werden.
Fig. 3 bis Fig. 6 veranschaulichen das in Fig. 2 beschriebene Verfahren.
Fig. 3 zeigt hierzu eine beispielhafte Fahrsituation 36, in welcher das Kraftfahrzeug 10 in der Umgebung 14 auf einer Straße 37 auf ein Stauende 38 zufährt. Das Kraftfahrzeug 10 kann auf einer Fahrspur fahren, die deshalb hier als Ego-Fahrspur 39 bezeichnet wird. Eine benachbarte Fahrspur 40 kann ebenfalls durch das Stauende 38 blockiert sein. In Fig. 3 ist für das Kraftfahrzeug 10 eine Fahrtrichtung 41 eingezeichnet, entlang welcher das Kraftfahrzeug 10 mit einer Geschwindigkeit V größer als 0 m/s fahren kann. Das Kraftfahrzeug 10 kann beispielsweise mittels der Verarbeitungseinheit 34 eine Fahrtrajektorie 42 geplant haben, die entlang der Ego-Fahrspur 39 führt. Diese Fahrtrajektorie 42 kann zunächst das Stauende 38 nicht enthalten oder nicht mit eingeplant haben, weshalb die Fahrtrajektorie 42 angepasst werden muss. Das Stauende 38 kann durch Fahrzeuge 43 gebildet sein, die Stillstehen, das heißt dass deren Fahrgeschwindigkeit V gleich 0 m/s ist. In Fig. 3 sind des Weiteren stationäre Landmarken 30 dargestellt, wie sie in der Umgebungskarte 26 kartographiert oder beschrieben sein können. Beispielhafte Landmarken 30 (Fig. 2) sind hier durch eine Leitplanke 45, Leitplankenstützen 46 und Gebäude 47 repräsentiert. Stationäre Landmarken können jeweils einen horizontalen Flächenbereich 44 belegen.
Fig. 4 veranschaulicht, wie anhand der Reflexionssignale 16 jeweils ein Detektionspunkt 20 ermittelt werden kann. In Fig. 4 sind der Übersichtlichkeit halber nur einige Detektionspunkte 20 mit einem Bezugszeichen versehen. Zu beachten ist, dass für das Verfahren zunächst nur die Detektionspunkte 20 verfügbar sind, das heißt die Konturen oder Formen der stationären Landmarken beziehungsweise der Fahrzeuge 43 unbekannt oder unerkannt sind.
Dennoch ist es mittels der Sensorschaltung 11 ermöglicht, die einzelnen Detektionspunkte 20 ohne Erkennen ihrer Zusammengehörigkeit daraufhin zu analysieren oder zu kategorisieren, ob sie zu einer stationären Landmarke oder einem potentiellen Verkehrsteilnehmer in Form eines Fahrzeugs gehören.
Fig. 5 veranschaulicht hierzu die Schablonendaten 27, wie sie aus den Kartendaten 25 der Umgebungskarte 26 gebildet werden können. Dargestellt ist, wie anhand der Position der stationären Landmarken kartographierte Flächenbereiche 48 in der Umgebung 14 abgegrenzt werden können, von denen bekannt ist, dass sich innerhalb dieser kartographierten Flächenbereiche 48 eine stationäre Landmarke befindet oder dass sie deren Kontur beschreibt. Zusätzlich oder alternativ dazu kann auch die Straße als Flächenbereich 49 einer Verkehrsfläche oder Fahrbahnfläche definiert oder abgegrenzt sein und durch Schablonendaten 27 beschrieben sein. Die kartographierten Flächenbereiche 48 können ausgewählt und als Flächenbereiche 44 (siehe Fig. 4) für die Kategorisierung verwendet werden. Auswählen lassen sich z.B. all diejenigen Flächenbereiche 48, die in einem vorbestimmten Gebiet in Fahrtrichtung vor dem Kraftfahrzeug 10 liegen, insbesondere dasjenige Gebiet, für welches die Filterung stattfinden soll. Die Flächenbereiche 44 können größer gestaltet sein als die kartographierten Flächenbereiche 48, um zu berücksichtigen, dass die Reflexionsereignisse an der Oberfläche oder an einem äußeren Rand der jeweiligen stationären Landmarke stattfinden können.
Fig. 6 veranschaulicht, wie durch Abgleichen oder Vergleichen der Koordinaten der Detektionspunkte 20 mit den aus den ausgewählten Flächenbereichen 44 kategorisierte Detektionspunkte 24 aus den Detektionspunkten 20 ermittelt oder gebildet werden können, indem ein Detektionspunkt 20 innerhalb einer Landmarkenfläche, das heißt eines Flächenbereichs 44 einer stationären Landmarke, als Detektionspunkt einer stationären Landmarke kategorisiert wird (mit einer Schraffur dargestellt). Ein Detektionspunkt kann dann als innerhalb eines Flächenbereichs liegend angesehen werden, wenn seine horizontalen Koordinaten (z.B. X und Y oder Azimut und Abstand zum Kraftfahrzeug) in dem von dem Flächenbereich 44 abgegrenzten Areal und/oder auf der Grenze des Areals liegt, d.h. eine Höheninformation oder Z-Koordinate kann ignoriert werden (da sie z.B. für Radar ohnehin nur unscharf oder gar nicht verfügbar ist). Alternativ dazu kann eine Höhenauswertung stattfinden. Detektionspunkte außerhalb dieser Landmarkenflächen können dann als potentielle Verkehrsteilnehmer oder Detektionspunkte potentieller Verkehrsteilnehmer kategorisiert werden (ohne Schraffur dargestellt). Mittels der Filtermaßnahme 21 können dann die kategorisierten Detektionspunkte 24 gemäß ihrer Kategorie verarbeitet oder behandelt werden, beispielsweise markiert oder gelöscht werden. Dies ergibt das Ergebnis 22 der Filterung.
Insgesamt ergibt sich damit ein Radar-Landmarken-Erkennungsfilter (RLD- Filter = Radar Landmark Detektion Filter).
Ein Situationsinterpretationsmodul einer autonomen oder automatisierten Fahrfunktion des Kraftfahrzeugs 10 versagt somit nicht bei der Erkennung des Stauendes und löst z.B. ein Signal zur Signalisierung einer Unfallgefahr aus. Diese Logik oder dieses Verfahren erfordert kein Eingreifen des menschlichen Fahrers (z.B. intensives Bremsen) in einen autonomen oder automatisierten Fährbetrieb.
Die Idee ist es, Landmarken (Straßeninfrastruktur und/oder andere stationäre Objekte wie Gebäude entlang der Straße) aus einer sogenannten HD- Kartendate (Umgebungskarte mit Infrastrukturinformation) zu verwenden, diese mit den Radardaten eines Radarsensor zu fusionieren und/oder aus den Radardaten herauszufiltern. Als Ergebnis wird das Detektionssystem in der Lage sein, die nur vorübergehend stationären Objekte, wie stillstehende Fahrzeuge, die am Stauende oder an einer Ampel stehen, zu identifizieren oder zu detektieren.
Durch die Erkennung von vorübergehend stillstehenden Objekten kann die Fahrfunktion eine Entscheidung treffen und eine potenzielle zu große Annäherung an ein vor ihr stillstehendes Fahrzeug verhindern.
Die Eingaben für den Radar-Landmarken-Erkennungsfilter können die Radarspitzen oder Radar-Peaks nach der Filterung sowie die Lokalisierungsausgabe (zum Registrieren oder Positionieren innerhalb der Umgebungskarte) und die gefilterten Landmarken aus der Umgebungskarte oder HD-Karte sein. Die Lokalisierung des Fahrzeugs kann nach einer Fusion aller Sensordaten (sofern sie zur Lokalisierung beitragen) und zusätzlich der Kartendaten erfolgen. Die Lokalisierung kann dabei helfen, die Orientierungsachsen oder Ausrichtungsachsen von Radardaten und Kartendaten abzugleichen, so dass die Landmarken mit einer Genauigkeit- Abweichung von unter einem Zentimeter mit den Radarerfassungen abgeglichen werden können. Ein Beispielszenario (Fig. 3) kann die Nützlichkeit des Radar-Landmarken-Erkennungsfilters demonstrieren, bei der sich das Kraftfahrzeug 10 als Ego-Fahrzeug dem Stauende / der roten Ampel nähert; und Landmarken im Sichtfeld vorhanden sind. Das Szenario beinhaltet die folgenden Fahrzeuge am Stauende: Fahrzeuge 1 und 2 auf der Ego-Spur und Fahrzeuge 3 und 4 auf der Nachbarspur. Das Szenario enthält auch Gebäude, Leitplanken und Verkehrsschilder als Orientierungspunkte (oder Straßeninfrastruktur).
Ein Beispiel für eine Radarerkennungskarte ist in Fig. 4 dargestellt, in der es schwierig zu sein scheint, die vorübergehend statischen Objekte
(Zielfahrzeuge) von den Landmarken/Straßeninfrastrukturen zu unterscheiden, da der seitliche Abstand zwischen den stationären
Fahrzeugen und den Landmarken sehr gering ist (viel geringer als der Winkelabstand, der heute mit einem Radarsensor in Serie möglich ist).
Die Darstellung in Fig. 4 kann die (clutter-)gefilterte Ausgabe der Radarverarbeitungskette sein, die an den RLD-Filter gesendet wird.
Zusätzlich erhält der RLD-Filter die aus Kartendaten extrahierten Landmarken, wie in Fig. 5 dargestellt, die mit Hilfe von Lokalisierungsinformationen mit den Radardaten verknüpft werden können.
Nach der Verarbeitung des RLD-Filters können die Radarerfassungen, die zu dauerhaft stationären und/oder nicht-verkehrsrelevanten Landmarken gehören, herausgefiltert werden, sodass nur die Erfassungen von vorübergehend stationären Objekten übrig bleiben. Diese Erkennungen können dann an den Situationsinterpretationsblock einer Fahrfunktionen oder zur weiteren Fusion mit anderen Sensordaten gesendet werden und können so bei der Früherkennung von Stauenden helfen. Die Landmarkenmerkmale werden bevorzugt aus der HD-Karte oder
Umgebungskarte extrahiert/gefiltert und in das Radarverarbeitungssystem (im Radargerät oder im zentralen Steuergerät - je nach ADAS-Architektur des Fahrzeugs, ADAS - Advanced driver-assistance System) für die Filtertechnik namens Radar Landmark Detection oder RLD-Filter (wie in der vorgeschlagenen Erfindung genannt - siehe Fig. 1) eingespeist. Der RLD- Filter extrahiert die Radarreflexionen von Infrastruktur (oder stationären Objekten), indem er sie mit den HD-Kartendaten abgleicht, und unterscheidet sie so von den Radarreflexionen von vorübergehend stationären Objekten (wie z. B. stationären Fahrzeugen), was zu einer besseren Erkennung von vorübergehend stationären Verkehrsteilnehmern führt.
Insgesamt zeigen die Beispiele, wie in Sensorsignalen (insbesondere Radarsignalen) durch eine Abbildung von Karten-Landmarken auf den Erfassungsbereich eines Umgebungssensors (insbesondere eines Radars) Detektionspunkte der Landmarken von Detektionspunkten stillstehender Verkehrsteilnehmer unterschieden werden können.

Claims

PATENTANSPRÜCHE:
1. Verfahren zum Betreiben einer Sensorschaltung (11) in einem Kraftfahrzeug (10), wobei in der Sensorschaltung (11) eine Prozessoreinheit (13) mittels zumindest eines Umgebungssensors (12) Reflexionssignale (16) aus einer Umgebung (14) des Kraftfahrzeugs (10) empfängt und anhand des jeweiligen Reflexionssignals (16) einen jeweiligen Detektionspunkt (20) ermittelt, der eine Relativlage eines Reflexionsereignisses (17) bezüglich des Kraftfahrzeugs (10) beschreibt, dadurch gekennzeichnet, dass durch die Prozessoreinheit (13) mittels vorbestimmter Schablonendaten (27) zumindest ein Flächenbereich (44) in der Umgebung (14) sowie eine Kategorie des jeweiligen Flächenbereichs (44) festgelegt wird und für den jeweiligen Detektionspunkt (20) überprüft wird, ob er in dem zumindest einen Flächenbereich (44) liegt, und der jeweilige Detektionspunkt (20), der in einem Flächenbereich (44) liegt, gemäß den Schablonendaten (27) dieses Flächenbereichs (44) kategorisiert wird und der zumindest eine Detektionspunkt (20) gemäß seiner Kategorisierung mittels einer Filtermaßnahme (21) für eine Trajektorienplanung (35) einer Fahrtrajektorie (42) des Kraftfahrzeugs (10) gefiltert wird.
2. Verfahren nach Anspruch 1 , wobei die Schablonendaten (27) aus einer digitalen Umgebungskarte (26) ermittelt werden und zumindest eine in der Umgebungskarte (26) kartographierte stationäre Landmarke (48) und/oder zumindest eine Fahrbahn beschreiben und zumindest ein Flächenbereich (44) eine durch eine kartographierte stationäre Landmarke (48) belegte Fläche und/oder zumindest ein Flächenbereich (44) eine durch eine Fahrbahn belegte Fläche abgrenzt.
3. Verfahren nach Anspruch 2, wobei zumindest eine weitere Landmarke (30) mittels des zumindest einen Umgebungssensors (12) und/oder mittels zumindest eines weiteren Umgebungssensors (33) detektiert und durch weitere Detektionspunkte (20) beschrieben wird und eine Relativlage des Kraftfahrzeugs (10) bezüglich der zumindest einen stationären Landmarke (30) und/oder der zumindest einen Fahrbahn durch einen Abgleich der weiteren Detektionspunkte (20) mit der Umgebungskarte (26) ermittelt wird und damit die Umgebungskarte (26) bezüglich des Kraftfahrzeugs (10) ausgerichtet wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei der jeweilige Flächenbereich (44) als eine der folgenden Flächen definiert ist:
- als Landmarkenfläche, die zumindest eine stationäre Landmarke (30) aufweist und für eine Befahrung irrelevant ist, und/oder
- als Fahrbahnfläche für zumindest einen anderen Verkehrsteilnehmer, der für die Trajektorienplanung (35) relevant ist. 5. Verfahren nach Anspruch 4, wobei ein solcher Detektionspunkt (20), der in Bezug auf die Umgebung (14) als unbeweglich erkannt wird und der außerhalb jedes Flächenbereichs (44), der als Landmarkenfläche gilt, und/oder innerhalb eines Flächenbereichs (44), der als Fahrbahnbereich gilt, angeordnet ist, als Reflexionsereignis (17) an einem stillstehenden Verkehrsteilnehmer kategorisiert wird, wobei das Reflexionsereignis (17) an einem stillstehenden Verkehrsteilnehmer insbesondere als ein Stauende (38) oder als eine Warteschlange an einem Verkehrszeichen oder einer Verkehrssignalanlage signalisiert wird. 6. Verfahren nach einem der Ansprüche 4 bis 5, wobei die Filtermaßnahme
(21) umfasst, dass ein jeweiliger Detektionspunkt (20) einer Landmarkenfläche markiert und/oder gelöscht wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, wobei der jeweilige Flächenbereich nur ein Teilbereich eines gesamten Erfassungsbereichs (15) des Umgebungssensors (12) ist und/oder wobei durch die Schablonendaten (27) zumindest zwei Flächenbereiche definiert sind, welche entlang der Fahrtrajektorie (42) gesehen nebeneinander liegen. 8. Verfahren nach einem der vorhergehenden Ansprüche, wobei von dem zumindest einen Flächenbereich zumindest einer durch einen vorausliegenden Fahrbahnverlauf und/oder durch einen vorausliegenden Fahrstreifen, der durch die Fahrtrajektorie (42) und einen beiderseits der Fahrtrajektorie (42) angeordneten Toleranzbereich vorgegebener Breite gebildet ist, definiert ist.
9. Verfahren nach einem der vorhergehenden Ansprüche, wobei der
Umgebungssensor (12) einen Radarsensor umfasst und durch das Reflexionssignal (16) zusätzlich zur Relativlage auch eine Bewegungsgeschwindigkeit des das Reflexionsereignis (17) verursachenden Objekts (19) beschrieben ist.
10. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Filtermaßnahme (21) nur für solche Detektionspunkte (20) angewendet wird, die als in der Umgebung (14) stillstehend erkannt werden und/oder die einen Abstand größer als einen vorbestimmten Mindestabstand zum Kraftfahrzeug (10) aufweisen.
11. Verfahren nach einem der vorhergehenden Ansprüche, wobei nach dem
Anwenden der Filtermaßnahme (21) ein Ergebnis (22) der
Filtermaßnahme (21) an eine nachgeschaltete Verarbeitungseinheit (34) weitergeleitet wird und die Verarbeitungseinheit (34) anhand einer relativen Lage der gefilterten Detektionspunkte (20) eine Objekterkennung und/oder anhand einer Position der Detektionspunkte (20) die Trajektorienplanung (35) und/oder eine Plausibilisierung einer Objekterkennung und/oder Trajektorienplanung (35) durchführt.
12. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein Fahrerassistenzsystem die Trajektorienplanung (35) für eine autonome Fahrfunktion während einer Fahrt des Kraftfahrzeugs (10) durchführt.
13. Sensorschaltung (11) für ein Kraftfahrzeug (10), aufweisend einen Umgebungssensor (12) zum Erfassen von Reflexionssignalen (16) aus einer Umgebung (14) eines Kraftfahrzeugs (10), dadurch gekennzeichnet, dass der Umgebungssensor (12) mit einer Prozessoreinheit (13) gekoppelt ist, die dazu eingerichtet ist, ein Verfahren nach einem der Ansprüche 1 bis 10 durchzuführen.
14. Sensorschaltung (11) nach Anspruch 13, wobei die Sensorschaltung (11) als Radar ausgebildet ist.
15. Kraftfahrzeug (10) mit zumindest einer Sensorschaltung (11) nach Anspruch 13 oder 14.
PCT/EP2022/052076 2021-02-10 2022-01-28 Verfahren zum betreiben einer sensorschaltung in einem kraftfahrzeug, entsprechend betreibbare sensorschaltung und kraftfahrzeug mit der sensorschaltung WO2022171460A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/264,921 US20240125604A1 (en) 2021-02-10 2022-01-28 Method for operating a sensor circuit in a motor vehicle, a sensor circuit, and a motor vehicle with the sensor circuit
CN202280014250.3A CN116964481A (zh) 2021-02-10 2022-01-28 用于运行机动车中的传感器装置的方法、能相应运行的传感器装置、及具有传感器装置的机动车

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021103134.6A DE102021103134A1 (de) 2021-02-10 2021-02-10 Verfahren zum Betreiben einer Sensorschaltung in einem Kraftfahrzeug, entsprechend betreibbare Sensorschaltung und Kraftfahrzeug mit der Sensorschaltung
DE102021103134.6 2021-02-10

Publications (1)

Publication Number Publication Date
WO2022171460A1 true WO2022171460A1 (de) 2022-08-18

Family

ID=80683243

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/052076 WO2022171460A1 (de) 2021-02-10 2022-01-28 Verfahren zum betreiben einer sensorschaltung in einem kraftfahrzeug, entsprechend betreibbare sensorschaltung und kraftfahrzeug mit der sensorschaltung

Country Status (4)

Country Link
US (1) US20240125604A1 (de)
CN (1) CN116964481A (de)
DE (1) DE102021103134A1 (de)
WO (1) WO2022171460A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016212587A1 (de) * 2016-07-11 2018-01-11 Continental Automotive Gmbh Verfahren und System zur Erzeugung von Karteninformationen
JP2020038360A (ja) * 2018-08-31 2020-03-12 株式会社デンソー 車両側装置、方法および記憶媒体
DE102018217840A1 (de) * 2018-10-18 2020-04-23 Volkswagen Aktiengesellschaft Verfahren und System zum Bestimmen eines Umfeldmodells für ein Fahrzeug
DE102018220782A1 (de) 2018-12-03 2020-06-04 Robert Bosch Gmbh Lokalisierung eines Fahrzeugs anhand von dynamischen Objekten
DE102019101405A1 (de) 2019-01-21 2020-07-23 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bewerten einer Positionsinformation einer Landmarke in einer Umgebung eines Kraftfahrzeugs, Bewertungssystem, Fahrerassistenzsystem und Kraftfahrzeug
WO2020154366A1 (en) 2019-01-22 2020-07-30 Velodyne Lidar, Inc. Generation of structured map data from vehicle sensors and camera arrays

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015202099A1 (de) 2015-02-06 2016-08-11 Bayerische Motoren Werke Aktiengesellschaft Verarbeiten von Sensordaten für ein Fahrerassistenzsystem
DE102018122374A1 (de) 2018-09-13 2020-03-19 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen eines ein Kraftfahrzeug umgebenden Freiraums, Computerprogrammprodukt, Freiraumbestimmungseinrichtung und Kraftfahrzeug

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016212587A1 (de) * 2016-07-11 2018-01-11 Continental Automotive Gmbh Verfahren und System zur Erzeugung von Karteninformationen
JP2020038360A (ja) * 2018-08-31 2020-03-12 株式会社デンソー 車両側装置、方法および記憶媒体
DE102018217840A1 (de) * 2018-10-18 2020-04-23 Volkswagen Aktiengesellschaft Verfahren und System zum Bestimmen eines Umfeldmodells für ein Fahrzeug
DE102018220782A1 (de) 2018-12-03 2020-06-04 Robert Bosch Gmbh Lokalisierung eines Fahrzeugs anhand von dynamischen Objekten
DE102019101405A1 (de) 2019-01-21 2020-07-23 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bewerten einer Positionsinformation einer Landmarke in einer Umgebung eines Kraftfahrzeugs, Bewertungssystem, Fahrerassistenzsystem und Kraftfahrzeug
WO2020154366A1 (en) 2019-01-22 2020-07-30 Velodyne Lidar, Inc. Generation of structured map data from vehicle sensors and camera arrays

Also Published As

Publication number Publication date
US20240125604A1 (en) 2024-04-18
CN116964481A (zh) 2023-10-27
DE102021103134A1 (de) 2022-08-11

Similar Documents

Publication Publication Date Title
EP2561419B1 (de) Verfahren zur bestimmung des fahrbahnverlaufes für ein kraftfahrzeug
EP3254138B1 (de) Verfahren zur ermittlung einer querpositionsinformation eines kraftfahrzeugs auf einer fahrbahn und kraftfahrzeug
EP1684142B1 (de) Verfahren zur Kursprädiktion und Abstandsregelung in Fahrerassistenzsystemen für Kraftfahrzeuge
EP1557692B1 (de) Verfahren zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen
EP1577682B1 (de) Objektortungssystem für Kraftfahrzeuge zur Erkennung eines Spurwechsels
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
EP3298541A1 (de) Verfahren zur schätzung von fahrstreifen
DE102019215403A1 (de) Vorrichtung zur wegerzeugung an einer kreuzung und verfahren und vorrichtung zum steuern eines fahrzeugs an einer kreuzung
DE102012204441A1 (de) Verfahren und Vorrichtung zur Erkennung eines Verlaufs einer Straße für Fahrzeuge
WO2007144239A1 (de) Spurwechselassistent für kraftfahrzeuge
WO2013071921A1 (de) Vorrichtung zur unterstützung eines fahrers beim fahren eines fahrzeugs oder zum autonomen fahren eines fahrzeugs
EP3259614B1 (de) Verfahren zur ermittlung einer ortsinformation eines kraftfahrzeugs bezüglich eines fahrkorridors und kraftfahrzeug
EP2698646A1 (de) Verfahren zur Klassifizierung von fahrenden Fahrzeugen durch Verfolgung einer Positionsgröße des Fahrzeuges
WO2018019464A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur bestimmung der lateralen position eines fahrzeuges relativ zu den fahrstreifen einer fahrbahn
DE102013210928A1 (de) Verfahren zur Unterscheidung zwischen echten Hindernissen und Scheinhindernissen in einem Fahrerassistenzsystem für Kraftfahrzeuge
DE102021206187A1 (de) System, Steuereinheit und Verfahren zur Bestimmung eines Geofencing-Ereignisses eines Fahrzeugs
DE102017201664A1 (de) Verfahren zur Lokalisierung eines höher automatisierten Fahrzeugs in einer digitalen Karte
WO2020078727A1 (de) Verfahren und system zum bestimmen eines umfeldmodells für ein fahrzeug
EP3391086A1 (de) Verbessertes verfahren zum ermitteln der randbebauung einer fahrbahn für die lokalisierung von kraftfahrzeugen
DE102014216276B4 (de) Positionsbestimmung von Kraftfahrzeugen mittels Radarbaken
DE102020105192B4 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
EP2995971A1 (de) Verfahren und system zur positionsbestimmung
WO2022171460A1 (de) Verfahren zum betreiben einer sensorschaltung in einem kraftfahrzeug, entsprechend betreibbare sensorschaltung und kraftfahrzeug mit der sensorschaltung
DE102020212306A1 (de) Verfahren zur Tunnelfrüherkennung
DE112019005675T5 (de) Informationsverarbeitungsvorrichtung und fahrassistenzvorrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22708375

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280014250.3

Country of ref document: CN

Ref document number: 18264921

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 22708375

Country of ref document: EP

Kind code of ref document: A1