WO2022175405A1 - Verfahren zum erfassen von objekten in einer umgebung eines fahrzeugs mit bestimmung einer verdeckung der objekte, recheneinrichtung sowie sensorsystem - Google Patents

Verfahren zum erfassen von objekten in einer umgebung eines fahrzeugs mit bestimmung einer verdeckung der objekte, recheneinrichtung sowie sensorsystem Download PDF

Info

Publication number
WO2022175405A1
WO2022175405A1 PCT/EP2022/053993 EP2022053993W WO2022175405A1 WO 2022175405 A1 WO2022175405 A1 WO 2022175405A1 EP 2022053993 W EP2022053993 W EP 2022053993W WO 2022175405 A1 WO2022175405 A1 WO 2022175405A1
Authority
WO
WIPO (PCT)
Prior art keywords
objects
corners
sensor
surroundings
vehicle
Prior art date
Application number
PCT/EP2022/053993
Other languages
English (en)
French (fr)
Inventor
Dominik Kellner
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Priority to CN202280014141.1A priority Critical patent/CN116848432A/zh
Priority to US18/277,805 priority patent/US20240044649A1/en
Publication of WO2022175405A1 publication Critical patent/WO2022175405A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present invention relates to a method for detecting objects in an area surrounding a vehicle.
  • the present invention relates to a computing device and a sensor system for a vehicle.
  • the present invention relates to a computer program and a computer-readable (storage medium.
  • Sensor systems for vehicles which have environment sensors are known from the prior art.
  • Corresponding sensor data can be provided with these surroundings sensors, which describe the surroundings of the vehicle.
  • Objects and in particular other road users in the area can then be recognized on the basis of the sensor data.
  • a reliable detection of other objects and in particular other road users in the area is essential for the automated or autonomous operation of vehicles.
  • the existence of the road users is usually estimated. If such an existence or probability of existence is too low, the detection of the road user cannot be trusted.
  • the situation can also arise in which a real existing object is temporarily and/or partially covered by another object. This can lead to the reduction of the object's existence probability.
  • the object can be deleted during tracking, which in turn means that a driver assistance system of the vehicle no longer reacts to the object. In the worst case, this can lead to a collision with the object.
  • a method is used to detect objects in the surroundings of a vehicle.
  • the method includes receiving sensor data describing the objects in the environment from an environment sensor of the vehicle.
  • the method includes determining respective corners of the objects, with the corners describing outer boundaries of the respective object.
  • the method also includes determining a position of the respective corners relative to the surroundings sensor.
  • the method includes sorting the determined corners in a predetermined angular direction.
  • the method includes checking each of the corners along the angular direction, whether the corner is covered by another of the objects, based on the relative position of the respective corners to the environment sensor, and determining areas of the respective objects that can be detected by the environment sensor based on checking the corners.
  • the method can be carried out with a corresponding computing device, which can be formed, for example, by an electronic control unit of the vehicle or a sensor system of the vehicle.
  • the sensor data can be recorded with the surroundings sensor.
  • the sensor data describe the surroundings of the vehicle or an area of the surroundings. Measuring cycles that follow one another in time can be carried out with the surroundings sensor, with the sensor data being provided in each measuring cycle. This sensor data can then be sent from the environment sensor to the computing device transferred for further evaluation.
  • the method can also be carried out on the basis of the sensor data from a number of surroundings sensors.
  • the respective objects in the area can be detected based on the sensor data.
  • the position of the objects relative to the surroundings sensor can be determined based on the sensor data.
  • the leftmost corner and the rightmost corner can be defined as the corners.
  • two corners can be determined which describe the spatial extent of the object in the predetermined angular direction. This angular direction can in particular be the azimuth direction.
  • An angle is assigned to the corners of the respective objects. After that, the corners are ordered depending on their angle values in the angular direction and in the azimuth direction, respectively. In particular, the corners can be sorted in ascending or descending order according to their angle value.
  • each corner is checked sequentially in the angular direction.
  • Each corner can be examined to see whether it is covered by one or more other objects or whether the corner is visible to the environment sensor.
  • the investigation as to whether the corner is covered or visible is carried out based on the determined relative position of the objects or of their corners in relation to the surroundings sensor.
  • the detectable area can also be determined for each of the objects. This detectable area describes that area or part of the object that can be detected or seen with the surroundings sensor.
  • a list of corners is determined and the corners are examined in order or in angular direction. This results in the advantage that this list of corners is processed only once for a measuring cycle or evaluation step. In comparison to known tracking models, the computing effort can thus be significantly reduced. The occlusion of the objects in the area can thus be determined more efficiently and at the same time reliably.
  • a portion of the respective objects that is located in a detection area of the surroundings sensor is preferably determined, and the areas that can be detected are determined as a function of the portion.
  • the detection range which is also referred to as the field of view or field of view, describes the area of the environment in which objects can be detected with the environment sensor. Based on the Measurements with the environment sensor, the object can be traced or tracked. Thus, for example, the position and/or the spatial dimensions of the object are known from previous measurement cycles. Furthermore, the detection range of the surroundings sensor is known. On the basis of this information it can then be determined which part of the object lies in the detection area or is arranged in this area. This part of the object in the detection area can then be taken into account when determining the detectable area. This can be used to determine which part of the object can currently actually be detected.
  • an occlusion list is determined, in which the respective objects are entered depending on the position of their corners relative to the surroundings sensor, with the occlusion list being updated when the respective corners are checked along the angular direction.
  • each corner is checked in order or in angular direction.
  • the occlusion list can be updated.
  • the objects or the corners can be entered in the occlusion list.
  • An identification or ID can also be assigned to the detected objects. This identifier can be entered in the concealment list.
  • the first object in the occlusion list can be the object whose corner is visible.
  • the second object in the occlusion list may be occluded by the first object. It can also be taken into account whether the corner examined in each case describes the beginning or the end of the object in the angular direction. If the corner describes the end of the object, the object can be deleted from the occlusion list.
  • an angle list is determined which describes detectable angle areas of the respective objects, the angle list being updated when the respective corners are checked along the angle direction. It can also be provided that an angle, which is assigned to a last change, is stored. On the basis of this angle and the previously described occlusion list, it can be determined for which angular range or azimuth range an object or part of an object is visible to the surroundings sensor. Overall, the detectable areas of the respective objects can thus be determined with little computing effort.
  • the respective corners of the objects are determined in polar coordinates.
  • a tracking algorithm can be used to predict the respective position of the objects at the time of measurement by the environment sensor based on the sensor data. These tracks, which describe the objects or their position, can be transformed into the detection range of the environment sensor. The objects or tracks can then be defined in polar coordinates.
  • the corners can each be specified by an angle and a distance or radius. The angle can in particular correspond to the azimuth angle.
  • the relative position between the environment sensor and the corner can be determined by the radius. Provision can also be made for not only the radius but also the angle between the environment sensor and the corner to be taken into account when calculating the relative position. In this way, the concealment can also be carried out reliably in the case of corners which are at a small distance from the surroundings sensor but which are associated with a concealed object.
  • an existence probability for the respective objects is determined as a function of the detectable areas of the objects.
  • the tracking of the respective objects can preferably also be carried out on the basis of the specific detectable areas. It is thus possible to react to an object that is currently not visible to the environment sensor. When the object is visible again, there is already an estimate for position and speed that can be used directly. This offers an advantage over known methods in which the hidden objects are deleted. In addition, with known methods, a certain number of measurements are required before the object is considered to be confirmed again at all. In addition, a certain initialization time is needed to estimate the full state of motion.
  • the calculation of the visibility which is based on the detection area, is combined with the covering by other objects.
  • the number of other objects in the area can range between 100 and 200.
  • a mutual occlusion would have to be calculated for all possible combinations of objects.
  • the computing effort can be significantly reduced by the method according to the invention. Experiments have shown that the computing time increases linearly with the number of objects in the area.
  • a computing device for a sensor system of a vehicle is set up to carry out a method according to the invention and the advantageous refinements.
  • the computing device can be formed in particular by an electronic control unit of the vehicle.
  • a sensor system according to the invention includes a computing device according to the invention and at least one environment sensor.
  • the surroundings sensor can be in the form of a radar sensor, lidar sensor or camera.
  • the environment sensor can also have a detection range of 360° in relation to the azimuth direction.
  • the sensor system can also have a plurality of surroundings sensors and also different types of surroundings sensors.
  • the angular range can be defined here, for example, from 0° to 360° or from -180° to 180°. Problems can arise with objects that extend beyond the defined angular limit of 180° to -180° or from 360° to 0°. In the present case, it is provided for objects that extend beyond the angular boundary to be divided into two sub-objects. The division takes place at the angle limit. In other words, a total of four corners are then assigned to such an object. However, the same identifier can be assigned to the two sub-objects.
  • the sensor system can be part of a driver assistance system of the vehicle.
  • the vehicle can be maneuvered automatically or autonomously using the driver assistance system.
  • a vehicle according to the invention includes a sensor system according to the invention.
  • the vehicle is designed in particular as a passenger car.
  • a further aspect of the invention relates to a computer program, comprising instructions which, when the program is executed by a computing device, cause the latter to carry out a method according to the invention and the advantageous configurations thereof. Furthermore, the invention relates to a computer-readable (storage) medium, comprising instructions which, when executed by a computing device, cause it to carry out a method according to the invention and the advantageous configurations thereof.
  • FIG. 1 shows a schematic representation of a vehicle, which has a sensor system with surroundings sensors, and an object in the surroundings of the vehicle;
  • Fig. 3 is a schematic flow chart of a method for detecting the
  • FIG. 4 shows a schematic representation of an environment sensor and an object, with corners of the object being defined in polar coordinates
  • FIG. 5 shows a schematic representation of an environment sensor and of three objects, two of which are partially covered for the environment sensor;
  • 6a-d occlusion lists, angle lists and areas with angles for different evaluation steps for determining the occlusion of the objects according to FIG. 5.
  • Fig. 1 shows a schematic representation of a vehicle 1, which is presently designed as a passenger car, in a top view.
  • the vehicle 1 includes a sensor system 2, by means of which objects Ob1, Ob2, Ob3 in an environment 5 of the vehicle 1 can be detected.
  • an object Ob1 in the area 5 of the vehicle 1 is shown as an example.
  • the sensor system 2 includes surroundings sensors 4, 4', with which measured values or sensor data which describe the object Ob1 in the environment 5 can be provided.
  • the sensor system 2 includes a first environment sensor 4, which is designed as a radar sensor, and a second environment sensor 4', which is designed as a camera.
  • the sensor system 2 includes a computing device 3, which can be formed, for example, by an electronic control unit.
  • the sensor data which are provided by the environment sensors 4, 4', are transmitted to the computing device 3 and evaluated accordingly to identify the object Ob1.
  • a corresponding computer program can be run on the computing device 3 for this purpose.
  • FIG. 2a to 2c show schematic representations of the vehicle 1, which is in an inner-city traffic situation. 2a to 2c describe successive time steps.
  • the vehicle 1 follows a first object Ob1 in the form of another vehicle.
  • the vehicle 1 and the first object Ob1 are moving toward an intersection 6 .
  • a second object Ob2 in the form of another vehicle is moving towards this intersection 6 from the right.
  • the second object Ob2 at the intersection 6 has the right of way.
  • the second object Ob2 can be completely detected with the surroundings sensors 4, 4' of the vehicle 1 if the second object Ob2 is in the detection ranges of the respective surroundings sensors 4, 4'. In this way, the second object Ob2 can be tracked using a tracking algorithm.
  • 2b shows the traffic situation at a later point in time.
  • the first object Ob1 turns to the right, so that the first object Ob1 partially covers the second object Ob2 for the surroundings sensors 4, 4' of the vehicle 1.
  • 2c shows the traffic situation at a later point in time.
  • the first object Ob1 completely covers the second object Ob2 for the surroundings sensors 4, 4' of the vehicle 1. If the concealment is not taken into account, the surroundings sensors 4, 4' would not supply any new information about the second object Ob2. This would result in the tracking algorithm reducing the probability of the second object Ob2 existing, since the second object Ob2 is located directly in front of the vehicle 1 in the detection range of the surroundings sensors 4, 4'. After a certain time, the second object Ob2 could also be deleted in the tracking algorithm.
  • the probability of existence is usually determined using an assumption for the detection probability of the respective surroundings sensor 4, 4'. For example, it can be assumed that the camera is designed to see another vehicle in a distance of 15 m with a probability of 99% and a false positive rate. If the second object Ob2 is recognized again after the occlusion, this would be recognized as a new object after a certain time.
  • the concealment of objects Ob1, Ob2, Ob3 in the surroundings 5 of the vehicle 1 is to be determined.
  • the probability of detection could be significantly reduced.
  • the camera detects the half covered object Ob2 with a probability of 30% and the radar sensor has a detection probability of 70%. If the second object Ob2 is completely occluded, as shown in Fig. 3c
  • Detection probabilities are assumed to be in the range of 0% and thus the probability of existence is not reduced. In this way, the detected object Ob2 is not deleted in the tracking algorithm. This results in the advantage that the presence of the second object Ob2 is known and a braking maneuver can therefore be initiated by the vehicle 1 or a driver assistance system of the vehicle 1, for example. As soon as the second object Ob2 is no longer covered, it can be assigned to the current measurement by the surroundings sensors 4, 4'.
  • FIG. 3 shows a schematic flow chart of a method for detecting objects Ob1, Ob2, Ob3 in the surroundings 5 of the vehicle 1.
  • the method is explained as an example for a surroundings sensor 4, 4', but can be used for all surroundings sensors 4, 4' of the vehicle 1 to be carried out.
  • the sensor data are provided with the environment sensors 4, 4'. In this case, measuring cycles that follow one another in time are carried out with the surroundings sensor 4, 4'.
  • the sensor data of the surroundings sensor 4, 4' are transmitted to the computing device 3 and in a step S2 the respective positions of so-called tracks at the time of measurement of the surroundings sensor 4, 4' are predicted by means of the tracking algorithm. These tracks describe the respective objects Ob1, Ob2, Ob3 in the surroundings 5.
  • a step S3 the tracks are then transformed in the detection area of the surroundings sensor 4, 4' or into the sensor coordinate system. A transformation into polar coordinates then takes place in a step S4.
  • a step S5 it is then checked whether the tracks or objects Ob1, Ob2, Ob3 are located in the detection range of the surroundings sensor 4, 4'.
  • a step S6 the covering of the respective objects Ob1, Ob2, Ob3 is determined.
  • an assignment and an update take place on the basis of the sensor data.
  • the existence probability for the objects Ob1, Ob2, Ob3 is updated. This is done based on the results from steps S5 and S6.
  • a step S9 a list of the detected tracks or objects Ob1, Ob2, Ob3 is created and updated in a step S10. The update can be carried out in each measuring cycle. The relevant steps of the method are explained in more detail below.
  • FIG. 4 shows a schematic representation of surroundings sensor 4 and an object Ob1.
  • the detected object Ob1 is transformed into polar coordinates after the transformation into the sensor coordinate system.
  • the object Ob1 is assumed to be a rectangle or a two-dimensional box.
  • the object Ob1 or the corners CR, CL of the object Ob1 can each be described using an angle Q and a radius r.
  • the angle Q corresponds to the azimuth angle. It is assumed that the individual objects Ob1, Ob2, Ob3 or boxes do not overlap.
  • each object Ob1, Ob2, Ob3 with four corners can be reduced to the two corners CR, CL and stored with the associated identifier.
  • the coordinates of the corner CR at the right edge and/or the corner CL at the left edge can be stored.
  • the objects Ob1, Ob2, Ob3 are identified, which are in the detection range of the surroundings sensor 4, 4'. It can be checked whether the two outer corners CR, CL of the respective objects Ob1, Ob2, Ob3 are in the detection area.
  • the detection area describes the area in the surroundings 5 of the vehicle 1 in which the surroundings sensor 4, 4' can detect objects Ob1, Ob2, Ob3.
  • the detection range can be defined by a maximum radius and an angular range that extends from -0s to 0s. First it can be checked whether the distance or the radius n_ one of the corners CR, CL is larger than the maximum radius of the detection area. If this is the case, it can be assumed that the object Ob1, Ob2, Ob3 is not in the detection area and is not visible.
  • the proportion of the object within the detection area can be determined from the quotient (qi_ - Q K )/DQ.
  • the new angles can be stored at the edges qi_, 0R. On the basis of angles, it can first be checked whether the object Ob1, Ob2, Ob3 is in the detection area. For example, if a corner CR, CL of the object Ob1, Ob2, Ob3 is in the detection area, it can be assumed that the object Ob1, Ob2, Ob3 is in the detection area.
  • the respective outer corners CR, CL of the objects Ob1, Ob2, Ob3 are extracted and then sorted in the azimuth direction. Thereafter, the corners CR, CL are analyzed sequentially or in the azimuth direction.
  • the right corner CR is assigned to the beginning of the object Ob1, Ob2, Ob3 and is visible
  • the right corner CR is assigned to the beginning of the object Ob1, Ob2, Ob3 and is hidden
  • the left corner CL is the End of object Ob1, Ob2, Ob3 assigned and visible or left corner CL assigned to end of object Ob1, Ob2, Ob3 and hidden.
  • a list can be provided in which the currently hidden objects Ob1, Ob2, Ob3 are listed.
  • This list is referred to as concealment list 7 below.
  • the order in this concealment list 7 can indicate the order in which the objects Ob1, Ob2, Ob3 are arranged.
  • the first object Ob1, Ob2, Ob3 in the concealment list 7 can have the shortest distance to the vehicle 1 or the surroundings sensor 4, 4' and the next object Ob1, Ob2, Ob3 in the list can emanate from the surroundings sensor 4, 4'. be arranged behind the first object Ob1, Ob2, Ob3 in the concealment list 7.
  • a list can be provided in which the respective visible angle or azimuth angle of the objects is described. This list is referred to as angle list 8 below.
  • the corner CR of the object Ob1, Ob2, Ob3 on the extreme right side is considered first.
  • a check is made as to whether this corner CR is covered or whether another object Ob1, Ob2, Ob3 is located in front of this corner CR in relation to the surroundings sensor 4, 4'.
  • this corner CR is compared with the objects Ob1, Ob2, Ob3 in the occlusion list.
  • the radii or distances can here Corners CR, CL are compared with each other.
  • the scalar product of the corners is determined if there is a positive or negative angle between the currently visible corner and the newly defined extreme corner CR at the right edge.
  • the object Ob1, Ob2, Ob3 assigned to the corner CR is included at the top of the concealment list 7.
  • the apparent azimuth angle is determined. This is done on the basis of the angle 0 R of the object Ob1, Ob2, Ob3 newly added to the occlusion list 7 and the angle at which the last change took place.
  • the determined visible azimuth angle is entered into the angle list 8 and the angle with the last change is updated. If the rightmost corner CR is not visible, it is compared with the next objects Ob1, Ob2, Ob3 in the occlusion list 7 as to whether it is visible. This is carried out until the corner is recognized as visible.
  • the object Ob1, Ob2, Ob3 is then sorted into the concealment list 7 at the correct location.
  • the occlusion of the leftmost edge corner CL is examined. If the corner CL is visible or if the corner CL is in the first position in the occlusion list, the visible azimuth angle in the angle list 8 is updated.
  • the corner CL is deleted from the current occlusion list 7 and the azimuth angle of the last change is updated. If the corner CL is not visible, the object Ob1, Ob2, Ob3 is deleted from the current coverage list 7.
  • the visible range of the object Ob1, Ob2, Ob3 is determined based on the visible azimuth angle and the previously calculated proportion of the object Ob1, Ob2, Ob3 in the detection range. For example, if half of the object Ob1, Ob2, Ob3 is in the detection area, the proportion of the object Ob1, Ob2, Ob3 in the detection area is 50%. If 60% of this portion is not covered in the detection area, a total of 30% of the object Ob1, Ob2, Ob3 is visible to the surroundings sensor 4, 4'. The procedure is illustrated below using an example.
  • Ob1, Ob2, Ob3 there are three objects Ob1, Ob2, Ob3 in the surroundings 5 of the vehicle 1. These objects Ob1, Ob2, Ob3 are shown in FIG. 5 by way of example. For the sake of clarity, only environment sensor 4 of vehicle 1 is shown.
  • the third object Ob3 extends in an angular range between 0° and 50°. In simplified terms, it is assumed that the distance between the surroundings sensor 4 and the corners CR, CL of the third object Ob3 is 20 m in each case.
  • the second object Ob2, which is partially located in front of the third object Ob3, extends in an angular range between 20° and 40°. In simplified terms, it is assumed that the distance between the surroundings sensor 4 and the corners CR, CL of the second object Ob2 is 15 m.
  • the first object Ob1 which is partially in front of the second object Ob2 and partially in front of the third object Ob3, extends in an angular range between 10° and 30°.
  • the distance between the surroundings sensor 4 and the corners CR, CL of the first object Ob1 is 10 m in each case.
  • the respective corners CR, CL of the objects Ob1, Ob2, Ob3 are first sorted in the azimuth direction. First, consider the rightmost corner CR of the third object Ob3, which is associated with the angle of 0°. This corner CR is entered in the current concealment list 7 at the first position. Thereafter, the rightmost corner CR of the first object Ob1, which is associated with the angle of 10°, is considered. This corner CR is identified as a new visible corner and entered in the first position in the occlusion list 7 . The corner of the third object Ob3 is moved to the second position in the occlusion list 7 . In the angle list 8 with the visible azimuth angles, each object Ob1, Ob2, Ob3 is initially assigned the angle of 0°.
  • the visible azimuth angle of the third object Ob3 is calculated to 10° and updated in the angle list 8. Furthermore, the last azimuth angle 0 L or the angle at which the last change took place is updated from 0° to 10°.
  • FIG. 6a shows the occlusion list 7, the angle list 8 and an area 9 for the last azimuth angle 0L.
  • the changes in lists 7, 8, 9 are highlighted by underlining.
  • Figure 6b shows the occlusion list 7, the angle list 8 and the area 9 for a subsequent step.
  • the rightmost corner CR of the second object Ob2 which is associated with the angle of 20°
  • the leftmost corner CL of the first object Ob1 which is associated with the angle of 30°
  • the difference between this angle of 30° and the last azimuth angle 0 L of 10° then becomes the visible angle calculated from 20° of the first object Ob1 and updated in the angle list 8.
  • the first object Ob1 is deleted from the concealment list 7 .
  • the last azimuth angle qi_ is updated from 10° to 30°.
  • Figure 6c shows the occlusion list 7, the angle list 8 and the area 9 for a subsequent step.
  • the extreme left corner C L of the second object Ob2 which is associated with the angle of 40°, is examined.
  • the visible angle of 10° of the second object Ob2 is then calculated from the difference between this angle of 40° and the last azimuth angle qi_ of 30° and updated in the angle list 8 .
  • the second object Ob2 is deleted from the concealment list 7 .
  • the last azimuth angle qi_ is updated from 30° to 40°.
  • Figure 6d shows the occlusion list 7, the angle list 8 and the area 9 for a subsequent step.
  • the extreme left corner CL of the third object Ob3 which is associated with the angle of 50°, is examined.
  • the visible angle of 10° of the third object Ob3 is then calculated from the difference between this angle of 50° and the last azimuth angle 0 L of 40° and updated in the angle list 8 .
  • the third object Ob3 is deleted from the concealment list 7 .
  • the last azimuth angle 0 L is updated from 40° to 50° and the procedure ends.
  • the result of the method is that 20° of the first object Ob1 is visible in the angular range between 10° and 30°. Consequently, 100% of the first object Ob1 is visible. 10° of the second object Ob2 is visible in the angle range between 30° and 40°. Consequently, 50% of the second object Ob2 is visible. 20° of the third object Ob3 is visible in the angle ranges from 0° to 10° and from 40° to 50°. This means that Ob340% of the third object is visible.
  • the method can also be used for environment sensors with a detection range of 360°.
  • Surroundings sensors of this type which are in the form of radar sensors or lidar sensors, can be arranged on the roof of vehicle 1, for example.
  • the angle can be defined, for example, from 0° to 360° or from -180° to 180°.
  • Problems can occur with objects Ob1, Ob2, Ob3 that extend beyond the defined angular limit of 180° to -180° or from 360° to 0°. Errors can occur here in the previously described sorting of the angles in the angle direction. It is therefore intended for objects Ob1, Ob2, Ob3, which extend beyond the angle limit, that these are divided into two sub-objects. the Division takes place at the angle limit.
  • a total of four outer corners are assigned to a real object Ob1, Ob2, Ob3, but the same identifier.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs mit den Schritten: Empfangen von Sensordaten, welche die Objekte in der Umgebung beschreiben, von einem Umfeldsensor des Fahrzeugs, Bestimmen von jeweiligen Ecken der Objekte, wobei Ecken äußere Begrenzungen des jeweiligen Objekts beschreiben, Bestimmen einer relativen Lage der jeweiligen Ecken zu dem Umfeldsensor, Sortieren der bestimmten Ecken in einer vorbestimmten Winkelrichtung, Überprüfen jeder der Ecken entlang der Winkelrichtung, ob die Ecke durch ein anderes der Objekte verdeckt sind, anhand der relativen Lage der jeweiligen Ecken zu dem Umfeldsensor und Bestimmen von für den Umfeldsensor erfassbaren Bereichen der jeweiligen Objekte anhand der Überprüfung der Ecken.

Description

Verfahren zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs mit Bestimmung einer Verdeckung der Objekte, Recheneinrichtung sowie Sensorsystem
Die vorliegende Erfindung betrifft ein Verfahren zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs. Zudem betrifft die vorliegende Erfindung eine Recheneinrichtung sowie ein Sensorsystem für ein Fahrzeug. Schließlich betrifft die vorliegende Erfindung ein Computerprogramm sowie ein computerlesbares (Speicherjmedium.
Aus dem Stand der Technik sind Sensorsysteme für Fahrzeug bekannt, welche Umfeldsensoren aufweisen. Mit diesen Umfeldsensoren können entsprechende Sensordaten bereitgestellt werden, welche die Umgebung des Fahrzeugs beschreiben. Auf Grundlage der Sensordaten können dann Objekte und insbesondere andere Verkehrsteilnehmer in der Umgebung erkannt werden. Eine zuverlässige Erkennung von anderen Objekten und insbesondere anderen Verkehrsteilnehmern in der Umgebung ist essentiell für den automatisierten oder autonomen Betrieb von Fahrzeugen.
Um die anderen Verkehrsteilnehmer sicher zu erfassen und über die Zeit verfolgen zu können, wird üblicherweise eine Schätzung der Existenz der Verkehrsteilnehmer durchgeführt. Ist eine solche Existenz bzw. Existenzwahrscheinlichkeit zu gering, kann auf die Detektion des Verkehrsteilnehmers nicht vertraut werden. Es kann auch der Fall auftreten, dass ein real existierendes Objekt zeitweise und/oder bereichsweise durch ein anderes Objekt verdeckt wird. Dies kann zur Reduzierung der Existenzwahrscheinlichkeit des Objekts führen. Zudem kann das Objekt bei der Nachverfolgung gelöscht werden, was wiederum zur Folge hat, dass ein Fahrerassistenzsystem des Fahrzeugs nicht mehr auf das Objekt reagiert. Dies kann im schlimmsten Fall zu einer Kollision mit dem Objekt führen.
Im aktuellen Stand der Technik wird meist nur der Erfassungsbereich bzw. Sichtbereich des Umfeldsensors berücksichtigt. Sobald ein Objekt in diesem Erfassungsbereich vorhanden ist, erwartet das System eine Messung bzw. eine Detektion des Objekts auf Grundlage der Sensordaten. Daher wird die Existenzwahrscheinlichkeit erhöht. Falls aber keine Messung empfangen wird, sinkt die Existenzwahrscheinlichkeit und das Objekt wird gelöscht. Folglich werden durch die Verdeckung wahre und relevante Objekte als Falschmessungen identifiziert. Die Verdeckung von Objekten kann auch unter Verwendung eines sogenannten „Ray-Tracking Modells“ separat für jeden Umfeldsensor erfolgen. Insbesondere im Stadtverkehr sind viele Verkehrsteilnehmer bzw. Objekte in der Umgebung des Fahrzeugs vorhanden. Damit würde ein derartiges Verfahren zu einem sehr hohen Rechenaufwand führen.
Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie Objekte in einer Umgebung eines Fahrzeugs unter Berücksichtigung einer Verdeckung effizienter und gleichzeitig zuverlässig erfasst werden können.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Recheneinrichtung, durch ein Sensorsystem, durch ein Computerprogramm sowie durch ein computerlesbares (Speicherjmedium mit den Merkmalen gemäß den unabhängigen Ansprüchen gelöst. Vorteilhafte Weiterbildungen der vorliegenden Erfindung sind in den abhängigen Ansprüchen angegeben.
Ein erfindungsgemäßes Verfahren dient zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs. Das Verfahren umfasst das Empfangen von Sensordaten, welche die Objekte in der Umgebung beschreiben, von einem Umfeldsensor des Fahrzeugs. Zudem umfasst das Verfahren das Bestimmen von jeweiligen Ecken der Objekte, wobei die Ecken äußere Begrenzungen des jeweiligen Objekts beschreiben. Ferner umfasst das Verfahren das Bestimmen einer relativen Lage der jeweiligen Ecken zu dem Umfeldsensor. Des Weiteren umfasst das Verfahren das Sortieren der bestimmten Ecken in einer vorbestimmten Winkelrichtung. Außerdem umfasst das Verfahren das Überprüfen jeder der Ecken entlang der Winkelrichtung, ob die Ecke durch ein anderes der Objekte verdeckt sind, anhand der relativen Lage der jeweiligen Ecken zu dem Umfeldsensor sowie das Bestimmen von für den Umfeldsensor erfassbaren Bereichen der jeweiligen Objekte anhand der Überprüfung der Ecken.
Mithilfe des Verfahrens sollen Objekte und insbesondere andere Verkehrsteilnehmer in der Umgebung des Fahrzeugs erfasst werden. Das Verfahren kann mit einer entsprechenden Recheneinrichtung durchgeführt werden, welche beispielsweise durch ein elektronisches Steuergerät des Fahrzeugs bzw. eines Sensorsystems des Fahrzeugs gebildet sein kann. Im Betrieb des Fahrzeugs können mit dem Umfeldsensor die Sensordaten aufgenommen werden. Dabei beschreiben die Sensordaten die Umgebung des Fahrzeugs bzw. einen Bereich der Umgebung. Mit dem Umfeldsensor können zeitlich aufeinanderfolgende Messzyklen durchgeführt werden, wobei in jedem Messzyklus die Sensordaten bereitgestellt werden. Diese Sensordaten können dann von dem Umfeldsensor an die Recheneinrichtung zur weiteren Auswertung übertragen werden. Grundsätzlich kann das Verfahren auch auf Grundlage der Sensordaten von mehreren Umfeldsensoren durchgeführt werden.
Anhand der Sensordaten können die jeweiligen Objekte in der Umgebung erkannt werden. Zudem kann basierend auf den Sensordaten die relative Lage der Objekte zu dem Umfeldsensor bestimmt werden. Ferner ist vorgesehen, dass die Ecken der Objekte bestimmt werden. Diese Ecken oder auch Kanten beschreiben die äußeren Begrenzungen des Objekts. Beispielsweise können als die Ecken die äußerste linke Ecke und die äußerste rechte Ecke definiert werden. Es können insbesondere zwei Ecken bestimmt werden, welche die räumliche Ausdehnung des Objekts in der vorbestimmten Winkelrichtung beschreiben. Diese Winkelrichtung kann insbesondere die Azimut-Richtung sein. Den Ecken der jeweiligen Objekte wird ein Winkel zugeordnet. Danach werden die Ecken in Abhängigkeit von ihren Winkelwerten in der Winkelrichtung bzw. in Azimut-Richtung geordnet. Insbesondere können die Ecken aufsteigend oder absteigend nach ihrem Winkelwert geordnet werden. Danach werden die einzelnen Ecken in Winkelrichtung der Reihe nach überprüft. Bei jeder Ecke kann untersucht werden, ob diese durch eines oder mehrere andere Objekte verdeckt wird oder ob die Ecke für den Umfeldsensor sichtbar ist. Dabei erfolgt die Untersuchung, ob die Ecke verdeckt oder sichtbar ist, anhand der bestimmten relativen Lage der Objekte bzw. von deren Ecken zu dem Umfeldsensor.
Aus der Überprüfung von allen Ecken der Objekte in der Umgebung des Fahrzeugs kann dann abgeleitet werden, welche Bereiche bzw. Anteile der jeweiligen Objekte verdeckt und welche für den Umfeldsensor sichtbar sind. Es kann auch für jedes der Objekte der erfassbare Bereich bestimmt werden. Dieser erfassbare Bereich beschreibt denjenigen Bereich oder Anteil des Objekts, welcher mit dem Umfeldsensor erfasst bzw. gesehen werden kann. Bei dem Verfahren wird eine Liste von Ecken bestimmt und die Ecken werden der Reihe nach bzw. in Winkelrichtung untersucht. Somit ergibt sich der Vorteil, dass für einen Messzyklus bzw. Auswertungsschritt diese Liste von Ecken nur einmal abgearbeitet wird. Im Vergleich zu bekannten Tracking-Modellen kann der Rechenaufwand somit deutlich reduziert werden. Damit kann die Verdeckung der Objekte in der Umgebung effizienter und gleichzeitig zuverlässig ermittelt werden.
Bevorzugt wird zudem ein Anteil der jeweiligen Objekte bestimmt, welcher sich in einem Erfassungsbereich des Umfeldsensors befindet, und die erfassbaren Bereiche werden in Abhängigkeit von dem Anteil bestimmt. Der Erfassungsbereich, welcher auch als Sichtbereich oder als Field of View bezeichnet wird, beschreibt den Bereich der Umgebung, in welchem mit dem Umfeldsensor Objekte erfasst werden können. Auf Grundlage der Messungen mit dem Umfeldsensor kann das Objekt nachverfolgt bzw. getrackt werden. Somit sind beispielsweise aus vorhergehenden Messzyklen die Position und/oder die räumlichen Abmessungen des Objekts bekannt. Des Weiteren ist der Erfassungsbereich des Umfeldsensors bekannt. Auf Grundlage dieser Informationen kann dann bestimmt werden, welcher Anteil des Objekts in dem Erfassungsbereich liegt bzw. in diesem angeordnet ist. Dieser Anteil des Objekts in dem Erfassungsbereich kann dann bei der Bestimmung des erfassbaren Bereichs berücksichtigt werden. Damit kann bestimmt werden, welcher Teil des Objekts aktuell tatsächlich erfasst werden kann.
In einerweiteren Ausführungsform wird eine Verdeckungsliste bestimmt, in welche die jeweiligen Objekte in Abhängigkeit der relativen Lage ihrer Ecken zu dem Umfeldsensor eintragen werden, wobei die Verdeckungsliste bei dem Überprüfen der jeweiligen Ecken entlang der Winkelrichtung aktualisiert wird. Wie zuvor erläutert, werden die einzelnen Ecken der Reihe nach bzw. in Winkelrichtung überprüft. Bei der Untersuchung der jeweiligen Ecken kann die Verdeckungsliste aktualisiert werden. In der Verdeckungsliste können die Objekte bzw. die Ecken eingetragen werden. Den erkannten Objekten kann auch eine Kennung bzw. ID zugeordnet werden. Diese Kennung kann in die Verdeckungsliste eingetragen werden. Dabei kann das erste Objekt in der Verdeckungsliste das Objekt sein, dessen Ecke sichtbar ist. Das zweite Objekt in der Verdeckungsliste kann beispielsweise durch das erste Objekt verdeckt sein. Es kann auch berücksichtigt werden, ob die jeweils untersuchte Ecke den Beginn oder das Ende des Objekts in Winkelrichtung beschreibt. Wenn die Ecke das Ende des Objekts beschreibt, kann das Objekt aus der Verdeckungsliste gelöscht werden.
Weiterhin ist vorteilhaft, wenn zum Bestimmen der erfassbaren Bereiche der jeweiligen Objekte eine Winkelliste bestimmt wird, welche erfassbare Winkelbereiche der jeweiligen Objekte beschreibt, wobei die Winkelliste bei dem Überprüfen der jeweiligen Ecken entlang der Winkelrichtung aktualisiert wird. Es kann zudem vorgesehen sein, dass ein Winkel, welcher einer letzten Veränderung zugeordnet wird, gespeichert wird. Auf Grundlage dieses Winkels und der zuvor beschriebenen Verdeckungsliste kann ermittelt werden, für welchen Winkelbereich bzw. Azimut-Bereich ein Objekt oder ein Teil eines Objekts für den Umfeldsensor sichtbar ist. Insgesamt können somit mit geringem Rechenaufwand die erfassbaren Bereiche der jeweiligen Objekte ermittelt werden.
In einerweiteren Ausführungsform werden die jeweiligen Ecken der Objekte in Polarkoordinaten bestimmt. . Mittels eines Tracking-Algorithmus kann auf Grundlage der Sensordaten die jeweilige Position der Objekte zum Messzeitpunkt des Umfeldsensors vorhergesagt werden. Diese Tracks, welche die Objekte bzw. deren Position beschreiben, können in den Erfassungsbereich des Umfeldsensors transformiert werden. Die Objekte bzw. Tracks können dann in Polarkoordinaten definiert werden. Somit können die Ecken jeweils durch einen Winkel und einen Abstand bzw. Radius angegeben werden. Der Winkel kann dabei insbesondere dem Azimut-Winkel entsprechen. Durch den Radius kann die relative Lage zwischen dem Umfeldsensor und der Ecke bestimmt werden. Es kann auch vorgesehen sein, dass bei der Berechnung der relativen Lage nicht nur der Radius, sondern auch der Winkel zwischen dem Umfeldsensor und der Ecke berücksichtigt wird. Auf diese Weise kann die Verdeckung auch bei Ecken, welche einen geringen Abstand zu dem Umfeldsensor aufweisen, aber einem verdeckten Objekt zugeordnet sind, sicher durchgeführt werden.
Weiterhin ist vorteilhaft, wenn eine Existenzwahrscheinlichkeit für die jeweiligen Objekte in Abhängigkeit von den erfassbaren Bereichen der Objekte bestimmt wird. Bevorzugt kann auch die Nachverfolgung bzw. das Tracking der jeweiligen Objekte auf Grundlage der bestimmten erfassbaren Bereiche durchgeführt werden. Somit kann auf ein Objekt reagiert werden, welches aktuell für den Umfeldsensor nicht sichtbar ist. Wenn das Objekt wieder sichtbar ist, gibt es bereits eine Schätzung für Position und Geschwindigkeit, die direkt verwendet werden kann. Dies bietet einen Vorteil zu bekannten Verfahren, bei welchen die verdeckten Objekte gelöscht werden. Zudem ist bei bekannten Verfahren eine gewisse Anzahl an Messungen erforderlich, bevor das Objekt überhaupt wieder als bestätigt gilt. Außerdem wird eine bestimmte Initialisierungszeit benötigt, um den vollständigen Bewegungszustand zu schätzen.
Mithilfe des erfindungsgemäßen Verfahrens wird die Berechnung der Sichtbarkeit, welche auf dem Erfassungsbereich basiert, mit der Verdeckung durch andere Objekte kombiniert. Im dichten innerstädtischen Verkehr kann die Anzahl der weiteren Objekte in der Umgebung im Bereich zwischen 100 und 200 liegen. Im schlimmsten Fall müsste hier eine gegenseitige Verdeckung für alle möglichen Kombinationen von Objekten berechnet werden. Durch das erfindungsgemäße Verfahren kann der Rechenaufwand deutlich reduziert werden. Versuche haben hier gezeigt, dass die Rechenzeit etwa linear mit der Anzahl der Objekte in der Umgebung zunimmt.
Eine erfindungsgemäße Recheneinrichtung für ein Sensorsystem eines Fahrzeugs ist zum Durchführen eines erfindungsgemäßen Verfahrens und der vorteilhaften Ausgestaltungen eingerichtet. Die Recheneinrichtung kann insbesondere durch ein elektronisches Steuergerät des Fahrzeugs gebildet sein. Ein erfindungsgemäßes Sensorsystem umfasst eine erfindungsgemäße Recheneinrichtung und zumindest einen Umfeldsensor. Der Umfeldsensor kann als Radarsensor, Lidar-Sensor oder als Kamera ausgebildet sein. Der Umfeldsensor kann auch einen Erfassungsbereich von 360° bezogen auf die Azimut-Richtung aufweisen. Das Sensorsystem kann auch eine Mehrzahl von Umfeldsensoren und auch unterschiedliche Typen von Umfeldsensoren aufweisen.
Falls ein Umfeldsensor mit einem Erfassungsbereich von 360° verwendet wird, kann das erfindungsgemäße Verfahren ebenfalls genutzt werden. Hier kann der Winkelbereich beispielsweise von 0° zu 360° oder von -180° bis 180° definiert werden. Dabei können Probleme bei Objekten auftreten, welche sich über die definierte Winkelgrenze von 180° zu - 180° bzw. von 360° zu 0° erstrecken. Vorliegend ist es für Objekte, welche sich über die Winkelgrenze erstrecken, vorgesehen, dass diese in zwei Teilobjekte aufgeteilt werden. Die Teilung erfolgt dabei an der Winkelgrenze. Mit anderen Worten werden einem solchen Objekt dann insgesamt vier Ecke zugeordnet. Den beiden Teilobjekten kann aber die gleiche Kennung zugeordnet werden.
Das Sensorsystem kann Teil eines Fahrerassistenzsystems des Fahrzeugs sein. Mittels des Fahrerassistenzsystems kann das Fahrzeug automatisiert oder autonom manövriert werden. Ein erfindungsgemäßes Fahrzeug umfasst ein erfindungsgemäßes Sensorsystem. Das Fahrzeug ist insbesondere als Personenkraftwagen ausgebildet.
Ein weiterer Aspekt der Erfindung betrifft ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinrichtung diese veranlassen, ein erfindungsgemäßes Verfahren und die vorteilhaften Ausgestaltungen davon auszuführen. Des Weiteren betrifft die Erfindung ein computerlesbares (Speicherjmedium, umfassend Befehle, die bei der Ausführung durch eine Recheneinrichtung diese veranlassen, ein erfindungsgemäßes Verfahren und die vorteilhaften Ausgestaltungen davon auszuführen.
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für die erfindungsgemäße Recheneinrichtung, für das erfindungsgemäße Sensorsystem, für das erfindungsgemäße Fahrerassistenzsystem, für das erfindungsgemäße Fahrzeug, für das erfindungsgemäße Computerprogramm sowie für das erfindungsgemäße computerlesbare (Speicher)medium.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Dabei zeigen:
Fig. 1 eine schematische Darstellung eines Fahrzeugs, welches ein Sensorsystem mit Umfeldsensoren aufweist, sowie eines Objekts in der Umgebung des Fahrzeugs;
Fig. 2a-c schematische Darstellungen einer Verkehrssituation für aufeinanderfolgende Zeitpunkte, wobei sich zwei weitere Fahrzeuge in der Umgebung des Fahrzeugs befinden;
Fig. 3 ein schematisches Ablaufdiagramm eines Verfahrens zum Erfassen der
Objekte in der Umgebung des Fahrzeugs;
Fig. 4 eine schematische Darstellung eines Umfeldsensors sowie eines Objekts, wobei Ecken des Objekts in Polarkoordinaten definiert werden;
Fig. 5 eine schematische Darstellung eines Umfeldsensors sowie von drei Objekten, von denen zwei bereichsweise für den Umfeldsensor verdeckt sind; und
Fig. 6a-d Verdeckungslisten, Winkellisten und Bereiche mit Winkeln für unterschiedliche Auswertungsschritte zur Bestimmung der Verdeckung der Objekte gemäß Fig. 5.
In den Figuren werden gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.
Fig. 1 zeigt in einer schematischen Darstellung ein Fahrzeug 1, welches vorliegend als Personenkraftwagen ausgebildet ist, in einer Draufsicht. Das Fahrzeug 1 umfasst ein Sensorsystem 2, mittels welchem Objekte Ob1, Ob2, Ob3 in einer Umgebung 5 des Fahrzeugs 1 erfasst werden können. In Fig.1 ist beispielhaft ein Objekt Ob1 in der Umgebung 5 des Fahrzeugs 1 gezeigt. Das Sensorsystem 2 umfasst Umfeldsensoren 4, 4‘, mit denen Messwerte bzw. Sensordaten bereitgestellt werden können, welche das Objekt Ob1 in der Umgebung 5 beschreiben. In dem vorliegenden Beispiel umfasst das Sensorsystem 2 einen ersten Umfeldsensor 4, welcher als Radarsensor ausgebildet ist, und einen zweiten Umfeldsensor 4‘, welcher als Kamera ausgebildet ist.
Zudem umfasst das Sensorsystem 2 eine Recheneinrichtung 3, welche beispielsweise durch ein elektronisches Steuergerät gebildet sein kann. Die Sensordaten, welche mit den Umfeldsensoren 4, 4‘ bereitgestellt werden, werden an die Recheneinrichtung 3 übertragen und zur Erkennung des Objekts Ob1 entsprechend ausgewertet. Hierzu kann ein entsprechendes Computerprogramm auf der Recheneinrichtung 3 ausgeführt werden.
Die Fig. 2a bis 2c zeigen schematische Darstellungen des Fahrzeugs 1, welches sich in einer innerstätischen Verkehrssituation befindet. Die Fig. 2a bis 2c beschreiben dabei aufeinanderfolgende Zeitschritte. Gemäß Fig. 2a folgt das Fahrzeug 1 einem ersten Objekt Ob1 in Form eines weiteren Fahrzeugs. Das Fahrzeug 1 und das erste Objekt Ob1 bewegen sich auf eine Kreuzung 6 zu. Von rechts bewegt sich ein zweites Objekt Ob2 in Form eines weiteren Fahrzeugs auf diese Kreuzung 6 zu. In dieser Verkehrssituation hat das zweite Objekt Ob2 an der Kreuzung 6 Vorfahrt. Das zweite Objekt Ob2 kann dabei mit den Umfeldsensoren 4, 4‘ des Fahrzeugs 1 vollständig erfasst werden, wenn sich das zweite Objekt Ob2 in den Erfassungsbereichen der jeweiligen Umfeldsensoren 4, 4‘ befindet. Auf diese Weise kann das zweite Objekt Ob2 mithilfe eines Tracking-Algorithmus nachverfolgt werden.
Fig. 2b zeigt die Verkehrssituation zu einem späteren Zeitpunkt. Hier biegt das erste Objekt Ob1 nach rechts ab, sodass das erste Objekt Ob1 das zweite Objekt Ob2 für die Umfeldsensoren 4, 4‘ des Fahrzeugs 1 bereichsweise verdeckt. In Fig. 2c ist die Verkehrssituation zu einem nochmals späteren Zeitpunkt dargestellt. Hier ist verdeckt das erste Objekt Ob1 das zweite Objekt Ob2 für die Umfeldsensoren 4, 4‘ des Fahrzeugs 1 vollständig. Wenn die Verdeckung nicht berücksichtigt wird, würden die Umfeldsensoren 4, 4‘ keine neuen Informationen zu dem zweiten Objekt Ob2 liefern. Dies würde dazu führen, dass der Tracking-Algorithmus die Existenzwahrscheinlichkeit des zweiten Objekts Ob2 reduzieren würde, da sich das zweite Objekt Ob2 direkt vor dem Fahrzeug 1 im Erfassungsbereich der Umfeldsensoren 4, 4‘ befindet. Nach einer gewissen Zeit könnte das zweite Objekt Ob2 in dem Tracking-Algorithmus auch gelöscht werden. Die Existenzwahrscheinlichkeit wird üblicherweise unter Verwendung einer Annahme für die Detektionswahrscheinlichkeit des jeweiligen Umfeldsensors 4, 4‘ bestimmt. Beispielsweise kann angenommen werden, dass die Kamera dazu ausgebildet ist, ein weiteres Fahrzeug in einer Entfernung von 15 m mit einer Wahrscheinlichkeit von 99 % und einer Falsch-positiv- Rate zu detektieren. Wenn das zweite Objekt Ob2 nach der Verdeckung wieder erkannt wird, würde dieses nach einer gewissen Zeit als neues Objekt erkannt werden.
Vorliegend soll die Verdeckung von Objekten Ob1, Ob2, Ob3 in der Umgebung 5 des Fahrzeugs 1 bestimmt werden. Beispielsweise soll bei dem in Fig. 2b gezeigten Fall eine Ausgabe erfolgen, dass 50 % des zweiten Objekts Ob2 verdeckt sind. Basierend auf den Spezifikationen der Umfeldsensoren 4, 4‘ könnte die Detektionswahrscheinlichkeit deutlich reduziert werden. Beispielsweise kann angenommen werden, dass die Kamera das zur Hälfte verdeckte Objekt Ob2 mit einer Wahrscheinlichkeit von 30 % detektiert und der Radarsensor eine Detektionswahrscheinlichkeit von 70 % aufweist. Wenn das zweite Objekt Ob2 vollständig verdeckt ist, wie in Fig. 3c dargestellt, können
Detektionswahrscheinlichkeiten im Bereich von 0 % angenommen werden und somit die Existenzwahrscheinlichkeit nicht reduziert werden. Auf diese Weise wird das erkannte Objekt Ob2 in dem Tracking-Algorithmus nicht gelöscht. Hierdurch ergibt sich der Vorteil, dass das Vorhandensein des zweiten Objekts Ob2 bekannt ist und damit beispielsweise von dem Fahrzeug 1 bzw. einem Fahrerassistenzsystem des Fahrzeugs 1 ein Bremsmanöver eingeleitet werden kann. Sobald das zweite Objekt Ob2 nicht mehr verdeckt ist, kann dieses der aktuellen Messung der Umfeldsensoren 4, 4‘ zugeordnet werden.
Fig. 3 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zum Erfassen von Objekten Ob1, Ob2, Ob3 in der Umgebung 5 des Fahrzeugs 1. Das Verfahren wird beispielhaft für einen Umfeldsensor 4, 4‘ erläutert, kann aber für alle Umfeldsensoren 4, 4‘ des Fahrzeugs 1 durchgeführt werden. In einem Schritt S1 werden mit den Umfeldsensor 4, 4‘ die Sensordaten bereitgestellt. Dabei werden mit dem Umfeldsensor 4, 4‘ zeitlich aufeinanderfolgende Messzyklen durchgeführt. Die Sensordaten des Umfeldsensors 4, 4‘ werden an die Recheneinrichtung 3 übertragen und in einem Schritt S2 werden mittels des Tracking-Algorithmus die jeweiligen Positionen von sogenannte Tracks zum Messzeitpunkt des Umfeldsensors 4, 4‘ vorhergesagt. Diese Tracks beschreiben die jeweiligen Objekte Ob1, Ob2, Ob3 in der Umgebung 5. In einem Schritt S3 erfolgt dann eine Transformation der Tracks in dem Erfassungsbereich des Umfeldsensors 4, 4‘ bzw. in das Sensorkoordinatensystem. In einem Schritt S4 erfolgt dann eine Transformation in Polarkoordinaten. In einem Schritt S5 wird dann überprüft, ob sich die Tracks bzw. Objekte Ob1, Ob2, Ob3 in dem Erfassungsbereich des Umfeldsensors 4, 4‘ befinden. In einem Schritt S6 wird die Verdeckung der jeweiligen Objekte Ob1, Ob2, Ob3 bestimmt. In einem Schritt S7 des Verfahrens erfolgen auf Grundlage der Sensordaten eine Zuordnung und eine Aktualisierung. In einem Schritt S8 wird die Existenzwahrscheinlichkeit für die Objekte Ob1, Ob2, Ob3 aktualisiert. Dies erfolgt auf Grundlage der Ergebnisse aus den Schritten S5 und S6. In einem Schritt S9 wird eine Liste der erkannten Tracks bzw. Objekte Ob1, Ob2, Ob3 erstellt und in einem Schritt S10 aktualisiert. Dabei kann die Aktualisierung in jedem Messzyklus durchgeführt werden. Die relevanten Schritte des Verfahrens werden nachfolgend näher erläutert.
Die Transformation in Polarkoordinaten gemäß dem Schritt S3 des Verfahrens wird nachfolgenden anhand von Fig. 4 näher erläutert. Fig. 4 zeigt eine schematische Darstellung des Umfeldsensors 4 sowie eines Objekts Ob1. Wie zuvor erläutert, wird das detektierte Objekt Ob1 nach der Transformation in das Sensorkoordinatensystem in Polarkoordinaten transformiert. Dabei wird das Objekt Ob1 als Rechteck bzw. als zweidimensionale Box angenommen. In Polarkoordinaten kann das Objekt Ob1 bzw. die Ecken CR, CL des Objekts Ob1 jeweils über einen Winkel Q und einen Radius r beschrieben werden. Vorliegend entspricht der Winkel Q dem Azimut-Winkel. Dabei wird davon ausgegangen, dass sich die einzelnen Objekte Ob1, Ob2, Ob3 bzw. Boxen nicht überlappen. Daher werden zur Beschreibung des Objekts Ob1 nur die Ecke CR am rechten Rand, welche durch den Winkel 0R und den Radius TR definiert ist, und die Ecke CL am linken Rand, welche durch den Winkel 0L und den Radius n_ definiert ist, verwendet. Somit kann jedes Objekt Ob1, Ob2, Ob3 mit vier Ecken auf die zwei Ecken CR, CL reduziert und mit der dazugehörigen Kennung gespeichert werden. Zudem können die Koordinaten der Ecke CR am rechten Rand und/oder der Ecke CL am linken Rand gespeichert werden.
Gemäß dem Schritt S5 werden die Objekte Ob1, Ob2, Ob3 identifiziert, welche in dem Erfassungsbereich des Umfeldsensors 4, 4‘ sind. Dabei kann überprüft werden, ob die beiden äußeren Ecken CR, CL der jeweiligen Objekte Ob1, Ob2, Ob3 in dem Erfassungsbereich liegen. Der Erfassungsbereich beschreibt den Bereich in der Umgebung 5 des Fahrzeugs 1, in welchem mit dem Umfeldsensor 4, 4‘ Objekte Ob1, Ob2, Ob3 erfasst werden können. Der Erfassungsbereich kann durch einen maximalen Radius und einen Winkelbereich, welcher sich von -0s bis 0s erstreckt, definiert werden. Zunächst kann überprüft werden, ob der Abstand bzw. der Radius
Figure imgf000012_0001
n_ einer der Ecken CR, CL größer ist als der maximale Radius des Erfassungsbereichs. Wenn dies der Fall ist, kann angenommen werden, dass das Objekt Ob1, Ob2, Ob3 nicht in dem Erfassungsbereich ist und nicht sichtbar ist. Danach kann die Ausdehnung DQ des Objekts Ob1, Ob2, Ob3 in Azimut-Richtung nach folgender Formel bestimmt werden: DQ = 0L - 0R. Im Anschluss daran kann der neue Winkel am linken Rand nach folgender Formel bestimmt werden: qi_ = min(0i_, 0s). Der neue Winkel am rechten Rand kann nach folgender Formel bestimmt werden: 0R = min(0R, -0s). Dann kann der Anteil des Objekts innerhalb des Erfassungsbereichs aus dem Quotienten (qi_ - QK)/DQ bestimmt werden. Schließlich können die neuen Winkel an den Rändern qi_, 0R gespeichert werden. Es kann auch auf Grundlage von Winkeln zunächst überprüft werden, ob das Objekt Ob1, Ob2, Ob3 in dem Erfassungsbereich ist. Wenn sich beispielsweise eine Ecke CR, CL des Objekts Ob1, Ob2, Ob3 in dem Erfassungsbereich befindet, kann davon ausgegangen werden, dass das Objekt Ob1, Ob2, Ob3 in dem Erfassungsbereich ist.
Bei der Bestimmung der Verdeckung der Objekte Ob1, Ob2, Ob3 gemäß dem Schritt S6 des Verfahrens werden die jeweiligen äußeren Ecken CR, CL der Objekte Ob1, Ob2, Ob3 extrahiert und dann in Azimut-Richtung sortiert. Danach werden die Ecken CR, CL der Reihe nach bzw. in Azimut-Richtung analysiert. Hierbei können vier verschiedene Fälle angenommen werden: Die rechte Ecke CR ist dem Anfang des Objekts Ob1, Ob2, Ob3 zugeordnet und sichtbar, die rechte Ecke CR ist dem Anfang des Objekts Ob1, Ob2, Ob3 zugeordnet und verdeckt, die linke Ecke CL ist dem Ende des Objekts Ob1, Ob2, Ob3 zugeordnet und sichtbar oder die linke Ecke CL ist dem Ende des Objekts Ob1, Ob2, Ob3 zugeordnet und verdeckt.
Neben der Liste mit den Ecken CR, CL kann insbesondere eine Liste vorgesehen sein, in welcher die aktuell verdeckten Objekte Ob1, Ob2, Ob3 aufgezählt sind. Diese Liste wird nachfolgend als Verdeckungsliste 7 bezeichnet. Die Reihenfolge in dieser Verdeckungsliste 7 kann dabei angeben, in welcher Reihenfolge die Objekte Ob1, Ob2, Ob3 angeordnet sind. Das erste Objekt Ob1, Ob2, Ob3 in der Verdeckungsliste 7 kann den geringsten Abstand zu dem Fahrzeug 1 bzw. dem Umfeldsensor 4, 4‘ aufweisen und das nächste Objekt Ob1, Ob2, Ob3 in der Liste kann ausgehen von dem Umfeldsensor 4, 4‘ hinter dem ersten Objekt Ob1, Ob2, Ob3 in der Verdeckungsliste 7 angeordnet sein. Darüber hinaus kann eine Liste vorgesehen sein, in welcher der jeweils sichtbare Winkel bzw. Azimut-Winkel der Objekte beschrieben ist. Diese Liste wird nachfolgend als Winkelliste 8 bezeichnet.
Bei der Überprüfung der Verdeckung wird zunächst die Ecke CR des Objekts Ob1 , Ob2, Ob3 auf der äußersten rechten Seite betrachtet. Es wird überprüft, ob diese Ecke CR verdeckt ist bzw. ob sich ein anderes Objekt Ob1 , Ob2, Ob3 bezogen auf den Umfeldsensor 4, 4‘ vor dieser Ecke CR befindet. Dazu wird diese Ecke CR mit den Objekten Ob1, Ob2, Ob3 in der Verdeckungsliste verglichen. Im einfachsten Fäll können hier die Radien bzw. Abstände der Ecken CR, CL miteinander verglichen werden. In Abhängigkeit von den Abmessungen bzw. dem räumlichen Ausdehnungen der Objekte Ob1, Ob2, Ob3 in Azimut-Richtung kann es aber der Fall sein, dass eine Ecke CR eines zweiten Objekts Ob2 einen geringeren Abstand zu dem Umfeldsensor 4, 4‘ aufweist als eine Ecke CR eines ersten Objekts Ob1, wobei das erste Objekt Ob1 das zweite Objekt Ob2 verdeckt. Aus diesem Grund wird für die Verdeckungsbestimmung beispielsweise das Skalarprodukt der Ecken bestimmt, falls ein positiver oder negativer Winkel zwischen der aktuell sichtbaren Ecke und der neu definierten äußersten Ecke CR am rechten Rand vorhanden ist.
Falls die Ecke CR am äußersten rechten Rand sichtbar ist, wird das der Ecke CR zugeordnete Objekt Ob1, Ob2, Ob3 an die erste Stelle der Verdeckungsliste 7 aufgenommen. Für das Objekt Ob1, Ob2, Ob3, welches zuvor an der ersten Stellte war und jetzt an der zweiten Stelle ist, wird der sichtbare Azimut-Winkel bestimmt. Dies erfolgt auf Grundlage des Winkels 0R des neu in die Verdeckungsliste 7 eingefügten Objekts Ob1, Ob2, Ob3 und des Winkels, bei welchem die letzte Veränderung stattgefunden hat. Der bestimmte sichtbare Azimut-Winkel wird in die Winkelliste 8 eingetragen und der Winkel mit der letzten Änderung wird aktualisiert. Falls die Ecke CR am äußersten rechten Rand nicht sichtbar ist, wird diese mit den nächsten Objekten Ob1, Ob2, Ob3 in der Verdeckungsliste 7 dahingehend verglichen, ob sie sichtbar ist. Dies wird solange durchgeführt, bis die Ecke als sichtbar erkannt wird. Daraufhin wird das Objekt Ob1, Ob2, Ob3 in die Verdeckungsliste 7 an der richtigen Stelle einsortiert.
Nachfolgend wird die Verdeckung der Ecke CL am äußersten linken Rand untersucht. Falls die Ecke CL sichtbar ist bzw. wenn die Ecke CL an der ersten Position in der Verdeckungsliste ist, wird der sichtbare Azimut-Winkel in der Winkelliste 8 aktualisiert.
Zudem wird die Ecke CL aus der aktuelle Verdeckungsliste 7 gelöscht und der Azimut-Winkel der letzten Änderung wird aktualisiert. Falls die Ecke CL nicht sichtbar ist, wird das Objekt Ob1 , Ob2, Ob3 aus der aktuellen Verdeckungsliste 7 gelöscht. Als letzter Schritt wird der sichtbare Bereich des Objekts Ob1, Ob2, Ob3 basierend auf dem sichtbaren Azimut-Winkel und dem zuvor berechneten Anteil des Objekts Ob1, Ob2, Ob3 in dem Erfassungsbereich bestimmt. Wenn sich beispielsweise die Hälfte des Objekts Ob1, Ob2, Ob3 in dem Erfassungsbereich befindet, beträgt der Anteil des Objekts Ob1, Ob2, Ob3 in dem Erfassungsbereich 50 %. Wenn von diesem Anteil in dem Erfassungsbereich 60 % nicht verdeckt sind, sind insgesamt 30 % des Objekts Ob1, Ob2, Ob3 für den Umfeldsensor 4, 4‘ sichtbar. Nachfolgend wird das Verfahren anhand eines Beispiels veranschaulicht. Dabei wird davon ausgegangen, dass sich in der Umgebung 5 des Fahrzeugs 1 drei Objekte Ob1, Ob2, Ob3 befinden. Diese Objekte Ob1, Ob2, Ob3 sind beispielhaft in Fig. 5 dargestellt. Von dem Fahrzeug 1 ist dabei der Übersichtlichkeit halber nur der Umfeldsensor 4 dargestellt. Das dritte Objekt Ob3 erstreckt sich in einem Winkelbereich zwischen 0° und 50°. Es wird vereinfacht angenommen, dass der Abstand zwischen dem Umfeldsensor 4 und den Ecken CR, CL des dritten Objekts Ob3 jeweils 20 m beträgt. Das zweite Objekt Ob2, welches sich bereichsweise vor dem dritten Objekt Ob3 befindet, erstreckt sich in einem Winkelbereich zwischen 20° und 40°. Es wird vereinfacht angenommen, dass der Abstand zwischen dem Umfeldsensor 4 und den Ecken CR, CL des zweiten Objekts Ob2 jeweils 15 m beträgt Das erste Objekt Ob1, welches sich bereichsweise vor dem zweiten Objekt Ob2 und bereichsweise vor dem dritten Objekt Ob3 befindet, erstreckt sich in einem Winkelbereich zwischen 10° und 30°. Es wird vereinfacht angenommen, dass der Abstand zwischen dem Umfeldsensor 4 und den Ecken CR, CL des ersten Objekts Ob1 jeweils 10 m beträgt.
Die jeweiligen Ecken CR, CL der Objekte Ob1, Ob2, Ob3 werden zunächst in Azimut- Richtung sortiert. Als erstes wird die äußerste rechte Ecke CR des dritten Objekts Ob3 betrachtet, welche dem Winkel von 0° zugeordnet ist. Diese Ecke CR wird in die aktuelle Verdeckungsliste 7 an der ersten Stelle eingetragen. Danach wird die äußerste rechte Ecke CR des ersten Objekts Ob1 betrachtet, welche dem Winkel von 10° zugeordnet ist. Diese Ecke CR wird als neue sichtbare Ecke identifiziert und in der Verdeckungsliste 7 an der ersten Stelle eingetragen an die Ecke des dritten Objekts Ob3 wird an die zweite Stelle in der Verdeckungsliste 7 geschoben. In der Winkelliste 8 mit den sichtbaren Azimut-Winkeln wird jedem Objekt Ob1 , Ob2, Ob3 zunächst der Winkel von 0° zugeordnet. Der sichtbare Azimut- Winkel des dritten Objekts Ob3 wird auf 10° berechnet und in der Winkelliste 8 aktualisiert. Des Weiterem wird der letzte Azimut-Winkel 0L bzw. der Winkel, bei welchem die letzte Änderung erfolgt ist, von 0° auf 10° aktualisiert. Hierzu zeigt Fig. 6a die Verdeckungsliste 7, die Winkelliste 8 und einem Bereich 9 für den letzten Azimut-Winkel 0L. In den schematischen Zeichnungen sind die Änderungen in den Listen 7, 8, 9 durch Unterstreichungen hervorgehoben.
Fig. 6b zeigt die Verdeckungsliste 7, die Winkelliste 8 und den Bereich 9 für einen nachfolgenden Schritt. Mittlerweile wurde die äußerste rechte Ecke CR des zweiten Objekts Ob2, welche dem Winkel von 20° zugeordnet ist, an der zweiten Position in der Verdeckungsliste 7 eingefügt. Danach wird die äußerste linke Ecke CL des ersten Objekts Ob1 , welche dem Winkel von 30° zugeordnet ist, untersucht. Aus der Differenz diese Winkels von 30° und dem letzten Azimut-Winkel 0L von 10° wird dann der sichtbare Winkel von 20° des ersten Objekts Ob1 berechnet und in der Winkelliste 8 aktualisiert. Zudem wird das erste Objekt Ob1 aus der Verdeckungsliste 7 gelöscht. Der letzte Azimut-Winkel qi_ wird von 10° auf 30° aktualisiert.
Fig. 6c zeigt die Verdeckungsliste 7, die Winkelliste 8 und den Bereich 9 für einen nachfolgenden Schritt. Dabei wird die äußerste linke Ecke CL des zweiten Objekts Ob2, welche dem Winkel von 40° zugeordnet ist, untersucht. Aus der Differenz diese Winkels von 40° und dem letzten Azimut-Winkel qi_ von 30° wird dann der sichtbare Winkel von 10° des zweiten Objekts Ob2 berechnet und in der Winkelliste 8 aktualisiert. Zudem wird das zweite Objekt Ob2 aus der Verdeckungsliste 7 gelöscht. Der letzte Azimut-Winkel qi_ wird von 30° auf 40° aktualisiert.
Fig. 6d zeigt die Verdeckungsliste 7, die Winkelliste 8 und den Bereich 9 für einen nachfolgenden Schritt. Dabei wird die äußerste linke Ecke CL des dritten Objekts Ob3, welche dem Winkel von 50° zugeordnet ist, untersucht. Aus der Differenz diese Winkels von 50° und dem letzten Azimut-Winkel 0L von 40° wird dann der sichtbare Winkel von 10° des dritten Objekts Ob3 berechnet und in der Winkelliste 8 aktualisiert. Außerdem wird das dritte Objekt Ob3 aus der Verdeckungsliste 7 gelöscht. Der letzte Azimut-Winkel 0L wird von 40° auf 50° aktualisiert und das Verfahren wird beendet.
Als Ergebnis des Verfahrens ergibt sich, dass von dem ersten Objekt Ob1 20° in dem Winkelbereich zwischen 10° und 30° sichtbar sind. Folglich sind 100 % des ersten Objekts Ob1 sichtbar. Von dem zweiten Objekt Ob2 sind 10° in dem Winkelbereich zwischen 30° und 40° sichtbar. Folglich sind 50 % des zweiten Objekts Ob2 sichtbar. Von dem dritten Objekt Ob3 sind 20° in den Winkelbereichen von 0° bis 10° sowie von 40° bis 50° sichtbar. Damit sind von dem dritten Objekt Ob340 % sichtbar.
Das Verfahren kann auch für Umfeldsensoren mit einem Erfassungsbereich von 360° genutzt werden. Derartige Umfeldsensoren, welche als Radarsensoren oder als Lidar- Sensoren ausgebildet sind, können beispielsweise auf dem Dach des Fahrzeugs 1 angeordnet sein. Hier kann der Winkel beispielsweise von 0° zu 360° oder von -180° bis 180° definiert werden. Dabei können Probleme bei Objekten Ob1, Ob2, Ob3 auftreten, welche sich über die definierte Winkelgrenze von 180° zu -180° bzw. von 360° auf 0° erstrecken. Bei der zuvor beschriebenen Sortierung der Winkel in Winkelrichtung können hier Fehler auftreten. Daher ist es für Objekte Ob1, Ob2, Ob3, welche sich über die Winkelgrenze erstrecken vorgesehen, dass diese in zwei Teilobjekte aufgeteilt werden. Die Teilung erfolgt dabei an der Winkelgrenze. Somit werden einem realen Objekt Ob1 , Ob2, Ob3 insgesamt vier äußere Ecken aber die gleiche Kennung zugeordnet.

Claims

Ansprüche
1. Verfahren zum Erfassen von Objekten (Ob1, Ob2, Ob3) in einer Umgebung (5) eines Fahrzeugs (1) mit den Schritten:
- Empfangen von Sensordaten, welche die Objekte (Ob1, Ob2, Ob3) in der Umgebung (5) beschreiben, von einem Umfeldsensor (4, 4‘) des Fahrzeugs (1),
- Bestimmen von jeweiligen Ecken (CR, CL) der Objekte (Ob1, Ob2, Ob3), wobei Ecken (CR, CL) äußere Begrenzungen des jeweiligen Objekts (Ob1, Ob2, Ob3) beschreiben,
- Bestimmen einer relativen Lage der jeweiligen Ecken (CR, CL) ZU dem Umfeldsensor (4, 4‘),
- Sortieren der bestimmten Ecken (CR, CL) in einer vorbestimmten Winkelrichtung,
- Überprüfen jeder der Ecken (CR, CL) entlang der Winkelrichtung, ob die Ecke (CR, CL) durch ein anderes der Objekte (Ob1, Ob2, Ob3) verdeckt sind, anhand der relativen Lage der jeweiligen Ecken (CR, CL) ZU dem Umfeldsensor (4, 4‘) und
- Bestimmen von für den Umfeldsensor (4, 4‘) erfassbaren Bereichen der jeweiligen Objekte (Ob1, Ob2, Ob3) anhand der Überprüfung der Ecken (CR, CL).
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass zudem ein Anteil der jeweiligen Objekte (Ob1, Ob2, Ob3) bestimmt wird, welcher sich in einem Erfassungsbereich des Umfeldsensors (4, 4‘) befindet, und die erfassbaren Bereiche in Abhängigkeit von dem Anteil bestimmt werden.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass eine Verdeckungsliste (7) bestimmt wird, in welche die jeweiligen Objekte (Ob1, Ob2, Ob3) in Abhängigkeit der relativen Lage ihrer Ecken (CR, CL) ZU dem Umfeldsensor (4, 4‘) eintragen werden, wobei die Verdeckungsliste (7) bei dem Überprüfen der jeweiligen Ecken (CR, CL) entlang der Winkelrichtung aktualisiert wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Bestimmen der erfassbaren Bereiche der jeweiligen Objekte (Ob1, Ob2, Ob3) eine Winkelliste (8) bestimmt wird, welche erfassbaren Winkelbereiche der jeweiligen Objekte (Ob1, Ob2, Ob3) beschreibt, wobei die Winkelliste (8) bei dem Überprüfen der jeweiligen Ecken (CR, CL) entlang der Winkelrichtung aktualisiert wird.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die jeweiligen Ecken (CR, CL) der Objekte (Ob1, Ob2, Ob3) in Polarkoordinaten bestimmt werden.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Existenzwahrscheinlichkeit für die jeweiligen Objekte (Ob1, Ob2, Ob3) in Abhängigkeit von dem erfassbaren Bereichen der Objekte (Ob1, Ob2, Ob3) bestimmt wird.
7. Recheneinrichtung (3) für ein Sensorsystem (2) eines Fahrzeugs (1), wobei die Recheneinrichtung (3) zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche eingerichtet ist.
8. Sensorsystem (2) für ein Fahrzeug (1) umfassend eine Recheneinrichtung (3) nach Anspruch 7 und zumindest einen Umfeldsensor (4, 4‘).
9. Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinrichtung (3) diese veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 6 auszuführen.
10. Computerlesbares (Speicher)medium, umfassend Befehle, die bei der Ausführung durch eine Recheneinrichtung (3) diese veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 6 auszuführen.
PCT/EP2022/053993 2021-02-19 2022-02-17 Verfahren zum erfassen von objekten in einer umgebung eines fahrzeugs mit bestimmung einer verdeckung der objekte, recheneinrichtung sowie sensorsystem WO2022175405A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280014141.1A CN116848432A (zh) 2021-02-19 2022-02-17 通过确定物体遮挡以检测车辆环境中的物体的方法、计算装置和传感器系统
US18/277,805 US20240044649A1 (en) 2021-02-19 2022-02-17 Method for Detecting Objects in the Surroundings of a Vehicle by Determining Coverage of the Objects, Computing Device, and Sensor System

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021104015.9A DE102021104015A1 (de) 2021-02-19 2021-02-19 Verfahren zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs mit Bestimmung einer Verdeckung der Objekte, Recheneinrichtung sowie Sensorsystem
DE102021104015.9 2021-02-19

Publications (1)

Publication Number Publication Date
WO2022175405A1 true WO2022175405A1 (de) 2022-08-25

Family

ID=80785170

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/053993 WO2022175405A1 (de) 2021-02-19 2022-02-17 Verfahren zum erfassen von objekten in einer umgebung eines fahrzeugs mit bestimmung einer verdeckung der objekte, recheneinrichtung sowie sensorsystem

Country Status (4)

Country Link
US (1) US20240044649A1 (de)
CN (1) CN116848432A (de)
DE (1) DE102021104015A1 (de)
WO (1) WO2022175405A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10148064A1 (de) * 2001-09-28 2003-04-10 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
EP1995692A2 (de) * 2004-04-19 2008-11-26 IBEO Automobile Sensor GmbH Verfahren zur Erkennung und Verfolgung von Objekten
EP3432032A1 (de) * 2017-07-19 2019-01-23 Aptiv Technologies Limited Automatisiertes fahrzeug-lidar-verfolgungssystem für verdeckte objekte

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10148068A1 (de) 2001-09-28 2003-04-10 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
DE102006057277A1 (de) 2006-12-05 2008-06-12 Robert Bosch Gmbh Verfahren zum Betrieb eines Radarsystems bei möglicher Zielobjektverdeckung sowie Radarsystem zur Durchführung des Verfahrens
DE102015207318B4 (de) 2015-04-22 2021-07-22 Robert Bosch Gmbh Verfahren und Vorrichtung zur Verdeckungserkennung für stationäre Radarsysteme

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10148064A1 (de) * 2001-09-28 2003-04-10 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
EP1995692A2 (de) * 2004-04-19 2008-11-26 IBEO Automobile Sensor GmbH Verfahren zur Erkennung und Verfolgung von Objekten
EP3432032A1 (de) * 2017-07-19 2019-01-23 Aptiv Technologies Limited Automatisiertes fahrzeug-lidar-verfolgungssystem für verdeckte objekte

Also Published As

Publication number Publication date
DE102021104015A1 (de) 2022-08-25
US20240044649A1 (en) 2024-02-08
CN116848432A (zh) 2023-10-03

Similar Documents

Publication Publication Date Title
EP3329216A1 (de) Bestimmung einer anordnungsinformation für ein fahrzeug
EP3254136B1 (de) Verarbeitung von sensormessungen eines fahrzeugumfeldes bei geringer querauflösung
WO2015139864A1 (de) Verfahren und vorrichtung zum betreiben eines fahrzeugs
DE102017101476B3 (de) Lokalisieren eines Objekts in einer Umgebung eines Kraftfahrzeugs durch ein Ultraschallsensorsystem
EP3740738A1 (de) Verfahren zur positionsbestimmung eines fahrzeugs
DE112018004003T5 (de) Steuerung und verfahren zum automatischen fahren
DE102014200279A1 (de) Verfahren und Vorrichtung zum Detektieren von Objekten in einem Umfeld eines Fahrzeugs
DE102019008093A1 (de) Verfahren zum Fusionieren von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels eines spärlichen Belegungsgitters, sowie Fahrerassistenzsystem
DE102020200169B3 (de) Verfahren zur Zusammenführung mehrerer Datensätze für die Erzeugung eines aktuellen Spurmodells einer Fahrbahn und Vorrichtung zur Datenverarbeitung
DE102020118629A1 (de) Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs
DE102020112825A1 (de) Verfahren zum Erfassen von relevanten statischen Objekten innerhalb einer Fahrspur sowie Recheneinrichtung für ein Fahrerassistenzsystem eines Fahrzeugs
DE102019132150A1 (de) Verfahren zum automatischen Kalibrieren eines Umfeldsensors, insbesondere eines Lidar-Sensors, eines Fahrzeugs auf Grundlage von Belegungskarten sowie Recheneinrichtung
DE102018113559A1 (de) Verfahren zum Erkennen einer Fahrbahnmarkierung durch Validieren anhand der Linienbreite; Steuereinrichtung; Stellplatzerkennungssystem; sowie Fahrerassistenzsystem
DE102020213133A1 (de) Verfahren und Vorrichtung zum Bewerten einer Eigenlokalisierung eines physikalischen Systems mittels Sensordaten
WO2022175405A1 (de) Verfahren zum erfassen von objekten in einer umgebung eines fahrzeugs mit bestimmung einer verdeckung der objekte, recheneinrichtung sowie sensorsystem
WO2018095669A1 (de) Verfahren und vorrichtung zum bestimmen einer genauen position eines fahrzeugs anhand von radarsignaturen der fahrzeugumgebung
DE102020116225B3 (de) Verfahren zum radarbasierten Nachverfolgen von fahrzeugexternen Objekten, Objektnachverfolgungseinrichtung und Kraftfahrzeug
DE102019211006B4 (de) Auswerten von Sensordaten eines Fahrzeugs
WO2022002564A1 (de) Ermitteln einer ausgangsposition eines fahrzeugs für eine lokalisierung
DE102006051091B4 (de) Verfahren zur Objekterkennung von Fahrzeugen mittels Nahbereichsdetektion
DE102020119498A1 (de) Verfahren zum Schätzen einer Eigenbewegung eines Fahrzeugs anhand von Messungen eines Lidar-Sensors sowie Recheneinrichtung
DE102019209637B4 (de) Generieren einer Fahrzeugumgebungskarte
DE102023002044B3 (de) Verfahren zu einer modellbasierten Fusion verschiedener Sensormodalitäten
DE102021204639B4 (de) Detektion von Schnittpunkten von Fahrbahnmarkierungslinien
DE112021007341T5 (de) Steuervorrichtung und Steuerverfahren

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22710969

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280014141.1

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 18277805

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22710969

Country of ref document: EP

Kind code of ref document: A1