WO2022122933A1 - Method and device for detecting objects in the surroundings of a vehicle - Google Patents

Method and device for detecting objects in the surroundings of a vehicle Download PDF

Info

Publication number
WO2022122933A1
WO2022122933A1 PCT/EP2021/085019 EP2021085019W WO2022122933A1 WO 2022122933 A1 WO2022122933 A1 WO 2022122933A1 EP 2021085019 W EP2021085019 W EP 2021085019W WO 2022122933 A1 WO2022122933 A1 WO 2022122933A1
Authority
WO
WIPO (PCT)
Prior art keywords
reference point
object frame
point
estimated
orientation
Prior art date
Application number
PCT/EP2021/085019
Other languages
German (de)
French (fr)
Inventor
Ruediger Jordan
Diego GIL VAZQUEZ
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2022122933A1 publication Critical patent/WO2022122933A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Definitions

  • the invention relates to a method for detecting objects in the surroundings of a vehicle. Furthermore, the invention relates to a device, a computer program and a computer-readable medium for carrying out the method mentioned.
  • a high-resolution radar sensor system can be used, for example, to detect objects in the surroundings of a vehicle, such as a partially or fully automated motor vehicle or an autonomous robot.
  • Tracking algorithms such as Bayes filters, particle filters or Kalman filters can be used to process the radar data generated by the radar sensor system vehicle, allow.
  • Such algorithms can, for example, process raw data relating to a distance, a radial velocity and an azimuth angle.
  • Several measurement cycles are usually required for a sufficiently accurate estimate of quantities that cannot be measured directly, such as object position, object speed or object acceleration. This can lead to corresponding delays in the estimation of the variables mentioned, particularly in the event of major changes in the state of motion of the objects.
  • the first step is usually to select a suitable reference point necessary.
  • a center point of a point cluster assigned to the object can be determined for this purpose and this center point can be used as a reference point.
  • embodiments of the present invention make it possible to determine positions of objects in the vicinity of a vehicle using a single radar sensor with high accuracy and low latencies.
  • a first aspect of the invention relates to a computer-implemented method for detecting objects in an area surrounding a vehicle. That The method comprises at least the following steps: receiving radar data indicative of the objects; Determination of a first object frame for each object based on the radar data, wherein the first object frame indicates a position and/or orientation of the object estimated over several time steps and a position and/or orientation of the first object frame is defined by a defined number of first reference points in a two-dimensional coordinate system is; Determining a second object frame for each object based on the radar data, the second object frame indicating a position and/or orientation of the object measured in a current time step and a position and/or orientation of the second object frame by a defined number of second reference points in the two-dimensional coordinate system is fixed; Determination of pairs of reference points, each consisting of a first reference point and a second reference point; determining a reference point distance between the first reference point and the second reference point of each reference point pair; determining at least one preferred reference point based on
  • the method can be executed automatically by a processor, for example.
  • the radar data can have been generated, for example, using a radar sensor system for detecting the surroundings of the vehicle.
  • the vehicle may be an automobile, such as a car, truck, bus, or motorcycle. In a broader sense, a vehicle can also be understood as an autonomous, mobile robot.
  • the radar sensor system can be, for example, a single high-resolution radar sensor.
  • the radar sensor system can be positioned, for example, in the area of a front or rear bumper of the vehicle. However, other installation locations are also possible.
  • the vehicle can, for example, have other surroundings sensors such as a camera, an ultrasonic or lidar sensor, and/or vehicle dynamics sensors such as an acceleration sensor, wheel speed sensor or steering wheel angle sensor.
  • the vehicle can have a location sensor for determining an absolute Position of the vehicle using a global navigation satellite system such as GPS, GLONASS or similar. exhibit.
  • the vehicle can be equipped with a driver assistance system or robot control system for partially or fully automated activation of an actuator system of the vehicle based on the radar data.
  • the driver assistance system or robot control system can be implemented as hardware and/or software, for example in a control unit of the vehicle.
  • the actuator system can be configured, for example, to steer, accelerate, brake and/or navigate the vehicle.
  • the actuator can include, for example, a steering actuator, a brake actuator, an engine control unit, an electric motor or a combination of at least two of the examples mentioned.
  • reflection locations can be determined, at which radar beams emitted by the radar sensor system were reflected. For this purpose, for example, peaks can be detected in a frequency spectrum generated by (fast) Fourier transformation of the radar data.
  • the reflection locations can be defined, for example, by a radial distance, a radial speed and/or an azimuth angle.
  • the reflection locations can then be assigned to specific objects in the area surrounding the vehicle, for example by bundling, which can also be referred to as clustering.
  • the object frames can be generated, for example, by a special object frame generation algorithm.
  • the object frame generation algorithm can be, for example, an appropriately trained classifier, such as an artificial neural network or the like.
  • a geometry indicating an outer contour of an object for example in the form of a rectangle, parallelogram, trapezium or the like, can generally be used under a first or second object frame. be understood. It is possible that the first or second object frame comprises one or more inner edges in addition to the outer edges.
  • a first or second reference point can be understood, for example, as a corner point or a center point between two corner points of the first or second object frame.
  • the center can This can be the center of an outer edge or a frame center of the first or second object frame lying on a (possibly imaginary) diagonal.
  • the first object frame can be predicted with a corresponding dynamic model for a measurement time of the second object frame, for example. This ensures that the first object frame and the second object frame describe the same point in time when the reference points are assigned.
  • the two-dimensional coordinate system can be, for example, a vehicle coordinate system of the vehicle and/or a sensor coordinate system of the radar sensor system.
  • the origin of the two-dimensional coordinate system can be fixed, for example, on an axis of the vehicle or an installation location of the radar sensor system in the vehicle.
  • the estimated position and/or orientation of the object can be determined, for example, using a Kalman filter or any other suitable tracking filter or state estimator.
  • the reference points of a pair of reference points can, for example, be reference points which are arranged at similar locations on the first or second object frame, for example at similar corners and/or similar edges. For example, it is possible that a first reference point in the form of a lower left corner point of the first object frame is combined with a second reference point in the form of a lower left corner point of the second object frame to form a pair of reference points, etc.
  • the first object frame and the second object frame can each have the same number of reference points.
  • the distance between the reference points can be the length of an imaginary connecting line between the reference points of a pair of reference points.
  • the preferred reference point can be, for example, at least one of the two reference points of the pair of reference points with the smallest reference point distance, a predefined reference point from a set of the first and/or second reference points, or a newly defined reference point that is neither one of the first reference points nor is one of the second reference points, act.
  • the coordinate values of the preferred reference point and/or position values based on the coordinate values of the preferred reference point can be input into the above-mentioned Kalman filter.
  • an estimation error assigned to the preferred reference point for example in the form of a covariance matrix, for example a measurement covariance matrix, can also be determined.
  • the estimated position and/or orientation of the object can then also be updated based on the estimation error.
  • a second aspect of the invention relates to a device for data processing.
  • the device can be a computer, for example in the form of a control device, a server or the like.
  • the device includes a processor that is configured to carry out the method according to an embodiment of the first aspect of the invention.
  • the device may include hardware and/or software modules.
  • the device may include memory and data communication interfaces for data communication with peripheral devices.
  • Features of the method according to an embodiment of the first aspect of the invention can also be features of the device and vice versa.
  • a third aspect of the invention relates to a computer program.
  • the computer program comprises instructions which, when the computer program is executed by the processor, cause a processor to carry out the method according to an embodiment of the first aspect of the invention.
  • a fourth aspect of the invention relates to a computer-readable medium on which the computer program according to an embodiment of the third aspect of the invention is stored.
  • the computer-readable medium can be volatile or non-volatile data storage.
  • the computer-readable medium can be a hard drive, USB storage device, RAM, ROM, EPROM, or flash memory.
  • the computer-readable medium can also be a data communication network such as the Internet or a data cloud (cloud) enabling a download of a program code.
  • the radar data was generated using a radar sensor system for detecting the surroundings of the vehicle. At least one edge of the first object frame facing the radar sensor system is identified and selected first reference points are determined, which lie on the at least one edge of the first object frame facing the radar sensor system.
  • the pairs of reference points are each formed from a selected first reference point and a second reference point.
  • An edge facing the radar sensor system can be identified, for example, based on a position and/or orientation of the edge relative to the radar sensor system, for example relative to the origin of the two-dimensional coordinate system.
  • the first reference points lying on the identified edge or the identified edges can be, for example, corner points or points lying between two corner points, for example midpoints.
  • the preferred reference point is selected from the pair of reference points with the smallest reference point distance.
  • the preferred reference point can be selected or determined from those reference points with the greatest agreement. This allows the preferred reference point to be determined with a few simple calculation steps.
  • the smallest reference point distance is compared to a threshold value.
  • a predefined reference point can be used as the preferred reference point if the smallest reference point distance is greater than the threshold value.
  • the predefined reference point can be a reference point lying within the first or second object frame, for example a frame center point or (estimated) pivot point of the respective object. This embodiment can prevent the preferred reference point from being determined based on first and second reference points that are too far apart. Coarse estimation errors when updating the estimated position and/or orientation of the objects can thus be avoided.
  • the predefined reference point is a center point of the first object frame and/or the second object frame.
  • the estimated position and/or orientation of the objects can thus be updated with sufficient accuracy even if none of the first or second reference points is suitable as the preferred reference point. It is conceivable that the predefined reference point is also selected as the preferred reference point when several of the first or second reference points come into question as preferred reference points at the same time.
  • an estimation error with regard to the estimated position and/or orientation of the object is determined as a function of a position of the preferred reference point on the first object frame and/or the second object frame.
  • the estimation error can turn out to be greater the further away the preferred reference point is from the radar sensor system, for example from the origin of the two-dimensional coordinate system.
  • it can be determined, for example, whether the preferred reference point is on an edge facing or facing away from the radar sensor system and/or is a corner point, an outer edge center point or a frame center point of the respective object frame.
  • the estimation error can be determined using simple means and with sufficient accuracy.
  • a smaller estimation error is determined when the preferred reference point is a corner point and a larger estimation error is determined when the preferred reference point is not a corner point. Assuming that the radar sensor system usually detects corner points very precisely, the estimation error can be determined very easily in this way.
  • the reference point distances are weighted with probabilities.
  • the preferred reference point is determined based on a sum of the reference point distances weighted with the probabilities.
  • At least three pairs of reference points are determined for each object.
  • the probability that a suitable preferred reference point can be determined from the first or second reference points can be increased compared to embodiments where fewer than three pairs of reference points are determined for each object, can be significantly increased.
  • the first reference points are corner points of the first object frame and the second reference points are corner points of the second object frame.
  • the pairs of reference points are each formed from a corner point of the first object frame and a corresponding corner point of the second object frame.
  • the first reference points can be midpoints between two corner points of the first object frame and the second reference points can be midpoints between two corner points of the second object frame.
  • the pairs of reference points can each be formed from a center point of the first object frame and a corresponding center point of the second object frame.
  • the method further includes: determining a radial velocity and an azimuth angle for at least two reflection locations of each object based on the radar data; Determining estimated angle parameters of an angle function that describes the radial speed as a function of the azimuth angle, the estimated angle parameters for each object being determined based on the radial speeds and azimuth angles assigned to the object; determining an estimated pivot point for each object based on the radar data; determining a velocity for each object as a function of the estimated orientation, pivot point, and angular parameters of the object.
  • An azimuth angle can be understood as an angle between a vector of the radial velocity and a reference axis of the two-dimensional coordinate system.
  • the following function also known as the Doppler profile
  • v d C cos( ⁇ )+S sin( ⁇ ).
  • S for a second angle parameter
  • v d for the radial or Doppler velocity
  • for the azimuth angle.
  • the angle parameters can be calculated, for example, using the least squares method or another suitable optimization method from a plurality of radial velocity and azimuth angle values for each object. This embodiment enables fast and accurate Calculation of object speeds using a single radar sensor. In particular, the speeds of the objects can be calculated with sufficient accuracy without undesired delays occurring as a result when updating the respective object state of the objects.
  • At least one of the following calculation steps is carried out to determine the speed:
  • This embodiment allows the speed(s) of each detected object to be calculated particularly efficiently.
  • a corresponding speed estimation error for example in the form of a Covariance matrix for at least one of the above speeds are calculated and taken into account.
  • FIG. 1 schematically shows a vehicle with a control device according to an exemplary embodiment of the invention.
  • Fig. 2 schematically shows different modules of the control unit from Fig. 1.
  • FIG. 3 shows a coordinate system with object frames that were generated by the control device from FIG.
  • FIG. 4 shows a coordinate system with object frames that were generated by the control device from FIG.
  • FIG. 5 shows a diagram to illustrate geometric quantities such as are used for object detection in a method according to an embodiment of the invention.
  • Fig. 1 shows a vehicle 100 with a radar sensor system 102 for detecting objects 104 in an area surrounding the vehicle 100, here by way of example a vehicle driving ahead 104, and a control unit 106 for evaluating radar data 108 generated by the radar sensor system 102.
  • the radar sensor system 102 transmits radar beams 109 from which at several reflection sites 110 of the preceding vehicle 104, such as at its rear and / or its Rear axle, and from there are partially reflected back to the radar sensor system 102.
  • the radar data 108 can be generated by appropriate pre-processing of the reflected portion of the radar beams 109, for example by demodulation, amplification and/or digitization.
  • Control unit 106 is configured to carry out a method, which is described in more detail below, for detecting object 104 based on radar data 108 .
  • control unit 106 includes a memory 112 on which a computer program is stored, and a processor 114 for executing the computer program, it being possible for the method mentioned to be carried out by executing the computer program.
  • control unit 106 based on radar data 108, to generate a control signal 116 for automatically activating an actuator system 118 of vehicle 100, such as a steering or brake actuator, an engine control unit, or an electric motor of vehicle 100.
  • vehicle 100 can be equipped with a suitable driver assistance function, which can be integrated into control unit 106 .
  • vehicle 100 can be an autonomous robot with a suitable robot control program for automatically controlling actuator system 118 .
  • control unit 106 shows various modules of control unit 106. These can be hardware and/or software modules.
  • the radar data 108 are first received in a bundling module 200 .
  • the bundling module 200 can be configured, for example, to locate the reflection sites 110 based on the radar data 108 as points in a two-dimensional coordinate system 202 and to bundle these points into clusters, each of which is associated with a detected object 104, here the vehicle 104 driving ahead.
  • the coordinate system 202 can be, for example, a sensor coordinate system of the radar sensor system 102, the origin of which can be fixed at the installation site of the radar sensor system 102.
  • the x-axis of the coordinate system 202 extends in the longitudinal direction of the vehicle 100 here.
  • the cluster data 204 is input to an object frame generation algorithm that may be configured to generate a first object frame 208 and a second object frame 210 for each object 104 from the cluster data 204 .
  • the object frame generation algorithm can be an appropriately trained classifier, for example in the form of an artificial neural network.
  • the first object frame 208 indicates a position and/or orientation of the object 104 estimated over several time steps by a state estimator (not shown).
  • the state estimator can be a Kalman filter, for example, or can be based on a Kalman filter.
  • the first object frame 208 is generated in the form of a rectangle whose position and/or orientation in the coordinate system 202 is defined by a defined number of first reference points 212, here by nine first reference points 212 (marked in bold in Fig. 2 ).
  • Second object frame 210 indicates a position and/or orientation of object 104 measured by radar sensor system 102 in a current time step.
  • the second object frame 210 is also generated in this example in the form of a rectangle whose position and/or orientation in the coordinate system 202 is defined by a defined number of second reference points 214, here by nine second reference points 214 (in Fig 2 marked with crosses).
  • the first object frame 208 and the second object frame 210 can have an identical number of reference points 212 and 214, respectively.
  • the reference points 212 or 214 can be corner points, outer edge centers or frame centers of the first object frame 208 or the second object frame 210 .
  • the reference points 212 or 214 are also possible.
  • the object frame generation module 206 determines a plurality of reference point pairs 216, each consisting of a first reference point 212 and a second reference point 214.
  • the first reference points 212 can each have a similarly positioned second reference point 214, as indicated schematically in FIG.
  • Reference point distances between the two reference points 212, 214 of each reference point pair 216 are then determined by the object frame generation module 206.
  • the reference point distances can be calculated, for example, in each case as the length of an (imaginary) straight connecting line (shown as a dashed line in FIG. 2) between the respective reference points 212, 214.
  • the object frame generation module 206 determines one or more preferred reference points 220. For example, the first reference point 212 or the second reference point 214 of the reference point pair 216 with the smallest reference point distance can be selected as the preferred reference point 220. However, other selection methods are also possible, as described in more detail below.
  • the state estimator Based on the preferred reference point 220, the state estimator finally updates the estimated position and/or orientation of the object 104 and outputs correspondingly updated position values d x ,d y for the position of the object 104 and/or a correspondingly updated orientation value ⁇ for the orientation of the object 104 .
  • At least three reflection locations 110 for the object 104 should be determined.
  • the first object frame 208 or the second object frame 210 can then be placed around these at least three reflection locations 110 .
  • the object frame generation module 206 may be configured to generate vertices and/or midpoints between two vertices, i. H. Edge midpoints or frame midpoints to be determined as reference points 212 and 214, respectively (see also Fig. 3 and Fig. 4).
  • object frame generation module 206 identifies edges of first object frame 208 facing radar sensor system 102, for example based on their respective position and/or orientation relative to the radar sensor system 102, and selected first reference points 212' are determined which lie on these identified edges (marked with bold lines in FIGS. 3 and 4).
  • the edges identified as facing can be, for example, two edges that collide at a corner point of the first object frame 208 that is closest to the radar sensor system 102 .
  • the object frame generation module 206 can determine at least three selected first reference points 212 ′ for the object 104 . In this example (see FIGS.
  • first reference points 212 which lie on the edges facing radar sensor system 102 but are furthest away from radar sensor system 102 and can therefore be detected less reliably, are discarded .
  • both corner points of this edge can also be determined as selected first reference points 212' . This ensures that three reference points 212 ′ are always selected as candidates for updating the estimated position and/or orientation of the object 104 .
  • the preferred reference point 220 can be determined using the reference points 212' or
  • 214 can be selected, for example, as follows.
  • three pairs of reference points 216 are formed from one each of the selected first reference points 212' and one of the second reference points 214. Only reference points of the same type are combined with one another.
  • the left, rear corner point of the first object frame 208 is combined with the left, rear corner point of the second object frame 210, etc.
  • the corresponding reference point distances are then determined.
  • the reference points 212', 214 that are closest to each other are finally selected for update (marked with small circles in Figures 3 and 4).
  • a predefined reference point can be selected if the reference point spacing of the selected reference points 212', 214 exceeds a specific threshold value.
  • the predefined reference point can be a frame center point of the first object frame 208 or of the second object frame 210, for example.
  • an estimation error can also be calculated in the form of a covariance matrix. The estimation error can occur depending on a respective position of the preferred reference point 220 . Three cases can be distinguished here.
  • the preferred reference point 220 is a corner point. It is assumed that its position was recorded relatively accurately. Accordingly, a small-magnitude circular covariance K is determined.
  • the preferred reference point 220 is a midpoint of an outer edge. With regard to the position of the preferred reference point 220, a higher measurement uncertainty than in the first case is assumed. A covariance K is thus determined, which is expanded to form an ellipse in the direction of the respective outer edge, it being possible for the length of the ellipse to depend on the length of the respective outer edge.
  • the preferred reference point 220 is in the middle of the respective object frame 208 or 210. It was therefore not possible to find a suitable reference point on the object surface, i. H. at the outer edges of the object frame 208 and 210, respectively. Accordingly, a comparatively high covariance K is determined, which can depend on the length and width of the object 104 . Accordingly, the estimated position and/or orientation of the object 104 is only slightly adjusted.
  • the respective estimation errors, i. H. the respective covariances K of the reference points 212 ′ coming into question as preferred reference points 220 are marked in FIGS. 3 and 4 by way of example with larger circles or ellipses.
  • the object frame generation algorithm can perform the following steps, for example:
  • the preferred reference point 220 can be calculated, for example, by calculating a weighted sum of all possibilities, as described below.
  • the information required for updating the estimated position and/or orientation of the object 104 is calculated here to a certain extent from a weighted sum of a plurality of reference points 212 and 214, respectively. It should be noted here that the weighted sum is not calculated from the reference points 212 or 214 per se, but from the associated reference point distances in the form of an innovation vector. The merged result can then be linked to any reference point 212 or 214.
  • Probabilistic data association was originally developed to solve the measurement association problem in the presence of erroneous measurement values. To do this, a weighted sum of all measurements found in the association gate is calculated. The weight depends on the deviations between the expected object and the measurement. The better the expectation and measurements match, the higher the weight for this measurement. Finally, a merged pseudo-measurement or innovation vector is calculated, which can be used for updating, for example in a Kalman filter. Furthermore, a fused association probability is calculated, which expresses the overall success. If at least one measurement agrees well, a high value, close to 1, is returned. If none of the measurements agree with the expectation, the probability of the fused association is approximately 0.
  • the likelihood ratio for each measurement j as well as the Probabilities of no detection with index 0 can be calculated as follows.
  • y stands for the measurement
  • R for its covariance
  • x for the expected or predicted state
  • P for its covariance
  • H for the measurement matrix
  • V c for the measurement volume
  • ß j for the error detection density
  • e for the innovation vector
  • S for its covariance.
  • p j is the probability that the measurement; belongs to the predicted object, and p 0 the probability that no measurement belongs to the predicted object.
  • the associated covariance matrices are calculated in advance.
  • the first reference points 212 are used as the predicted state x. From this, the associated innovation vectors e are calculated.
  • the PDA algorithm is executed as described above.
  • the final results are the merged innovation vector and the merged covariance matrix.
  • the innovation vector is added to any first reference point 212, 212' of the first object frame 208 and used for the position update. It is advantageous to select the closest or best fitting first reference point 212, 212' for the update.
  • the fused probability can be used not only to weight the update, but also as a rejection criterion. If the fusion probability is too low, the update is performed with the center of the respective object frame with correspondingly high covariances.
  • Exemplary weights calculated by the PDA algorithm for each of the selected first reference points 212' are boxed in FIG. 4 with rectangles.
  • the preferred reference point 220 results here from the weighted sum of the innovation vectors. In this example, the preferred reference point 220 is assigned to the frame center of the first object frame 208 .
  • controller 106 may be configured to determine a speed of object 104 .
  • the bundling module 200 determines, based on the radar data 108, a radial or Doppler velocity v d and an associated azimuth angle ⁇ for at least two different reflection locations 110 of the detected object 104.
  • an angle parameter estimation module 222 based on the radial velocities v d and assigned to the object 104 Azimuth angles ⁇ parameters of a Doppler velocity profile are estimated, more precisely a first angle parameter C and a second angle parameter S of an angle function 223, which describes the radial velocity v d as a function of the azimuth angle ⁇ as a sinusoidal curve.
  • the angle parameters C,S can then be input into a speed estimation module 224 together with the orientation value ⁇ and pivot point coordinates x R ,y R of an estimated pivot point of the object 104, which can be estimated and provided, for example, by the object frame generation module 206, which consists of the variables mentioned
  • the speed of the object 104 is calculated, for example a translation speed v with a first speed component v x and a second speed component v y and/or a rotation speed ⁇ with respect to the rotation point coordinates x R ,y R .
  • the geometric variables used to determine the speed are illustrated in FIG.
  • control unit 106 can also include a control module 226, which can be configured to calculate from the estimated position, orientation and/or speed of the object 104, ie from the position values d x , d y , the orientation value ⁇ , the first Speed component v x , the second speed component v y and/or the rotational speed ⁇ to generate the control signal 116 and to output it to the actuator system 118 .
  • Control signal 116 can cause actuator system 118, for example, to accelerate, brake, and/or steer vehicle 100 in a corresponding manner.
  • the angle parameters C,S can be estimated from the radar data 108 if at least two reflection locations 110 of the object 104 were measured at different azimuth angles ⁇ .
  • the angle parameters C,S themselves have no physical meaning, but can be used, for example, to directly update a Kalman filter using an appropriate observation model, so that the observation model can estimate the full motion state of the tracked object 104 .
  • the velocity profile in the form of the angle function 223 describes the kinematic expansion of a single rigid body with multiple reflection locations 110 or a group of objects with an identical state of motion, for example a group of stationary objects, with at least two reflection locations 110.
  • the Doppler velocity v d is calculated via the azimuth angle ⁇ examined.
  • the measured velocity curve corresponds to a cosine curve with the two degrees of freedom amplitude and phase shift.
  • the equation for the measured velocity profile is:
  • the sought-after angle parameters C,S can be determined using the least
  • the covariance matrix is about the Jacobian matrix and the measured azimuth angle and Doppler velocity covariance matrix of the two extreme reflection locations through calculated. This formula is also known as the general law of error propagation.
  • p can be calculated directly from the angle parameters C,S, provided that only the two outermost reflection locations, i. H. the two reflection locations with the smallest and largest azimuth angle are taken into account.
  • the two resulting equations can be partially derived.
  • the mere number of reflection sites is not the decisive factor for the accuracy of the angle parameters C,S. Rather, it is decisive that the distance between the outermost places of reflection, i. H. the detected angular section, is large enough and that the measurement errors of azimuth angle and Doppler velocity are sufficiently low. Even if the angle section is relatively small and only a few reflection locations are measured, the angle parameter C can still be estimated relatively accurately if the respective object is placed in the center of the field of view of the radar sensor system 102 .
  • the object frame 208 or 210 is large enough and well aligned around the reflection locations 110, its orientation ⁇ can be used to calculate v x , v y and ⁇ directly from the pre-calculated angle parameters C,S. This is possible with just one radar sensor in just one measurement cycle.
  • the angle parameters C,S can be defined as follows:

Abstract

The present invention relates to a method for detecting objects (104) in the surroundings of a vehicle (100). The method comprises the following steps: receiving radar data (108) indicating the objects (104); determining a first object frame (208) for each object (104) on the basis of the radar data (108), wherein the first object frame (208) indicates a position (dx, dy) and/or orientation (φ) of the object (104), which are/is estimated over several time steps, and a position and/or orientation of the first object frame (208) is defined by a defined number of first reference points (212, 212') in a two-dimensional coordinate system (202); determining a second object frame (210) for each object (104) on the basis of the radar data (108), wherein the second object frame (210) indicates a position and/or orientation of the object (104), which are/is measured in a current time step, and a position and/or orientation of the second object frame (210) is defined by a defined number of second reference points (214) in the two-dimensional coordinate system (202); determining reference point pairs (216) each composed of one first reference point (212, 212') and one second reference point (214); determining a reference point distance between the first reference point (212, 212') and the second reference point (214) of each reference point pair (216); determining at least one preferred reference point (220) on the basis of the reference point distances; and updating the estimated position (dx, dy) and/or orientation (φ) of the object (104) on the basis of the at least one preferred reference point (220).

Description

Verfahren und Vorrichtung zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs Method and device for detecting objects in the surroundings of a vehicle
Gebiet der Erfindung field of invention
Die Erfindung betrifft ein Verfahren zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs. Des Weiteren betrifft die Erfindung eine Vorrichtung, ein Computerprogramm und ein computerlesbares Medium zum Ausführen des genannten Verfahrens. The invention relates to a method for detecting objects in the surroundings of a vehicle. Furthermore, the invention relates to a device, a computer program and a computer-readable medium for carrying out the method mentioned.
Stand der Technik State of the art
Zur Detektion von Objekten in einer Umgebung eines Fahrzeugs, etwa eines teiloder vollautomatisiert fahrenden Kraftfahrzeugs oder eines autonomen Roboters, kann beispielweise eine hochauflösende Radarsensorik eingesetzt werden. A high-resolution radar sensor system can be used, for example, to detect objects in the surroundings of a vehicle, such as a partially or fully automated motor vehicle or an autonomous robot.
Zur Verarbeitung der von der Radarsensorik erzeugten Radardaten können Tracking- Algorithmen wie beispielsweise Bayes- Filter, Partikel- Filter oder Kalman- Filter verwendet werden, die eine relativ genaue Schätzung eines jeweiligen Zustands der detektierten Objekte, etwa einer jeweiligen Position, Orientierung oder Geschwindigkeit relativ zum Fahrzeug, ermöglichen. Tracking algorithms such as Bayes filters, particle filters or Kalman filters can be used to process the radar data generated by the radar sensor system vehicle, allow.
Derartige Algorithmen können beispielsweise Rohdaten bezüglich einer Entfernung, einer Radialgeschwindigkeit und eines Azimutwinkels verarbeiten. Für eine hinreichend genaue Schätzung nicht direkt messbarer Größen wie Objektposition, Objektgeschwindigkeit oder Objektbeschleunigung sind in der Regel mehrere Messzyklen erforderlich. Dies kann insbesondere bei starken Änderungen des Bewegungszustands der Objekte zu entsprechenden Verzögerungen bei der Schätzung der genannten Größen führen. Such algorithms can, for example, process raw data relating to a distance, a radial velocity and an azimuth angle. Several measurement cycles are usually required for a sufficiently accurate estimate of quantities that cannot be measured directly, such as object position, object speed or object acceleration. This can lead to corresponding delays in the estimation of the variables mentioned, particularly in the event of major changes in the state of motion of the objects.
Um die geschätzte Position eines ausgedehnten Objekts aktualisieren zu können, ist in der Regel zunächst die Auswahl eines geeigneten Bezugspunkts erforderlich. Beispielsweise kann hierzu ein Mittelpunkt eines dem Objekt zugeordneten Punktclusters bestimmt werden und dieser Mittelpunkt als Bezugspunkt verwendet werden. In order to be able to update the estimated position of an extended object, the first step is usually to select a suitable reference point necessary. For example, a center point of a point cluster assigned to the object can be determined for this purpose and this center point can be used as a reference point.
Eine weitere Möglichkeit ist die Positionsschätzung mithilfe eines basierend auf den Radardaten gelernten Objektmodells, etwa eines Fahrzeugmodells. Siehe hierzu: A. Scheel and K. Dietmayer, “Tracking Multiple Vehicles Using a Variational Radar Model,” in IEEE Transactions on Intelligent Transportation Systems, vol. 2. Another possibility is position estimation using an object model, such as a vehicle model, learned from the radar data. See: A. Scheel and K. Dietmayer, "Tracking Multiple Vehicles Using a Variational Radar Model," in IEEE Transactions on Intelligent Transportation Systems, vol. 2.
Zur vollständigen Erfassung des Bewegungszustands der Objekte innerhalb eines Messzyklus können auch mehrere Radarsensoren mit überlappenden Erfassungsbereichen eingesetzt werden. Siehe hierzu: D. Kellner, M. Barjenbruch und J. Klappstein, „Instantane Bestimmung der vollständigen Objektbewegung ausgedehnter Objekte mittels hochauflösendem Radar“, 30. VDI/VW-Gemeinschaftskonferenz Fahrerassistenz und integrierte Sicherheit, 2014. Several radar sensors with overlapping detection areas can also be used to completely record the movement status of the objects within a measurement cycle. See: D. Kellner, M. Barjenbruch and J. Klappstein, "Instantaneous determination of the complete object movement of extended objects using high-resolution radar", 30th VDI/VW joint conference on driver assistance and integrated safety, 2014.
Offenbarung der Erfindung Disclosure of Invention
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs, eine Vorrichtung, ein Computerprogramm und ein computerlesbares Medium gemäß den unabhängigen Ansprüchen vorgestellt. Vorteilhafte Weiterbildungen und Verbesserungen des hier vorgestellten Ansatzes ergeben sich aus der Beschreibung und sind in den abhängigen Ansprüchen beschrieben. Against this background, with the approach presented here, a method for detecting objects in an area surrounding a vehicle, a device, a computer program and a computer-readable medium are presented according to the independent claims. Advantageous developments and improvements of the approach presented here result from the description and are described in the dependent claims.
Vorteile der Erfindung Advantages of the Invention
Ausführungsformen der vorliegenden Erfindung ermöglichen es in vorteilhafter Weise, Positionen von Objekten in der Umgebung eines Fahrzeugs unter Verwendung eines einzelnen Radarsensors mit hoher Genauigkeit und geringen Latenzen zu bestimmen. Advantageously, embodiments of the present invention make it possible to determine positions of objects in the vicinity of a vehicle using a single radar sensor with high accuracy and low latencies.
Ein erster Aspekt der Erfindung betrifft ein computerimplementiertes Verfahren zum Detektieren von Objekten in einer Umgebung eines Fahrzeugs. Das Verfahren umfasst zumindest die folgenden Schritte: Empfangen von die Objekte anzeigenden Radardaten; Bestimmen eines ersten Objektrahmens für jedes Objekt basierend auf den Radardaten, wobei der erste Objektrahmen eine über mehrere Zeitschritte geschätzte Position und/oder Orientierung des Objekts anzeigt und eine Position und/oder Orientierung des ersten Objektrahmens durch eine definierte Anzahl erster Referenzpunkte in einem zweidimensionalen Koordinatensystem festgelegt ist; Bestimmen eines zweiten Objektrahmens für jedes Objekt basierend auf den Radardaten, wobei der zweite Objektrahmen eine in einem aktuellen Zeitschritt gemessene Position und/oder Orientierung des Objekts anzeigt und eine Position und/oder Orientierung des zweiten Objektrahmens durch eine definierte Anzahl zweiter Referenzpunkte in dem zweidimensionalen Koordinatensystem festgelegt ist; Bestimmen von Referenzpunktpaaren aus je einem ersten Referenzpunkt und einem zweiten Referenzpunkt; Bestimmen eines Referenzpunktabstands zwischen dem ersten Referenzpunkt und dem zweiten Referenzpunkt eines jeden Referenzpunktpaares; Bestimmen mindestens eines bevorzugten Referenzpunkts basierend auf den Referenzpunktabständen; und Aktualisieren der geschätzten Position und/oder Orientierung des Objekts basierend auf dem mindestens einen bevorzugten Referenzpunkt. A first aspect of the invention relates to a computer-implemented method for detecting objects in an area surrounding a vehicle. That The method comprises at least the following steps: receiving radar data indicative of the objects; Determination of a first object frame for each object based on the radar data, wherein the first object frame indicates a position and/or orientation of the object estimated over several time steps and a position and/or orientation of the first object frame is defined by a defined number of first reference points in a two-dimensional coordinate system is; Determining a second object frame for each object based on the radar data, the second object frame indicating a position and/or orientation of the object measured in a current time step and a position and/or orientation of the second object frame by a defined number of second reference points in the two-dimensional coordinate system is fixed; Determination of pairs of reference points, each consisting of a first reference point and a second reference point; determining a reference point distance between the first reference point and the second reference point of each reference point pair; determining at least one preferred reference point based on the reference point distances; and updating the estimated position and/or orientation of the object based on the at least one preferred reference point.
Das Verfahren kann beispielsweise automatisch durch einen Prozessor ausgeführt werden. The method can be executed automatically by a processor, for example.
Die Radardaten können beispielsweise unter Verwendung einer Radarsensorik zum Erfassen der Umgebung des Fahrzeugs erzeugt worden sein. The radar data can have been generated, for example, using a radar sensor system for detecting the surroundings of the vehicle.
Das Fahrzeug kann ein Kraftfahrzeug, etwa in Form eines Pkw, Lkw, Busses oder eines Motorrads, sein. Im weiteren Sinn kann unter einem Fahrzeug auch ein autonomer, mobiler Roboter verstanden werden. Bei der Radarsensorik kann es sich beispielweise um einen einzelnen hochauflösenden Radarsensor handeln. Die Radarsensorik kann beispielsweise im Bereich eines vorderen oder hinteren Stoßfängers des Fahrzeugs positioniert sein. Möglich sind jedoch auch andere Einbauorte. Zusätzlich zur Radarsensorik kann das Fahrzeug beispielsweise weitere Umfeldsensoren wie etwa eine Kamera, einen Ultraschall- oder Lidarsensor, und/oder Fahrdynamiksensoren wie etwa einen Beschleunigungs-, Raddrehzahl- oder Lenkradwinkelsensor aufweisen. Ferner kann das Fahrzeug einen Ortungssensor zur Bestimmung einer absoluten Position des Fahrzeugs mithilfe eines globalen Navigationssatellitensystems wie GPS, GLONASS o. Ä. aufweisen. The vehicle may be an automobile, such as a car, truck, bus, or motorcycle. In a broader sense, a vehicle can also be understood as an autonomous, mobile robot. The radar sensor system can be, for example, a single high-resolution radar sensor. The radar sensor system can be positioned, for example, in the area of a front or rear bumper of the vehicle. However, other installation locations are also possible. In addition to the radar sensor system, the vehicle can, for example, have other surroundings sensors such as a camera, an ultrasonic or lidar sensor, and/or vehicle dynamics sensors such as an acceleration sensor, wheel speed sensor or steering wheel angle sensor. Furthermore, the vehicle can have a location sensor for determining an absolute Position of the vehicle using a global navigation satellite system such as GPS, GLONASS or similar. exhibit.
Es ist möglich, dass das Fahrzeug mit einem Fahrerassistenzsystem bzw. Robotersteuersystem zum teil- oder vollautomatisierten Ansteuern einer Aktorik des Fahrzeugs basierend auf den Radardaten ausgestattet ist. Das Fahrerassistenzsystem bzw. Robotersteuersystem kann als Hardware und/oder Software beispielsweise in einem Steuergerät des Fahrzeugs implementiert sein. Die Aktorik kann beispielsweise konfiguriert sein, um das Fahrzeug zu lenken, zu beschleunigen, abzubremsen und/oder zu navigieren. Hierzu kann die Aktorik beispielsweise einen Lenkaktor, einen Bremsaktor, ein Motorsteuergerät, einen Elektromotor oder eine Kombination aus zumindest zwei der genannten Beispiele umfassen. It is possible for the vehicle to be equipped with a driver assistance system or robot control system for partially or fully automated activation of an actuator system of the vehicle based on the radar data. The driver assistance system or robot control system can be implemented as hardware and/or software, for example in a control unit of the vehicle. The actuator system can be configured, for example, to steer, accelerate, brake and/or navigate the vehicle. For this purpose, the actuator can include, for example, a steering actuator, a brake actuator, an engine control unit, an electric motor or a combination of at least two of the examples mentioned.
Beispielsweise können basierend auf den Radardaten Reflexionsorte bestimmt werden, an denen durch die Radarsensorik ausgesandte Radarstrahlen reflektiert wurden. Hierzu können beispielsweise Peaks in einem durch (Fast-)Fouriertransformation der Radardaten erzeugten Frequenzspektrum detektiert werden. Die Reflexionsorte können beispielsweise durch einen Radialabstand, eine Radialgeschwindigkeit und/oder einen Azimutwinkel definiert sein. For example, based on the radar data, reflection locations can be determined, at which radar beams emitted by the radar sensor system were reflected. For this purpose, for example, peaks can be detected in a frequency spectrum generated by (fast) Fourier transformation of the radar data. The reflection locations can be defined, for example, by a radial distance, a radial speed and/or an azimuth angle.
Anschließend können die Reflexionsorte beispielsweise durch Bündelung bestimmten Objekten in der Umgebung des Fahrzeugs zugeordnet werden, was auch als Clustering bezeichnet werden kann. The reflection locations can then be assigned to specific objects in the area surrounding the vehicle, for example by bundling, which can also be referred to as clustering.
Die Objektrahmen können beispielsweise durch einen speziellen Objektrahmenerzeugungsalgorithmus erzeugt werden. Der Objektrahmenerzeugungsalgorithmus kann beispielsweise ein entsprechend trainierter Klassifikator sein, etwa ein künstliches neuronales Netz o. Ä. Möglich sind aber auch andere Arten von Algorithmen. Unter einem ersten bzw. zweiten Objektrahmen kann im Allgemeinen eine eine Außenkontur eines Objekts anzeigende Geometrie, etwa in Form eines Rechtecks, Parallelogramms, Trapezes o. Ä. verstanden werden. Es ist möglich, dass der erste bzw. zweite Objektrahmen zusätzlich zu den Außenkanten eine oder mehrere Innenkanten umfasst. Unter einem ersten bzw. zweiten Referenzpunkt kann beispielsweise ein Eckpunkt oder ein Mittelpunkt zwischen zwei Eckpunkten des ersten bzw. zweiten Objektrahmens verstanden werden. Dabei kann der Mittelpunkt ein Mittelpunkt einer Außenkante oder ein auf einer (eventuell gedachten) Diagonalen liegender Rahmenmittelpunkt des ersten bzw. zweiten Objektrahmens sein. The object frames can be generated, for example, by a special object frame generation algorithm. The object frame generation algorithm can be, for example, an appropriately trained classifier, such as an artificial neural network or the like. However, other types of algorithms are also possible. A geometry indicating an outer contour of an object, for example in the form of a rectangle, parallelogram, trapezium or the like, can generally be used under a first or second object frame. be understood. It is possible that the first or second object frame comprises one or more inner edges in addition to the outer edges. A first or second reference point can be understood, for example, as a corner point or a center point between two corner points of the first or second object frame. The center can This can be the center of an outer edge or a frame center of the first or second object frame lying on a (possibly imaginary) diagonal.
Um die Auswahl der Referenzpunkte zwischen dem (aus historischen Messwerten prädizierten) ersten Objektrahmen und dem (aktuell gemessenen) zweiten Objektrahmen zu ermöglichen, kann der erste Objektrahmen beispielsweise mit einem entsprechenden Dynamikmodell auf einen Messzeitpunkt des zweiten Objektrahmens prädiziert werden. Somit ist gewährleistet, dass der erste Objektrahmen und der zweite Objektrahmen bei der Zuordnung der Referenzpunkte den gleichen Zeitpunkt beschreiben. In order to enable the selection of the reference points between the first object frame (predicted from historical measured values) and the second object frame (currently measured), the first object frame can be predicted with a corresponding dynamic model for a measurement time of the second object frame, for example. This ensures that the first object frame and the second object frame describe the same point in time when the reference points are assigned.
Das zweidimensionale Koordinatensystem kann beispielsweise ein Fahrzeugkoordinatensystem des Fahrzeugs und/oder ein Sensorkoordinatensystem der Radarsensorik sein. Dabei kann der Ursprung des zweidimensionalen Koordinatensystems beispielsweise an einer Achse des Fahrzeugs oder einem Einbauort der Radarsensorik im Fahrzeug festgelegt sein. The two-dimensional coordinate system can be, for example, a vehicle coordinate system of the vehicle and/or a sensor coordinate system of the radar sensor system. In this case, the origin of the two-dimensional coordinate system can be fixed, for example, on an axis of the vehicle or an installation location of the radar sensor system in the vehicle.
Die geschätzte Position und/oder Orientierung des Objekts kann beispielsweise mithilfe eines Kalman- Filters oder eines sonstigen geeigneten Tracking- Filters oder Zustandsschätzers bestimmt werden. The estimated position and/or orientation of the object can be determined, for example, using a Kalman filter or any other suitable tracking filter or state estimator.
Beim Bestimmen der Referenzpunktpaare können beispielsweise nur bestimmte ausgewählte Referenzpunkte des ersten und zweiten Objektrahmens miteinander verknüpft werden. Insbesondere kann es sein, dass dabei nur diejenigen Referenzpunkte berücksichtigt werden, die von der Radarsensorik mit hinreichender Genauigkeit erfasst werden können. Bei den Referenzpunkten eines Referenzpunktpaares kann es sich beispielsweise um Referenzpunkte handeln, die an zueinander ähnlichen Stellen des ersten bzw. zweiten Objektrahmens angeordnet sind, beispielsweise an ähnlichen Ecken und/oder ähnlichen Kanten. Beispielsweise ist es möglich, dass ein erster Referenzpunkt in Form eines linken unteren Eckpunkts des ersten Objektrahmens nur mit einem zweiten Referenzpunkt in Form eines linken unteren Eckpunkts des zweiten Objektrahmens zu einem Referenzpunktpaar kombiniert wird usw. When determining the pairs of reference points, for example, only certain selected reference points of the first and second object frame can be linked to one another. In particular, it may be the case that only those reference points are taken into account that can be detected by the radar sensor system with sufficient accuracy. The reference points of a pair of reference points can, for example, be reference points which are arranged at similar locations on the first or second object frame, for example at similar corners and/or similar edges. For example, it is possible that a first reference point in the form of a lower left corner point of the first object frame is combined with a second reference point in the form of a lower left corner point of the second object frame to form a pair of reference points, etc.
Dementsprechend können der erste Objektrahmen und der zweite Objektrahmen jeweils gleich viele Referenzpunkte aufweisen. Bei dem Referenzpunktabstand kann es sich geometrisch gesehen um die Länge einer gedachten Verbindungslinie zwischen den Referenzpunkten eines Referenzpunktpaares handeln. Accordingly, the first object frame and the second object frame can each have the same number of reference points. From a geometric point of view, the distance between the reference points can be the length of an imaginary connecting line between the reference points of a pair of reference points.
Bei dem bevorzugten Referenzpunkt kann es sich beispielsweise um mindestens einen der beiden Referenzpunkte des Referenzpunktpaares mit dem geringsten Referenzpunktabstand, um einen vordefinierten Referenzpunkt aus einer Menge der ersten und/oder zweiten Referenzpunkte oder auch um einen neu definierten Referenzpunkt, der weder einer der ersten Referenzpunkte noch einer der zweiten Referenzpunkte ist, handeln. The preferred reference point can be, for example, at least one of the two reference points of the pair of reference points with the smallest reference point distance, a predefined reference point from a set of the first and/or second reference points, or a newly defined reference point that is neither one of the first reference points nor is one of the second reference points, act.
Zum Aktualisieren der geschätzten Position und/oder Orientierung des Objekts können beispielsweise die Koordinatenwerte des bevorzugten Referenzpunkts und/oder auf den Koordinatenwerten des bevorzugten Referenzpunkts basierende Positionswerte in den weiter oben erwähnten Kalman- Filter eingegeben werden. In diesem Fall kann beispielsweise zusätzlich ein dem bevorzugten Referenzpunkt zugeordneter Schätzfehler, etwa in Form einer Kovarianzmatrix, beispielsweise einer Messkovarianzmatrix, bestimmt werden. Die Aktualisierung der geschätzten Position und/oder Orientierung des Objekts kann dann zusätzlich basierend auf dem Schätzfehler erfolgen. To update the estimated position and/or orientation of the object, for example, the coordinate values of the preferred reference point and/or position values based on the coordinate values of the preferred reference point can be input into the above-mentioned Kalman filter. In this case, for example, an estimation error assigned to the preferred reference point, for example in the form of a covariance matrix, for example a measurement covariance matrix, can also be determined. The estimated position and/or orientation of the object can then also be updated based on the estimation error.
Der hier und im Folgenden beschriebene Ansatz ermöglicht die genaue und robuste Schätzung von Positionen von (ausgedehnten) Objekten in der Umgebung des Fahrzeugs, ohne dass hierzu mehrere Radarsensoren oder komplexe Modelle der zu detektierenden Objekte erforderlich sind, was zum einen die Herstellungskosten, zum anderen die Komplexität der technischen Umsetzung signifikant reduziert. Vorteilhaft ist außerdem, dass bereits mit einem einzigen Messzyklus eine hinreichend genaue Positionsschätzung sichergestellt werden kann, insbesondere auch dann, wenn sich die zu detektierenden Objekte stark in ihrer Größe unterscheiden. Dadurch können unerwünschte Verzögerungen bei der Objektdetektion und -Verfolgung vermieden werden. Zudem kann ein solches Verfahren als separates Modul unabhängig von etwaigen anderen Zustandsschätzern, etwa zum Schätzen von Geschwindigkeiten der Objekte, implementiert werden. The approach described here and below enables the accurate and robust estimation of positions of (extended) objects around the vehicle without the need for multiple radar sensors or complex models of the objects to be detected, which reduces the manufacturing costs on the one hand, and the Complexity of the technical implementation significantly reduced. It is also advantageous that a sufficiently accurate position estimation can be ensured with just a single measurement cycle, in particular when the objects to be detected differ greatly in size. This can avoid unwanted delays in object detection and tracking. In addition, such a method can be implemented as a separate module independently of any other state estimators, for example for estimating object speeds.
Ein zweiter Aspekt der Erfindung betrifft eine Vorrichtung zur Datenverarbeitung. Die Vorrichtung kann ein Computer, beispielsweise in Form eines Steuergeräts, eines Servers o. Ä., sein. Die Vorrichtung umfasst einen Prozessor, der konfiguriert ist, um das Verfahren gemäß einer Ausführungsform des ersten Aspekts der Erfindung auszuführen. Die Vorrichtung kann Hardware- und/oder Softwaremodule umfassen. Zusätzlich zum Prozessor kann die Vorrichtung einen Speicher und Datenkommunikationsschnittstellen zur Datenkommunikation mit Peripheriegeräten umfassen. Merkmale des Verfahrens gemäß einer Ausführungsform des ersten Aspekts der Erfindung können auch Merkmale der Vorrichtung sein und umgekehrt. A second aspect of the invention relates to a device for data processing. The device can be a computer, for example in the form of a control device, a server or the like. The device includes a processor that is configured to carry out the method according to an embodiment of the first aspect of the invention. The device may include hardware and/or software modules. In addition to the processor, the device may include memory and data communication interfaces for data communication with peripheral devices. Features of the method according to an embodiment of the first aspect of the invention can also be features of the device and vice versa.
Ein dritter Aspekt der Erfindung betrifft ein Computerprogramm. Das Computerprogramm umfasst Befehle, die einen Prozessor bei Ausführung des Computerprogramms durch den Prozessor veranlassen, das Verfahren gemäß einer Ausführungsform des ersten Aspekts der Erfindung auszuführen. A third aspect of the invention relates to a computer program. The computer program comprises instructions which, when the computer program is executed by the processor, cause a processor to carry out the method according to an embodiment of the first aspect of the invention.
Ein vierter Aspekt der Erfindung betrifft ein computerlesbares Medium, auf dem das Computerprogramm gemäß einer Ausführungsform des dritten Aspekts der Erfindung gespeichert ist. Das computerlesbare Medium kann ein flüchtiger oder nicht flüchtiger Datenspeicher sein. Beispielsweise kann das computerlesbare Medium eine Festplatte, ein USB-Speichergerät, ein RAM, ROM, EPROM oder Flash-Speicher sein. Das computerlesbare Medium kann auch ein einen Download eines Programmcodes ermöglichendes Datenkommunikationsnetzwerk wie etwa das Internet oder eine Datenwolke (Cloud) sein. A fourth aspect of the invention relates to a computer-readable medium on which the computer program according to an embodiment of the third aspect of the invention is stored. The computer-readable medium can be volatile or non-volatile data storage. For example, the computer-readable medium can be a hard drive, USB storage device, RAM, ROM, EPROM, or flash memory. The computer-readable medium can also be a data communication network such as the Internet or a data cloud (cloud) enabling a download of a program code.
Merkmale des Verfahrens gemäß einer Ausführungsform des ersten Aspekts der Erfindung können auch Merkmale des Computerprogramms und/oder des computerlesbaren Mediums sein und umgekehrt. Features of the method according to an embodiment of the first aspect of the invention can also be features of the computer program and/or the computer-readable medium and vice versa.
Ideen zu Ausführungsformen der vorliegenden Erfindung können unter anderem als auf den nachfolgend beschriebenen Gedanken und Erkenntnissen beruhend angesehen werden. Ideas for embodiments of the present invention can be regarded as being based, among other things, on the ideas and findings described below.
Gemäß einer Ausführungsform wurden die Radardaten unter Verwendung einer Radarsensorik zum Erfassen der Umgebung des Fahrzeugs erzeugt. Dabei wird mindestens eine der Radarsensorik zugewandte Kante des ersten Objektrahmens identifiziert und es werden ausgewählte erste Referenzpunkte bestimmt, die auf der mindestens einen der Radarsensorik zugewandten Kante des ersten Objektrahmens liegen. Die Referenzpunktpaare werden aus je einem ausgewählten ersten Referenzpunkt und einem zweiten Referenzpunkt gebildet. Eine der Radarsensorik zugewandte Kante kann beispielsweise basierend auf einer Position und/oder Orientierung der Kante relativ zur Radarsensorik, beispielsweise relativ zum Ursprung des zweidimensionalen Koordinatensystems, identifiziert werden. Die auf der identifizierten Kante oder den identifizierten Kanten liegenden ersten Referenzpunkte können beispielsweise Eckpunkte oder zwischen zwei Eckpunkten liegende Punkte, etwa Mittelpunkte, sein. Durch diese Ausführungsform kann sichergestellt werden, dass nur solche Referenzpunkte für die Aktualisierung der geschätzten Position und/oder Orientierung der Objekte verwendet werden, die tatsächlich in einem Erfassungsbereich der Radarsensorik liegen. Dadurch kann eine hohe Genauigkeit des Verfahrens erreicht werden. According to one specific embodiment, the radar data was generated using a radar sensor system for detecting the surroundings of the vehicle. At least one edge of the first object frame facing the radar sensor system is identified and selected first reference points are determined, which lie on the at least one edge of the first object frame facing the radar sensor system. The pairs of reference points are each formed from a selected first reference point and a second reference point. An edge facing the radar sensor system can be identified, for example, based on a position and/or orientation of the edge relative to the radar sensor system, for example relative to the origin of the two-dimensional coordinate system. The first reference points lying on the identified edge or the identified edges can be, for example, corner points or points lying between two corner points, for example midpoints. This specific embodiment makes it possible to ensure that only those reference points that are actually in a detection range of the radar sensor system are used for updating the estimated position and/or orientation of the objects. A high degree of accuracy of the method can thereby be achieved.
Gemäß einer Ausführungsform wird der bevorzugte Referenzpunkt aus dem Referenzpunktpaar mit dem geringsten Referenzpunktabstand ausgewählt. Anders ausgedrückt kann der bevorzugte Referenzpunkt aus denjenigen Referenzpunkten mit der größten Übereinstimmung ausgewählt oder bestimmt werden. Dadurch kann der bevorzugte Referenzpunkt mit wenigen, einfachen Rechenschritten ermittelt werden. According to one embodiment, the preferred reference point is selected from the pair of reference points with the smallest reference point distance. In other words, the preferred reference point can be selected or determined from those reference points with the greatest agreement. This allows the preferred reference point to be determined with a few simple calculation steps.
Gemäß einer Ausführungsform wird der geringste Referenzpunktabstand mit einem Schwellenwert verglichen. Dabei kann ein vordefinierter Referenzpunkt als der bevorzugte Referenzpunkt verwendet werden, wenn der geringste Referenzpunktabstand größer als der Schwellenwert ist. Der vordefinierte Referenzpunkt kann ein innerhalb des ersten bzw. zweiten Objektrahmens liegender Referenzpunkt sein, etwa ein Rahmenmittelpunkt oder (geschätzter) Drehpunkt des jeweiligen Objekts. Durch diese Ausführungsform kann vermieden werden, dass der bevorzugte Referenzpunkt basierend auf zu weit auseinanderliegenden ersten und zweiten Referenzpunkten bestimmt wird. Damit können gröbere Schätzfehler beim Aktualisieren der geschätzten Position und/oder Orientierung der Objekte vermieden werden. According to one embodiment, the smallest reference point distance is compared to a threshold value. A predefined reference point can be used as the preferred reference point if the smallest reference point distance is greater than the threshold value. The predefined reference point can be a reference point lying within the first or second object frame, for example a frame center point or (estimated) pivot point of the respective object. This embodiment can prevent the preferred reference point from being determined based on first and second reference points that are too far apart. Coarse estimation errors when updating the estimated position and/or orientation of the objects can thus be avoided.
Gemäß einer Ausführungsform ist der vordefinierte Referenzpunkt ein Mittelpunkt des ersten Objektrahmens und/oder des zweiten Objektrahmens. Somit kann die geschätzte Position und/oder Orientierung der Objekte auch dann noch mit hinreichender Genauigkeit aktualisiert werden, wenn sich keiner der ersten bzw. zweiten Referenzpunkte als der bevorzugte Referenzpunkt eignet. Es ist denkbar, dass der vordefinierte Referenzpunkt auch dann als der bevorzugte Referenzpunkt ausgewählt wird, wenn gleichzeitig mehrere der ersten bzw. zweiten Referenzpunkte als bevorzugte Referenzpunkte infrage kommen. According to one embodiment, the predefined reference point is a center point of the first object frame and/or the second object frame. The estimated position and/or orientation of the objects can thus be updated with sufficient accuracy even if none of the first or second reference points is suitable as the preferred reference point. It is conceivable that the predefined reference point is also selected as the preferred reference point when several of the first or second reference points come into question as preferred reference points at the same time.
Gemäß einer Ausführungsform wird ein Schätzfehler bezüglich der geschätzten Position und/oder Orientierung des Objekts abhängig von einer Position des bevorzugten Referenzpunkts an dem ersten Objektrahmen und/oder dem zweiten Objektrahmen bestimmt. Beispielsweise kann der Schätzfehler umso größer ausfallen, je weiter der bevorzugte Referenzpunkt von der Radarsensorik, etwa vom Ursprung des zweidimensionalen Koordinatensystems, entfernt ist. Ähnlich wie bereits weiter oben beschrieben, kann hierzu beispielsweise bestimmt werden, ob der bevorzugte Referenzpunkt auf einer der Radarsensorik zugewandten oder abgewandten Kante liegt und/oder ein Eckpunkt, ein Außenkantenmittelpunkt oder ein Rahmenmittelpunkt des jeweiligen Objektrahmens ist. Dadurch kann der Schätzfehler mit einfachen Mitteln und hinreichender Genauigkeit ermittelt werden. According to one embodiment, an estimation error with regard to the estimated position and/or orientation of the object is determined as a function of a position of the preferred reference point on the first object frame and/or the second object frame. For example, the estimation error can turn out to be greater the further away the preferred reference point is from the radar sensor system, for example from the origin of the two-dimensional coordinate system. As already described above, it can be determined, for example, whether the preferred reference point is on an edge facing or facing away from the radar sensor system and/or is a corner point, an outer edge center point or a frame center point of the respective object frame. As a result, the estimation error can be determined using simple means and with sufficient accuracy.
Gemäß einer Ausführungsform wird ein kleinerer Schätzfehler bestimmt, wenn der bevorzugte Referenzpunkt ein Eckpunkt ist, und ein größerer Schätzfehler bestimmt wird, wenn der bevorzugte Referenzpunkt kein Eckpunkt ist. Unter der Annahme, dass die Radarsensorik Eckpunkte in der Regel sehr genau erfasst, kann der Schätzfehler auf diese Weise sehr einfach ermittelt werden. According to one embodiment, a smaller estimation error is determined when the preferred reference point is a corner point and a larger estimation error is determined when the preferred reference point is not a corner point. Assuming that the radar sensor system usually detects corner points very precisely, the estimation error can be determined very easily in this way.
Gemäß einer Ausführungsform werden die Referenzpunktabstände mit Wahrscheinlichkeiten gewichtet. Dabei wird der bevorzugte Referenzpunkt basierend auf einer Summe der mit den Wahrscheinlichkeiten gewichteten Referenzpunktabstände bestimmt. Dadurch kann die Zuverlässigkeit des Verfahrens weiter erhöht werden, insbesondere in Fällen, in denen zur Bestimmung des bevorzugten Referenzpunkts entweder keiner der ersten bzw. zweiten Referenzpunkte infrage käme oder mehrere konkurrierende erste bzw. zweite Referenzpunkte infrage kämen. According to one embodiment, the reference point distances are weighted with probabilities. The preferred reference point is determined based on a sum of the reference point distances weighted with the probabilities. As a result, the reliability of the method can be further increased, particularly in cases in which either none of the first or second reference points would come into question for determining the preferred reference point, or several competing first or second reference points would come into question.
Gemäß einer Ausführungsform werden für jedes Objekt mindestens drei Referenzpunktpaare bestimmt. Dadurch kann die Wahrscheinlichkeit dafür, dass ein geeigneter bevorzugter Referenzpunkt aus den ersten bzw. zweiten Referenzpunkten bestimmt werden kann, im Vergleich zu Ausführungen, bei denen weniger als drei Referenzpunktpaare für jedes Objekt bestimmt werden, deutlich erhöht werden. According to one embodiment, at least three pairs of reference points are determined for each object. As a result, the probability that a suitable preferred reference point can be determined from the first or second reference points can be increased compared to embodiments where fewer than three pairs of reference points are determined for each object, can be significantly increased.
Gemäß einer Ausführungsform sind die ersten Referenzpunkte Eckpunkte des ersten Objektrahmens und die zweiten Referenzpunkte Eckpunkte des zweiten Objektrahmens. Dabei werden die Referenzpunktpaare aus je einem Eckpunkt des ersten Objektrahmens und einem korrespondierenden Eckpunkt des zweiten Objektrahmens gebildet. Zusätzlich oder alternativ können die ersten Referenzpunkte Mittelpunkte zwischen zwei Eckpunkten des ersten Objektrahmens und die zweiten Referenzpunkte Mittelpunkte zwischen zwei Eckpunkten des zweiten Objektrahmens sein. Dabei können die Referenzpunktpaare aus je einem Mittelpunkt des ersten Objektrahmens und einem korrespondierenden Mittelpunkt des zweiten Objektrahmens gebildet werden. Dadurch können Abweichungen zwischen der geschätzten und gemessenen Position bzw. Orientierung des Objekts mit verhältnismäßig geringem Rechenaufwand bestimmt werden. According to one embodiment, the first reference points are corner points of the first object frame and the second reference points are corner points of the second object frame. The pairs of reference points are each formed from a corner point of the first object frame and a corresponding corner point of the second object frame. Additionally or alternatively, the first reference points can be midpoints between two corner points of the first object frame and the second reference points can be midpoints between two corner points of the second object frame. In this case, the pairs of reference points can each be formed from a center point of the first object frame and a corresponding center point of the second object frame. As a result, deviations between the estimated and measured position or orientation of the object can be determined with relatively little computing effort.
Gemäß einer Ausführungsform umfasst das Verfahren ferner: Bestimmen einer Radialgeschwindigkeit und eines Azimutwinkels für mindestens zwei Reflexionsorte eines jeden Objekts basierend auf den Radardaten; Bestimmen geschätzter Winkelparameter einer Winkelfunktion, die die Radialgeschwindigkeit abhängig von dem Azimutwinkel beschreibt, wobei die geschätzten Winkelparameter für jedes Objekt basierend auf den dem Objekt zugeordneten Radialgeschwindigkeiten und Azimutwinkeln bestimmt werden; Bestimmen eines geschätzten Drehpunkts für jedes Objekt basierend auf den Radardaten; Bestimmen einer Geschwindigkeit für jedes Objekt als Funktion der geschätzten Orientierung, des geschätzten Drehpunkts und der geschätzten Winkelparameter des Objekts. Unter einem Azimutwinkel kann ein Winkel zwischen einem Vektor der Radialgeschwindigkeit und einer Bezugsachse des zweidimensionalen Koordinatensystems verstanden werden. Als Winkelfunktion kann beispielsweise die folgende Funktion, auch Dopplerprofil genannt, verwendet werden: vd = C cos(θ) + S sin(θ). Theoretisch sind aber auch anderslautende Winkelfunktionen denkbar. Dabei steht C für einen ersten Winkelparameter, S für einen zweiten Winkelparameter, vd für die Radial- oder Dopplergeschwindigkeit und θ für den Azimutwinkel. Die Winkelparameter können beispielsweise über die Methode der kleinsten Quadrate oder eine sonstige geeignete Optimierungsmethode aus einer Mehrzahl von Radialgeschwindigkeits- und Azimutwinkelwerten je Objekt berechnet werden. Diese Ausführungsform ermöglicht die schnelle und genaue Berechnung der Geschwindigkeiten der Objekte unter Verwendung eines einzelnen Radarsensors. Insbesondere können die Geschwindigkeiten der Objekte mit hinreichender Genauigkeit berechnet werden, ohne dass hierdurch unerwünschte Verzögerungen bei der Aktualisierung des jeweiligen Objektzustands der Objekte auftreten. According to one embodiment, the method further includes: determining a radial velocity and an azimuth angle for at least two reflection locations of each object based on the radar data; Determining estimated angle parameters of an angle function that describes the radial speed as a function of the azimuth angle, the estimated angle parameters for each object being determined based on the radial speeds and azimuth angles assigned to the object; determining an estimated pivot point for each object based on the radar data; determining a velocity for each object as a function of the estimated orientation, pivot point, and angular parameters of the object. An azimuth angle can be understood as an angle between a vector of the radial velocity and a reference axis of the two-dimensional coordinate system. For example, the following function, also known as the Doppler profile, can be used as the angular function: v d =C cos(θ)+S sin(θ). Theoretically, however, different trigonometric functions are also conceivable. Where C stands for a first angle parameter, S for a second angle parameter, v d for the radial or Doppler velocity and θ for the azimuth angle. The angle parameters can be calculated, for example, using the least squares method or another suitable optimization method from a plurality of radial velocity and azimuth angle values for each object. This embodiment enables fast and accurate Calculation of object speeds using a single radar sensor. In particular, the speeds of the objects can be calculated with sufficient accuracy without undesired delays occurring as a result when updating the respective object state of the objects.
Gemäß einer Ausführungsform wird zum Bestimmen der Geschwindigkeit mindestens einer der folgenden Berechnungsschritte ausgeführt: According to one embodiment, at least one of the following calculation steps is carried out to determine the speed:
- Berechnen einer ersten Geschwindigkeitskomponente mit
Figure imgf000013_0001
- Calculating a first velocity component with
Figure imgf000013_0001
Berechnen einer zweiten Geschwindigkeitskomponente mit
Figure imgf000013_0002
Calculate a second velocity component with
Figure imgf000013_0002
Berechnen einer Drehgeschwindigkeit bezüglich des geschätzten Drehpunkts des Objekts mit
Figure imgf000013_0003
Calculating a rotational speed with respect to the estimated pivot point of the object
Figure imgf000013_0003
Dabei steht x)x für die erste Geschwindigkeitskomponente, vy für die zweite Geschwindigkeitskomponente, ω für die Drehgeschwindigkeit, where x) x stands for the first velocity component, v y for the second velocity component, ω for the rotational velocity,
C für einen ersten Winkelparameter der Winkelfunktion, C for a first angle parameter of the angle function,
S für einen zweiten Winkelparameter der Winkelfunktion, φ für die geschätzte Orientierung des Objekts, xR für eine x- Koordinate des geschätzten Drehpunkts des Objekts und yR für eine y- Koordinate des geschätzten Drehpunkts des Objekts. S for a second angle parameter of the angle function, φ for the estimated orientation of the object, x R for an x-coordinate of the estimated pivot point of the object, and y R for a y-coordinate of the estimated pivot point of the object.
Durch diese Ausführungsform kann die Berechnung der Geschwindigkeit(en) eines jeden delektierten Objekts besonders effizient erfolgen. This embodiment allows the speed(s) of each detected object to be calculated particularly efficiently.
Zur Bestimmung des Bewegungszustandes des Objekts kann zusätzlich ein entsprechender Geschwindigkeitsschätzfehler, etwa in Form einer Kovarianzmatrix für mindestens eine der genannten Geschwindigkeiten, berechnet und berücksichtigt werden. In order to determine the state of motion of the object, a corresponding speed estimation error, for example in the form of a Covariance matrix for at least one of the above speeds are calculated and taken into account.
Kurze Beschreibung der Zeichnungen Brief description of the drawings
Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, wobei weder die Zeichnungen noch die Beschreibung als die Erfindung einschränkend auszulegen sind. Embodiments of the invention are described below with reference to the accompanying drawings, neither the drawings nor the description being to be construed as limiting the invention.
Fig. 1 zeigt schematisch ein Fahrzeug mit einem Steuergerät gemäß einem Ausführungsbeispiel der Erfindung. 1 schematically shows a vehicle with a control device according to an exemplary embodiment of the invention.
Fig. 2 zeigt schematisch verschiedene Module des Steuergeräts aus Fig. 1. Fig. 2 schematically shows different modules of the control unit from Fig. 1.
Fig. 3 zeigt ein Koordinatensystem mit Objektrahmen, die durch das Steuergerät aus Fig. 1 erzeugt wurden. FIG. 3 shows a coordinate system with object frames that were generated by the control device from FIG.
Fig. 4 zeigt ein Koordinatensystem mit Objektrahmen, die durch das Steuergerät aus Fig. 1 erzeugt wurden. FIG. 4 shows a coordinate system with object frames that were generated by the control device from FIG.
Fig. 5 zeigt ein Diagramm zur Veranschaulichung geometrischer Größen, wie sie zur Objektdetektion in einem Verfahren gemäß einem Ausführungsbeispiel der Erfindung verwendet werden. FIG. 5 shows a diagram to illustrate geometric quantities such as are used for object detection in a method according to an embodiment of the invention.
Die Figuren sind lediglich schematisch und nicht maßstabsgetreu. Gleiche Bezugszeichen bezeichnen in den Figuren gleiche oder gleichwirkende Merkmale. The figures are merely schematic and not true to scale. In the figures, the same reference symbols denote the same features or features that have the same effect.
Ausführungsformen der Erfindung Embodiments of the invention
Fig. 1 zeigt ein Fahrzeug 100 mit einer Radarsensorik 102 zum Erfassen von Objekten 104 in einer Umgebung des Fahrzeugs 100, hier beispielhaft eines vorausfahrenden Fahrzeugs 104, und einem Steuergerät 106 zum Auswerten von durch die Radarsensorik 102 erzeugten Radardaten 108. Die Radarsensorik 102 sendet Radarstrahlen 109 aus, die an mehreren Reflexionsorten 110 des vorausfahrenden Fahrzeugs 104, etwa an dessen Heck und/oder dessen Hinterachse, auftreffen und von dort teilweise zurück zur Radarsensorik 102 reflektiert werden. Dabei können die Radardaten 108 durch eine entsprechende Vorverarbeitung des reflektierten Anteils der Radarstrahlen 109, beispielsweise durch Demodulation, Verstärkung und/oder Digitalisierung, erzeugt werden. Das Steuergerät 106 ist konfiguriert, um ein im Folgenden näher beschriebenes Verfahren zur Detektion des Objekts 104 basierend auf den Radardaten 108 auszuführen. Hierzu umfasst das Steuergerät 106 einen Speicher 112, auf dem ein Computerprogramm gespeichert ist, sowie einen Prozessor 114 zum Ausführen des Computerprogramms, wobei das genannte Verfahren durch Ausführen des Computerprogramms ausgeführt werden kann. Fig. 1 shows a vehicle 100 with a radar sensor system 102 for detecting objects 104 in an area surrounding the vehicle 100, here by way of example a vehicle driving ahead 104, and a control unit 106 for evaluating radar data 108 generated by the radar sensor system 102. The radar sensor system 102 transmits radar beams 109 from which at several reflection sites 110 of the preceding vehicle 104, such as at its rear and / or its Rear axle, and from there are partially reflected back to the radar sensor system 102. The radar data 108 can be generated by appropriate pre-processing of the reflected portion of the radar beams 109, for example by demodulation, amplification and/or digitization. Control unit 106 is configured to carry out a method, which is described in more detail below, for detecting object 104 based on radar data 108 . To this end, control unit 106 includes a memory 112 on which a computer program is stored, and a processor 114 for executing the computer program, it being possible for the method mentioned to be carried out by executing the computer program.
Es ist möglich, dass das Steuergerät 106 basierend auf den Radardaten 108 ein Steuersignal 116 zum automatisierten Ansteuern einer Aktorik 118 des Fahrzeugs 100 erzeugt, etwa eines Lenk- oder Bremsaktors, eines Motorsteuergeräts oder eines Elektromotors des Fahrzeugs 100. Beispielsweise kann das Fahrzeug 100 hierzu mit einer geeigneten Fahrerassistenzfunktion ausgestattet sein, die in das Steuergerät 106 integriert sein kann. Alternativ kann es sich bei dem Fahrzeug 100 um einen autonomen Roboter mit einem geeigneten Robotersteuerprogramm zum automatisierten Ansteuern der Aktorik 118 handeln. It is possible for control unit 106, based on radar data 108, to generate a control signal 116 for automatically activating an actuator system 118 of vehicle 100, such as a steering or brake actuator, an engine control unit, or an electric motor of vehicle 100. For example, vehicle 100 can be equipped with a suitable driver assistance function, which can be integrated into control unit 106 . Alternatively, vehicle 100 can be an autonomous robot with a suitable robot control program for automatically controlling actuator system 118 .
Fig. 2 zeigt verschiedene Module des Steuergeräts 106. Dabei kann es sich um Hardware- und/oder Softwaremodule handeln. 2 shows various modules of control unit 106. These can be hardware and/or software modules.
Die Radardaten 108 werden zunächst in einem Bündelungsmodul 200 empfangen. Das Bündelungsmodul 200 kann beispielsweise konfiguriert sein, um die Reflexionsorte 110 basierend auf den Radardaten 108 als Punkte in einem zweidimensionalen Koordinatensystem 202 zu verorten und diese Punkte zu Clustern zu bündeln, die je einem erfassten Objekt 104, hier dem vorausfahrenden Fahrzeug 104, zugeordnet sind. Das Koordinatensystem 202 kann beispielsweise ein Sensorkoordinatensystem der Radarsensorik 102 sein, dessen Ursprung am Einbauort der Radarsensorik 102 fixiert sein kann. Beispielhaft erstreckt sich die x-Achse des Koordinatensystems 202 hier in Längsrichtung des Fahrzeugs 100. Als Ergebnis einer solchen Bündelung, auch Clustering genannt, erzeugt das Bündelungsmodul 200 entsprechende Clusterdaten 204 und gibt diese an ein Objektrahmenerzeugungsmodul 206 aus. In dem Objektrahmenerzeugungsmodul 206 werden die Clusterdaten 204 in einen Objektrahmenerzeugungsalgorithmus eingegeben, der konfiguriert sein kann, um aus den Clusterdaten 204 für jedes Objekt 104 einen ersten Objektrahmen 208 und einen zweiten Objektrahmen 210 zu erzeugen. Beispielsweise kann es sich bei dem Objektrahmenerzeugungsalgorithmus um einen entsprechend trainierten Klassifikator, etwa in Form eines künstlichen neuronalen Netzes, handeln. The radar data 108 are first received in a bundling module 200 . The bundling module 200 can be configured, for example, to locate the reflection sites 110 based on the radar data 108 as points in a two-dimensional coordinate system 202 and to bundle these points into clusters, each of which is associated with a detected object 104, here the vehicle 104 driving ahead. The coordinate system 202 can be, for example, a sensor coordinate system of the radar sensor system 102, the origin of which can be fixed at the installation site of the radar sensor system 102. As an example, the x-axis of the coordinate system 202 extends in the longitudinal direction of the vehicle 100 here. In the object frame generation module 206 , the cluster data 204 is input to an object frame generation algorithm that may be configured to generate a first object frame 208 and a second object frame 210 for each object 104 from the cluster data 204 . For example, the object frame generation algorithm can be an appropriately trained classifier, for example in the form of an artificial neural network.
Der erste Objektrahmen 208 zeigt dabei eine über mehrere Zeitschritte durch einen Zustandsschätzer (nicht gezeigt) geschätzte Position und/oder Orientierung des Objekts 104 an. Der Zustandsschätzer kann beispielsweise ein Kalman-Filter sein oder auf einem Kalman-Filter basieren. In diesem Beispiel wird der erste Objektrahmen 208 in Form eines Rechtecks erzeugt, dessen Position und/oder Orientierung in dem Koordinatensystem 202 durch eine definierte Anzahl erster Referenzpunkte 212, hier durch neun erste Referenzpunkte 212, festgelegt ist (in Fig. 2 mit fetten Punkten markiert). The first object frame 208 indicates a position and/or orientation of the object 104 estimated over several time steps by a state estimator (not shown). The state estimator can be a Kalman filter, for example, or can be based on a Kalman filter. In this example, the first object frame 208 is generated in the form of a rectangle whose position and/or orientation in the coordinate system 202 is defined by a defined number of first reference points 212, here by nine first reference points 212 (marked in bold in Fig. 2 ).
Der zweite Objektrahmen 210 zeigt hingegen eine in einem aktuellen Zeitschritt durch die Radarsensorik 102 gemessene Position und/oder Orientierung des Objekts 104 an. Analog zum ersten Objektrahmen 208 wird der zweite Objektrahmen 210 in diesem Beispiel ebenfalls in Form eines Rechtecks erzeugt, dessen Position und/oder Orientierung in dem Koordinatensystem 202 durch eine definierte Anzahl zweiter Referenzpunkte 214, hier durch neun zweite Referenzpunkte 214, festgelegt ist (in Fig. 2 mit Kreuzen markiert). Anders ausgedrückt können der erste Objektrahmen 208 und der zweite Objektrahmen 210 eine identische Anzahl an Referenzpunkten 212 bzw. 214 aufweisen. Second object frame 210, on the other hand, indicates a position and/or orientation of object 104 measured by radar sensor system 102 in a current time step. Analogously to the first object frame 208, the second object frame 210 is also generated in this example in the form of a rectangle whose position and/or orientation in the coordinate system 202 is defined by a defined number of second reference points 214, here by nine second reference points 214 (in Fig 2 marked with crosses). In other words, the first object frame 208 and the second object frame 210 can have an identical number of reference points 212 and 214, respectively.
Wie in Fig. 2, Fig. 3 und Fig. 4 beispielhaft gezeigt, kann es sich bei den Referenzpunkten 212 bzw. 214 um Eckpunkte, Außenkantenmittelpunkte oder Rahmenmittelpunkte des ersten Objektrahmens 208 bzw. des zweiten Objektrahmens 210 handeln. Je nach Form des ersten Objektrahmens 208 bzw. des zweiten Objektrahmens 210 sind aber auch andere Arten von Referenzpunkten 212 bzw. 214 möglich. As shown by way of example in FIGS. 2 , 3 and 4 , the reference points 212 or 214 can be corner points, outer edge centers or frame centers of the first object frame 208 or the second object frame 210 . Depending on the shape of the first object frame 208 or the second object frame 210, however, other types of reference points 212 or 214 are also possible.
Nach dem Generieren der Objektrahmen 208, 210 bestimmt das Objektrahmenerzeugungsmodul 206 mehrere Referenzpunktpaare 216 aus je einem ersten Referenzpunkt 212 und einem zweiten Referenzpunkt 214. Dabei können die ersten Referenzpunkte 212 jeweils mit einem ähnlich positionierten zweiten Referenzpunkt 214 verknüpft werden, wie in Fig. 2 schematisch angedeutet. After the object frames 208, 210 have been generated, the object frame generation module 206 determines a plurality of reference point pairs 216, each consisting of a first reference point 212 and a second reference point 214. The first reference points 212 can each have a similarly positioned second reference point 214, as indicated schematically in FIG.
Anschließend werden Referenzpunktabstände zwischen den beiden Referenzpunkten 212, 214 eines jeden Referenzpunktpaares 216 durch das Objektrahmenerzeugungsmodul 206 bestimmt. Die Referenzpunktabstände können beispielsweise jeweils als Länge einer (gedachten) geraden Verbindungslinie (in Fig. 2 als gestrichelte Linie eingezeichnet) zwischen den jeweiligen Referenzpunkten 212, 214 berechnet werden. Reference point distances between the two reference points 212, 214 of each reference point pair 216 are then determined by the object frame generation module 206. The reference point distances can be calculated, for example, in each case as the length of an (imaginary) straight connecting line (shown as a dashed line in FIG. 2) between the respective reference points 212, 214.
In Abhängigkeit von den Referenzpunktabständen bestimmt das Objektrahmenerzeugungsmodul 206 dann einen oder mehrere bevorzugte Referenzpunkte 220. Beispielsweise kann der erste Referenzpunkt 212 bzw. der zweite Referenzpunkt 214 des Referenzpunktpaares 216 mit dem geringsten Referenzpunktabstand als der bevorzugte Referenzpunkt 220 ausgewählt werden. Möglich sind aber auch andere Auswahlverfahren, wie weiter unten näher beschrieben. Depending on the reference point distances, the object frame generation module 206 then determines one or more preferred reference points 220. For example, the first reference point 212 or the second reference point 214 of the reference point pair 216 with the smallest reference point distance can be selected as the preferred reference point 220. However, other selection methods are also possible, as described in more detail below.
Anhand des bevorzugten Referenzpunkts 220 aktualisiert der Zustandsschätzer schließlich die geschätzte Position und/oder Orientierung des Objekts 104 und gibt entsprechend aktualisierte Positionswerte dx,dy für die Position des Objekts 104 und/oder einen entsprechend aktualisierten Orientierungswert φ für die Orientierung des Objekts 104 aus. Based on the preferred reference point 220, the state estimator finally updates the estimated position and/or orientation of the object 104 and outputs correspondingly updated position values d x ,d y for the position of the object 104 and/or a correspondingly updated orientation value φ for the orientation of the object 104 .
Um den ersten Objektrahmen 208 bzw. den zweiten Objektrahmen 210 erzeugen zu können, sollten mindestens drei Reflexionsorte 110 für das Objekt 104 bestimmt werden. Der erste Objektrahmen 208 bzw. der zweite Objektrahmen 210 kann dann um diese mindestens drei Reflexionsorte 110 gelegt werden. In order to be able to generate the first object frame 208 or the second object frame 210, at least three reflection locations 110 for the object 104 should be determined. The first object frame 208 or the second object frame 210 can then be placed around these at least three reflection locations 110 .
Das Objektrahmenerzeugungsmodul 206 kann konfiguriert sein, um Eckpunkte und/oder Mittelpunkte zwischen zwei Eckpunkten, d. h. Kantenmittelpunkte oder Rahmenmittelpunkte, als Referenzpunkte 212 bzw. 214 zu bestimmen (siehe auch Fig. 3 und Fig. 4). The object frame generation module 206 may be configured to generate vertices and/or midpoints between two vertices, i. H. Edge midpoints or frame midpoints to be determined as reference points 212 and 214, respectively (see also Fig. 3 and Fig. 4).
Da der Radarsensorik 102 zugewandte Objektkanten des Objekts 104 in der Regel besonders zuverlässig erkannt werden können, ist es vorteilhaft, wenn das Objektrahmenerzeugungsmodul 206 der Radarsensorik 102 zugewandte Kanten des ersten Objektrahmens 208 identifiziert, beispielsweise anhand deren jeweiliger Position und/oder Orientierung relativ zur Radarsensorik 102, und ausgewählte erste Referenzpunkte 212’ bestimmt, die auf diesen identifizierten Kanten liegen (in Fig. 3 und Fig. 4 mit fetten Linien markiert). Bei den als zugewandt identifizierten Kanten kann es sich etwa um zwei Kanten handeln, die an einem der Radarsensorik 102 nächstliegenden Eckpunkt des ersten Objektrahmens 208 Zusammenstößen. Beispielsweise kann das Objektrahmenerzeugungsmodul 206 mindestens drei ausgewählte erste Referenzpunkte 212’ für das Objekt 104 bestimmen. In diesem Beispiel (siehe Fig. 3 und Fig. 4) werden die zwei äußersten ersten Referenzpunkte 212, die zwar auf den der Radarsensorik 102 zugewandten Kanten liegen, aber am weitesten von der Radarsensorik 102 entfernt sind und folglich weniger zuverlässig erfasst werden können, verworfen. Für den Fall, dass nur eine Kante des ersten Objektrahmens 208 als der Radarsensorik 102 zugewandt erkannt wird, beispielsweise wenn das Objekt 104 in geringem Abstand quer zum Fahrzeug 100 ausgerichtet ist, können jedoch auch beide Eckpunkte dieser Kante als ausgewählte erste Referenzpunkte 212’ bestimmt werden. Auf diese Weise wird sichergestellt, dass immer drei Referenzpunkte 212’ als Kandidaten für die Aktualisierung der geschätzten Position und/oder Orientierung des Objekts 104 ausgewählt werden. Since object edges of object 104 facing radar sensor system 102 can generally be detected particularly reliably, it is advantageous if object frame generation module 206 identifies edges of first object frame 208 facing radar sensor system 102, for example based on their respective position and/or orientation relative to the radar sensor system 102, and selected first reference points 212' are determined which lie on these identified edges (marked with bold lines in FIGS. 3 and 4). The edges identified as facing can be, for example, two edges that collide at a corner point of the first object frame 208 that is closest to the radar sensor system 102 . For example, the object frame generation module 206 can determine at least three selected first reference points 212 ′ for the object 104 . In this example (see FIGS. 3 and 4), the two outermost first reference points 212, which lie on the edges facing radar sensor system 102 but are furthest away from radar sensor system 102 and can therefore be detected less reliably, are discarded . In the event that only one edge of first object frame 208 is detected as facing radar sensor system 102, for example if object 104 is aligned at a small distance transversely to vehicle 100, both corner points of this edge can also be determined as selected first reference points 212' . This ensures that three reference points 212 ′ are always selected as candidates for updating the estimated position and/or orientation of the object 104 .
Der bevorzugte Referenzpunkt 220 kann anhand der Referenzpunkte 212’ bzw. The preferred reference point 220 can be determined using the reference points 212' or
214 beispielsweise folgendermaßen ausgewählt werden. 214 can be selected, for example, as follows.
Zunächst werden drei Referenzpunktpaare 216 aus je einem der ausgewählten ersten Referenzpunkte 212’ und einem der zweiten Referenzpunkte 214 gebildet. Dabei werden nur gleichartige Referenzpunkte miteinander kombiniert. First, three pairs of reference points 216 are formed from one each of the selected first reference points 212' and one of the second reference points 214. Only reference points of the same type are combined with one another.
Beispielsweise wird der linke, hintere Eckpunkt des ersten Objektrahmens 208 mit dem linken, hinteren Eckpunkt des zweiten Objektrahmens 210 kombiniert usw. Anschließend werden die entsprechenden Referenzpunktabstände bestimmt. Die Referenzpunkte 212’, 214, die am nächsten beieinander liegen, werden schließlich für die Aktualisierung ausgewählt (in Fig. 3 und Fig. 4 mit kleinen Kreisen markiert). For example, the left, rear corner point of the first object frame 208 is combined with the left, rear corner point of the second object frame 210, etc. The corresponding reference point distances are then determined. The reference points 212', 214 that are closest to each other are finally selected for update (marked with small circles in Figures 3 and 4).
Es ist möglich, dass ein vordefinierter Referenzpunkt ausgewählt wird, wenn der Referenzpunktabstand der ausgewählten Referenzpunkte 212’, 214 einen bestimmten Schwellenwert überschreitet. Der vordefinierte Referenzpunkt kann beispielsweise ein Rahmenmittelpunkt des ersten Objektrahmens 208 bzw. des zweiten Objektrahmens 210 sein. Nach der Auswahl des bevorzugten Referenzpunkts 220 kann zusätzlich ein Schätzfehler in Form einer Kovarianzmatrix berechnet werden. Der Schätzfehler kann in Abhängigkeit von einer jeweiligen Position des bevorzugten Referenzpunkts 220 erfolgen. Hierbei können drei Fälle unterschieden werden. It is possible for a predefined reference point to be selected if the reference point spacing of the selected reference points 212', 214 exceeds a specific threshold value. The predefined reference point can be a frame center point of the first object frame 208 or of the second object frame 210, for example. After selecting the preferred reference point 220, an estimation error can also be calculated in the form of a covariance matrix. The estimation error can occur depending on a respective position of the preferred reference point 220 . Three cases can be distinguished here.
Im ersten Fall ist der bevorzugte Referenzpunkt 220 ein Eckpunkt. Es wird angenommen, dass dessen Position relativ genau erfasst wurde. Dementsprechend wird eine kreisförmige Kovarianz K geringer Größe bestimmt. In the first case, the preferred reference point 220 is a corner point. It is assumed that its position was recorded relatively accurately. Accordingly, a small-magnitude circular covariance K is determined.
Im zweiten Fall ist der bevorzugte Referenzpunkt 220 ein Mittelpunkt einer Außenkante. Bezüglich der Position des bevorzugten Referenzpunkts 220 wird eine höhere Messunsicherheit als im ersten Fall angenommen. Somit wird eine Kovarianz K bestimmt, die in Richtung der jeweiligen Außenkante zu einer Ellipse auseinandergezogen ist, wobei die Länge der Ellipse von der Länge der jeweiligen Außenkante abhängig sein kann. In the second case, the preferred reference point 220 is a midpoint of an outer edge. With regard to the position of the preferred reference point 220, a higher measurement uncertainty than in the first case is assumed. A covariance K is thus determined, which is expanded to form an ellipse in the direction of the respective outer edge, it being possible for the length of the ellipse to depend on the length of the respective outer edge.
Im dritten Fall befindet sich der bevorzugte Referenzpunkt 220 in der Mitte des jeweiligen Objektrahmens 208 bzw. 210. Es konnte also kein geeigneter Referenzpunkt an der Objektoberfläche, d. h. an den Außenkanten des Objektrahmens 208 bzw. 210, bestimmt werden. Dementsprechend wird eine vergleichsweise hohe Kovarianz K bestimmt, die von der Länge und Breite des Objekts 104 abhängig sein kann. Die geschätzte Position und/oder Orientierung des Objekts 104 wird dementsprechend nur geringfügig angepasst. In the third case, the preferred reference point 220 is in the middle of the respective object frame 208 or 210. It was therefore not possible to find a suitable reference point on the object surface, i. H. at the outer edges of the object frame 208 and 210, respectively. Accordingly, a comparatively high covariance K is determined, which can depend on the length and width of the object 104 . Accordingly, the estimated position and/or orientation of the object 104 is only slightly adjusted.
Die jeweiligen Schätzfehler, d. h. die jeweiligen Kovarianzen K, der als bevorzugte Referenzpunkte 220 infrage kommenden Referenzpunkte 212’ sind in Fig. 3 und Fig. 4 beispielhaft mit größeren Kreisen bzw. Ellipsen markiert. The respective estimation errors, i. H. the respective covariances K of the reference points 212 ′ coming into question as preferred reference points 220 are marked in FIGS. 3 and 4 by way of example with larger circles or ellipses.
Prinzipiell kann der Objektrahmenerzeugungsalgorithmus beispielsweise folgende Schritte ausführen: In principle, the object frame generation algorithm can perform the following steps, for example:
1. Berechnen der der Radarsensorik 102 zugewandten Kanten des ersten Objektrahmens 208. 1. Calculation of the edges of the first object frame 208 facing the radar sensor system 102.
2. Auswählen der drei nächstliegenden ersten Referenzpunkte 212’ auf den zugewandten Kanten. 2. Selecting the three closest first reference points 212' on the facing edges.
3. Erzeugen des zweiten Objektrahmens 210 basierend auf den mit den ausgewählten ersten Referenzpunkten 212’ assoziierten Reflexionsorten 110. 4. Auswählen der mit den drei ausgewählten ersten Referenzpunkten 212’ korrespondierenden drei zweiten Referenzpunkte 214. 3. Generation of the second object frame 210 based on the reflection locations 110 associated with the selected first reference points 212'. 4. Selecting the three second reference points 214 corresponding to the three selected first reference points 212'.
5. Suchen der zwei Referenzpunkte 212’, 214 mit dem geringsten Referenzpunktabstand zueinander. Auswählen des Rahmenmittelpunkts des Objektrahmens 208 bzw. 210, wenn der geringste Referenzpunktabstand zu groß ist. 5. Finding the two reference points 212', 214 with the smallest reference point distance from one another. Selecting the center point of the object frame 208 or 210 if the smallest reference point distance is too large.
6. Berechnen einer Kovarianzmatrix für jeden der gefundenen Referenzpunkte 212’, 214 bzw. für den Rahmenmittelpunkt abhängig von deren jeweiliger Position und/oder abhängig von einer geschätzten Objektgröße des Objekts 104. 6. Calculation of a covariance matrix for each of the found reference points 212', 214 or for the center of the frame depending on their respective position and/or depending on an estimated object size of the object 104.
In manchen Fällen kann es schwierig sein, den bevorzugten Referenzpunkt 220 zu bestimmen, beispielsweise wenn zwei oder mehr Referenzpunkte 212 bzw. 214 verwendbar sind oder keiner der Referenzpunkte 212 bzw. 214 verwendbar ist. In solchen Fällen kann der bevorzugte Referenzpunkt 220 beispielsweise durch Berechnen einer gewichteten Summe aller Möglichkeiten berechnet werden, wie es im Folgenden beschrieben wird. In some cases, it may be difficult to determine the preferred reference point 220, such as when two or more reference points 212, 214 are usable, or when none of the reference points 212, 214 are usable. In such cases, the preferred reference point 220 can be calculated, for example, by calculating a weighted sum of all possibilities, as described below.
Hierzu kann das Objektrahmenerzeugungsmodul 206 zusätzlich einen geeigneten PDA-Algorithmus ausführen (PDA = probabilistic data association; „probabilistische Datenassoziation“). For this purpose, the object frame generation module 206 can additionally execute a suitable PDA algorithm (PDA=probabilistic data association).
Im Unterschied zu den vorangehend beschriebenen Beispielen wird die benötigte Information zur Aktualisierung der geschätzten Position und/oder Orientierung des Objekts 104 hier gewissermaßen aus einer gewichteten Summe mehrerer Referenzpunkte 212 bzw. 214 berechnet. Dabei ist zu beachten, dass die gewichtete Summe nicht aus den Referenzpunkten 212 bzw. 214 an sich, sondern aus den zugehörigen Referenzpunktabständen in Form eines Innovationsvektors berechnet wird. Das fusionierte Ergebnis kann dann mit einem beliebigen Referenzpunkt 212 bzw. 214 verknüpft werden. In contrast to the examples described above, the information required for updating the estimated position and/or orientation of the object 104 is calculated here to a certain extent from a weighted sum of a plurality of reference points 212 and 214, respectively. It should be noted here that the weighted sum is not calculated from the reference points 212 or 214 per se, but from the associated reference point distances in the form of an innovation vector. The merged result can then be linked to any reference point 212 or 214.
Die probabilistische Datenassoziation wurde ursprünglich entwickelt, um das Messassoziationsproblem bei Vorhandensein fehlerhafter Messwerte zu lösen. Dazu wird eine gewichtete Summe aller Messungen berechnet, die im Assoziationstor gefunden wurden. Das Gewicht hängt von den Abweichungen zwischen dem erwarteten Objekt und der Messung ab. Je besser Erwartung und Messungen übereinstimmen, desto höher ist das Gewicht für diese Messung. Schließlich wird ein fusionierter Pseudomessungs- oder Innovationsvektor berechnet, der für die Aktualisierung verwendet werden kann, zum Beispiel in einem Kalman- Filter. Weiterhin wird eine fusionierte Assoziationswahrscheinlichkeit berechnet, die den Gesamterfolg ausdrückt. Wenn mindestens eine Messung gut übereinstimmt, wird ein hoher Wert von annähernd 1 ausgegeben. Wenn keine der Messungen mit der Erwartung übereinstimmt, liegt die Wahrscheinlichkeit der fusionierten Assoziation bei annähernd 0. Probabilistic data association was originally developed to solve the measurement association problem in the presence of erroneous measurement values. To do this, a weighted sum of all measurements found in the association gate is calculated. The weight depends on the deviations between the expected object and the measurement. The better the expectation and measurements match, the higher the weight for this measurement. Finally, a merged pseudo-measurement or innovation vector is calculated, which can be used for updating, for example in a Kalman filter. Furthermore, a fused association probability is calculated, which expresses the overall success. If at least one measurement agrees well, a high value, close to 1, is returned. If none of the measurements agree with the expectation, the probability of the fused association is approximately 0.
Für die Berechnung der Assoziation ist es erforderlich, Annahmen über die Erkennungswahrscheinlichkeiten und Fehlalarmraten zu treffen. Es ist üblich, die beiden Hypothesen H0 und H 1 zu betrachten, wobei besagt, dass ein reales Ziel vorhanden ist, und H0 besagt, dass kein reales Ziel vorhanden ist, sondern möglicherweise ein Geisterobjekt. Damit können die beiden bedingten Erkennungswahrscheinlichkeiten Pj(D|H1) und Pj(D|H0) definiert werden. In order to calculate the association, it is necessary to make assumptions about the detection probabilities and false alarm rates. It is common to consider the two hypotheses H 0 and H 1 , where says there is a real target and H 0 says there is no real target but possibly a ghost object. The two conditional recognition probabilities P j (D|H 1 ) and P j (D|H 0 ) can thus be defined.
Das Wahrscheinlichkeitsverhältnis für jede Messung j sowie die
Figure imgf000021_0002
Wahrscheinlichkeit, dass keine Erkennung mit dem Index 0 erfolgt, können folgendermaßen berechnet werden.
Figure imgf000021_0001
The likelihood ratio for each measurement j as well as the
Figure imgf000021_0002
Probabilities of no detection with index 0 can be calculated as follows.
Figure imgf000021_0001
Dabei steht y für die Messung, Rfür deren Kovarianz, x für den erwarteten oder vorhergesagten Zustand, Pfür dessen Kovarianz, H für die Messmatrix, Vc für das Messvolumen, ßj für die Fehlerkennungsdichte, e für den Innovationsvektor und S für dessen Kovarianz. Here y stands for the measurement, R for its covariance, x for the expected or predicted state, P for its covariance, H for the measurement matrix, V c for the measurement volume, ß j for the error detection density, e for the innovation vector and S for its covariance.
Berechnung der zugehörigen Assoziationswahrscheinlichkeiten durch Normierung:
Figure imgf000022_0002
Calculation of the associated association probabilities by normalization:
Figure imgf000022_0002
Dabei ist pj die Wahrscheinlichkeit, dass die Messung; zum vorhergesagten Objekt gehört, und p0 die Wahrscheinlichkeit, dass keine Messung zum vorhergesagten Objekt gehört. where p j is the probability that the measurement; belongs to the predicted object, and p 0 the probability that no measurement belongs to the predicted object.
Berechnung des fusionierten Innovationsvektors und seiner Wahrscheinlichkeit:
Figure imgf000022_0003
Calculation of the merged innovation vector and its probability:
Figure imgf000022_0003
Berechnung der fusionierten Kovarianzmatrix:
Figure imgf000022_0001
Calculation of the merged covariance matrix:
Figure imgf000022_0001
Hierbei werden alle der Radarsensorik 102 zugewandten Referenzpunkte als Messungen betrachtet. Die zugehörigen Kovarianzmatrizen werden im Vorfeld berechnet. Die ersten Referenzpunkte 212 werden als vorhergesagter Zustand x verwendet. Daraus werden die zugehörigen Innovationsvektoren e berechnet. Der PDA-Algorithmus wird wie oben beschrieben ausgeführt. Die Endergebnisse sind der fusionierte Innovationsvektor und die fusionierte Kovarianzmatrix. Der Innovationsvektor wird zu einem beliebigen ersten Referenzpunkt 212, 212’ des ersten Objektrahmens 208 hinzugefügt und für die Positionsaktualisierung verwendet. Es ist vorteilhaft, den nächstliegenden oder am besten passenden ersten Referenzpunkt 212, 212’ für die Aktualisierung auszuwählen. In this case, all reference points facing radar sensor system 102 are considered as measurements. The associated covariance matrices are calculated in advance. The first reference points 212 are used as the predicted state x. From this, the associated innovation vectors e are calculated. The PDA algorithm is executed as described above. The final results are the merged innovation vector and the merged covariance matrix. The innovation vector is added to any first reference point 212, 212' of the first object frame 208 and used for the position update. It is advantageous to select the closest or best fitting first reference point 212, 212' for the update.
Die fusionierte Wahrscheinlichkeit kann nicht nur zur Gewichtung der Aktualisierung, sondern auch als Ablehnungskriterium verwendet werden. Wenn die Fusionswahrscheinlichkeit zu niedrig ist, wird die Aktualisierung mit dem Mittelpunkt des jeweiligen Objektrahmens mit entsprechend hohen Kovarianzen ausgeführt. Durch den PDA-Algorithmus berechnete, beispielhafte Gewichte für jeden der ausgewählten ersten Referenzpunkte 212’ sind in Fig. 4 mit Rechtecken umrahmt. Der bevorzugte Referenzpunkt 220 ergibt sich hier aus der gewichteten Summe der Innovationsvektoren. In diesem Beispiel wird der bevorzugte Referenzpunkt 220 dem Rahmenmittelpunkt des ersten Objektrahmens 208 zugewiesen. The fused probability can be used not only to weight the update, but also as a rejection criterion. If the fusion probability is too low, the update is performed with the center of the respective object frame with correspondingly high covariances. Exemplary weights calculated by the PDA algorithm for each of the selected first reference points 212' are boxed in FIG. 4 with rectangles. The preferred reference point 220 results here from the weighted sum of the innovation vectors. In this example, the preferred reference point 220 is assigned to the frame center of the first object frame 208 .
Zusätzlich kann das Steuergerät 106 konfiguriert sein, um eine Geschwindigkeit des Objekts 104 zu bestimmen. Hierzu bestimmt das Bündelungsmodul 200 basierend auf den Radardaten 108 eine Radial- oder Dopplergeschwindigkeit vd und einen zugehörigen Azimutwinkel θ für mindestens zwei unterschiedliche Reflexionsorte 110 des detektierten Objekts 104. Anschließend werden in einem Winkelparameterschätzmodul 222 basierend auf den dem Objekt 104 zugeordneten Radialgeschwindigkeiten vd und Azimutwinkeln θ Parameter eines Dopplergeschwindigkeitsprofils geschätzt, genauer ein erster Winkelparameter C und ein zweiter Winkelparameter S einer Winkelfunktion 223, die die Radialgeschwindigkeit vd in Abhängigkeit vom Azimutwinkel θ als sinusförmige Kurve beschreibt. Additionally, controller 106 may be configured to determine a speed of object 104 . For this purpose, the bundling module 200 determines, based on the radar data 108, a radial or Doppler velocity v d and an associated azimuth angle θ for at least two different reflection locations 110 of the detected object 104. Subsequently, in an angle parameter estimation module 222 based on the radial velocities v d and assigned to the object 104 Azimuth angles θ parameters of a Doppler velocity profile are estimated, more precisely a first angle parameter C and a second angle parameter S of an angle function 223, which describes the radial velocity v d as a function of the azimuth angle θ as a sinusoidal curve.
Die Winkelparameter C,S können dann zusammen mit dem Orientierungswert φ und Drehpunktkoordinaten xR,yR eines geschätzten Drehpunkts des Objekts 104, die beispielsweise von dem Objektrahmenerzeugungsmodul 206 geschätzt und bereitgestellt werden können, in ein Geschwindigkeitsschätzmodul 224 eingegeben werden, das aus den genannten Größen schließlich die Geschwindigkeit des Objekts 104 berechnet, beispielsweise eine Translationsgeschwindigkeit v mit einer ersten Geschwindigkeitskomponente vx und einer zweiten Geschwindigkeitskomponente vy und/oder eine Drehgeschwindigkeit ω bezüglich der Drehpunktkoordinaten xR,yR. Die zur Bestimmung der Geschwindigkeit verwendeten geometrischen Größen sind in Fig. 5 veranschaulicht. Zusätzlich zu den Drehpunktkoordinaten xR,yR sind in das Koordinatensystem 202 von Fig. 5 Polarkoordinaten r,ß des Drehpunkts sowie Abstände Δxi, Δyi des Drehpunkts von einem der Reflexionsorte 110 des Objekts 104 eingezeichnet. The angle parameters C,S can then be input into a speed estimation module 224 together with the orientation value φ and pivot point coordinates x R ,y R of an estimated pivot point of the object 104, which can be estimated and provided, for example, by the object frame generation module 206, which consists of the variables mentioned Finally, the speed of the object 104 is calculated, for example a translation speed v with a first speed component v x and a second speed component v y and/or a rotation speed ω with respect to the rotation point coordinates x R ,y R . The geometric variables used to determine the speed are illustrated in FIG. In addition to the fulcrum coordinates x R ,y R , polar coordinates r, β of the fulcrum and distances Δx i , Δy i of the fulcrum from one of the reflection locations 110 of the object 104 are drawn into the coordinate system 202 of FIG.
Zum Ansteuern der Aktorik 118 kann das Steuergerät 106 ferner ein Steuermodul 226 umfassen, das konfiguriert sein kann, um aus der geschätzten Position, Orientierung und/oder Geschwindigkeit des Objekts 104, d. h. aus den Positionswerten dx,dy, dem Orientierungswert φ , der ersten Geschwindigkeitskomponente vx, der zweiten Geschwindigkeitskomponente vy und/oder der Drehgeschwindigkeit ω, das Steuersignal 116 zu erzeugen und an die Aktorik 118 auszugeben. Das Steuersignal 116 kann die Aktorik 118 beispielsweise veranlassen, das Fahrzeug 100 in entsprechender Weise zu beschleunigen, abzubremsen und/oder zu lenken. To control the actuator 118, the control unit 106 can also include a control module 226, which can be configured to calculate from the estimated position, orientation and/or speed of the object 104, ie from the position values d x , d y , the orientation value φ, the first Speed component v x , the second speed component v y and/or the rotational speed ω to generate the control signal 116 and to output it to the actuator system 118 . Control signal 116 can cause actuator system 118, for example, to accelerate, brake, and/or steer vehicle 100 in a corresponding manner.
Im Folgenden wird die Berechnung der Geschwindigkeit des Objekts 104 näher beschrieben. The calculation of the speed of the object 104 is described in more detail below.
Die Winkelfunktion 223 kann folgendermaßen definiert werden: vd = The angle function 223 can be defined as follows: v d =
C cos(θ) + S sin(θ). Dabei können die Winkelparameter C,S aus den Radardaten 108 geschätzt werden, wenn mindestens zwei Reflexionsorte 110 des Objekts 104 unter verschiedenen Azimutwinkeln θ gemessen wurden. C cos(θ) + S sin(θ). In this case, the angle parameters C,S can be estimated from the radar data 108 if at least two reflection locations 110 of the object 104 were measured at different azimuth angles θ.
Die Winkelparameter C,S haben selbst keine physikalische Bedeutung, können jedoch beispielswiese verwendet werden, um einen Kalman- Filter bei Verwendung eines geeigneten Beobachtungsmodells direkt zu aktualisieren, sodass das Beobachtungsmodell den vollständigen Bewegungszustand des verfolgten Objekts 104 schätzen kann. The angle parameters C,S themselves have no physical meaning, but can be used, for example, to directly update a Kalman filter using an appropriate observation model, so that the observation model can estimate the full motion state of the tracked object 104 .
Das Geschwindigkeitsprofil in Form der Winkelfunktion 223 beschreibt die kinematische Ausdehnung eines einzelnen starren Körpers mit mehreren Reflexionsorten 110 oder einer Gruppe von Objekten mit identischem Bewegungszustand, beispielsweise einer Gruppe stationärer Objekte, mit mindestens zwei Reflexionsorten 110. Dabei wird die Dopplergeschwindigkeit vd über den Azimutwinkel θ untersucht. Die gemessene Geschwindigkeitskurve entspricht einer Kosinuskurve mit den zwei Freiheitsgraden Amplitude und Phasenverschiebung. The velocity profile in the form of the angle function 223 describes the kinematic expansion of a single rigid body with multiple reflection locations 110 or a group of objects with an identical state of motion, for example a group of stationary objects, with at least two reflection locations 110. The Doppler velocity v d is calculated via the azimuth angle θ examined. The measured velocity curve corresponds to a cosine curve with the two degrees of freedom amplitude and phase shift.
Die Gleichung für das gemessene Geschwindigkeitsprofil lautet:
Figure imgf000024_0001
Die gesuchten Winkelparameter C,S können über die Methode der kleinsten
The equation for the measured velocity profile is:
Figure imgf000024_0001
The sought-after angle parameters C,S can be determined using the least
Quadrate bestimmt werden. Dazu werden die Systemgleichungen wie folgt zusammengesetzt:
Figure imgf000025_0001
squares are determined. For this purpose, the system equations are put together as follows:
Figure imgf000025_0001
Die Anpassung mit der Methode der kleinsten Quadrate liefert den gesuchtenThe least squares fit gives the one you are looking for
Merkmalsvektor p:
Figure imgf000025_0003
feature vector p:
Figure imgf000025_0003
Die Kovarianzmatrix
Figure imgf000025_0002
wird über die Jacobi-Matrix
Figure imgf000025_0006
und die gemessene Azimutwinkel- und Dopplergeschwindigkeits-Kovarianzmatrix der beiden äußersten Reflexionsorte
Figure imgf000025_0004
durch
Figure imgf000025_0005
berechnet. Diese Formel wird auch als allgemeines Fehlerfortpflanzungsgesetz bezeichnet.
The covariance matrix
Figure imgf000025_0002
is about the Jacobian matrix
Figure imgf000025_0006
and the measured azimuth angle and Doppler velocity covariance matrix of the two extreme reflection locations
Figure imgf000025_0004
through
Figure imgf000025_0005
calculated. This formula is also known as the general law of error propagation.
Die partiellen Ableitungen der Jacobi-Matrix J können durch Auflösen des Gleichungssystems y = M . p nach den Winkelparametern C,S direkt berechnet werden, sofern nur die beiden äußersten Reflexionsorte, d. h. die beiden Reflexionsorte mit dem kleinsten bzw. größten Azimutwinkel, berücksichtigt werden. Zudem können die beiden resultierenden Gleichungen teilweise abgeleitet werden. The partial derivatives of the Jacobian matrix J can be found by solving the system of equations y = M . p can be calculated directly from the angle parameters C,S, provided that only the two outermost reflection locations, i. H. the two reflection locations with the smallest and largest azimuth angle are taken into account. In addition, the two resulting equations can be partially derived.
Es kann festgestellt werden, dass die bloße Anzahl der Reflexionsorte nicht der entscheidende Faktor für die Genauigkeit der Winkelparameter C,S ist. Entscheidend ist vielmehr, dass der Abstand zwischen den äußersten Reflexionsorten, d. h. der erfasste Winkelabschnitt, groß genug ist und dass die Messabweichungen von Azimutwinkel und Dopplergeschwindigkeit ausreichend niedrig sind. Selbst wenn der Winkelabschnitt relativ klein ist und nur wenige Reflexionsorte gemessen werden, kann der Winkelparameter C immer noch relativ genau geschätzt werden, wenn das jeweilige Objekt in der Mitte des Sichtfelds der Radarsensorik 102 platziert ist. It can be stated that the mere number of reflection sites is not the decisive factor for the accuracy of the angle parameters C,S. Rather, it is decisive that the distance between the outermost places of reflection, i. H. the detected angular section, is large enough and that the measurement errors of azimuth angle and Doppler velocity are sufficiently low. Even if the angle section is relatively small and only a few reflection locations are measured, the angle parameter C can still be estimated relatively accurately if the respective object is placed in the center of the field of view of the radar sensor system 102 .
Wenn der Objektrahmen 208 bzw. 210 um die Reflexionsorte 110 groß genug und gut ausgerichtet ist, kann dessen Orientierung φ verwendet werden, um vx, vy und ω unmittelbar aus den vorberechneten Winkelparametern C,S zu berechnen. Dies ist mit nur einem Radarsensor in nur einem Messzyklus möglich. If the object frame 208 or 210 is large enough and well aligned around the reflection locations 110, its orientation φ can be used to calculate v x , v y and ω directly from the pre-calculated angle parameters C,S. This is possible with just one radar sensor in just one measurement cycle.
Die Winkelparameter C,S können wie folgt definiert werden:
Figure imgf000026_0002
The angle parameters C,S can be defined as follows:
Figure imgf000026_0002
Unter der Annahme, dass die Orientierung des Objektrahmens 208 bzw. 210 der Bewegungsrichtung des Objekts 104 entspricht, kann geschrieben werden:
Figure imgf000026_0001
Assuming that the orientation of the object frame 208 or 210 corresponds to the direction of movement of the object 104, it can be written:
Figure imgf000026_0001
Damit kann die Drehgeschwindigkeit ω als Funktion der Winkelparameter C,S berechnet werden:
Figure imgf000027_0002
With this, the rotational speed ω can be calculated as a function of the angle parameters C,S:
Figure imgf000027_0002
Mit vx = C - ω • yR und vy = S + ω • yR erhält man direkt:
Figure imgf000027_0001
With v x = C - ω • y R and v y = S + ω • y R one obtains directly:
Figure imgf000027_0001
Zur Berechnung der jeweiligen Kovarianzmatrizen von ω, vx und vy wird die folgende Jacobi-Matrix berechnet: To calculate the respective covariance matrices of ω, v x and v y the following Jacobian matrix is calculated:
Figure imgf000028_0001
Figure imgf000028_0001
Aus der gegebenen Kovarianzmatrix von S, C und φ
Figure imgf000028_0002
ergibt sich die Kovarianz des Bewegungszustands zu
Figure imgf000029_0001
From the given covariance matrix of S, C and φ
Figure imgf000028_0002
the covariance of the state of motion results in
Figure imgf000029_0001
Diese kann ausgerechnet werden mit:
Figure imgf000029_0002
This can be calculated with:
Figure imgf000029_0002
Abschließend wird darauf hingewiesen, dass Begriffe wie „aufweisend“, „umfassend“ etc. keine anderen Elemente oder Schritte ausschließen und Begriffe wie „eine“ oder „ein“ keine Vielzahl ausschließen. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen. Finally, it is noted that terms such as "comprising," "comprising," etc. do not exclude other elements or steps, and terms such as "a" or "an" do not exclude a plurality. Any reference signs in the claims should not be construed as limiting.

Claims

Ansprüche Expectations
1. Verfahren zum Detektieren von Objekten (104) in einer Umgebung eines Fahrzeugs (100), wobei das Verfahren umfasst: 1. A method for detecting objects (104) in an area surrounding a vehicle (100), the method comprising:
Empfangen von die Objekte (104) anzeigenden Radardaten (108); receiving radar data (108) indicative of the objects (104);
Bestimmen eines ersten Objektrahmens (208) für jedes Objekt (104) basierend auf den Radardaten (108), wobei der erste Objektrahmen (208) eine über mehrere Zeitschritte geschätzte Position (dx, dy) und/oder Orientierung (φ ) des Objekts (104) anzeigt und eine Position und/oder Orientierung des ersten Objektrahmens (208) durch eine definierte Anzahl erster Referenzpunkte (212, 212’) in einem zweidimensionalen Koordinatensystem (202) festgelegt ist; Determining a first object frame (208) for each object (104) based on the radar data (108), the first object frame (208) having a position (d x , d y ) and/or orientation (φ ) of the object estimated over several time steps (104) and a position and/or orientation of the first object frame (208) is fixed by a defined number of first reference points (212, 212') in a two-dimensional coordinate system (202);
Bestimmen eines zweiten Objektrahmens (210) für jedes Objekt (104) basierend auf den Radardaten (108), wobei der zweite Objektrahmen (210) eine in einem aktuellen Zeitschritt gemessene Position und/oder Orientierung des Objekts (104) anzeigt und eine Position und/oder Orientierung des zweiten Objektrahmens (210) durch eine definierte Anzahl zweiter Referenzpunkte (214) in dem zweidimensionalen Koordinatensystem (202) festgelegt ist; Determining a second object frame (210) for each object (104) based on the radar data (108), the second object frame (210) indicating a position and/or orientation of the object (104) measured in a current time step and a position and/or or the orientation of the second object frame (210) is determined by a defined number of second reference points (214) in the two-dimensional coordinate system (202);
Bestimmen von Referenzpunktpaaren (216) aus je einem ersten Referenzpunkt (212, 212’) und einem zweiten Referenzpunkt (214); Determination of pairs of reference points (216) each consisting of a first reference point (212, 212') and a second reference point (214);
Bestimmen eines Referenzpunktabstands zwischen dem ersten Referenzpunkt (212, 212’) und dem zweiten Referenzpunkt (214) eines jeden Referenzpunktpaares (216); determining a reference point distance between the first reference point (212, 212') and the second reference point (214) of each reference point pair (216);
Bestimmen mindestens eines bevorzugten Referenzpunkts (220) basierend auf den Referenzpunktabständen; und determining at least one preferred reference point (220) based on the reference point distances; and
Aktualisieren der geschätzten Position (dx, dy) und/oder Orientierung (φ ) des Objekts (104) basierend auf dem mindestens einen bevorzugten Referenzpunkt (220). updating the estimated position (d x , d y ) and/or orientation (φ ) of the object (104) based on the at least one preferred reference point (220).
2. Verfahren nach Anspruch 1, wobei die Radardaten (108) unter Verwendung einer Radarsensorik (102) zum Erfassen der Umgebung des Fahrzeugs (100) erzeugt wurden; wobei mindestens eine der Radarsensorik (102) zugewandte Kante des ersten Objektrahmens (208) identifiziert wird und ausgewählte erste Referenzpunkte (212’) bestimmt werden, die auf der mindestens einen der Radarsensorik (102) zugewandten Kante des ersten Objektrahmens (208) liegen; wobei die Referenzpunktpaare (216) aus je einem ausgewählten ersten Referenzpunkt (212’) und einem zweiten Referenzpunkt (214) gebildet werden. 2. The method of claim 1, wherein the radar data (108) using a radar sensor (102) for detecting the environment of the vehicle (100) were generated; wherein at least one edge of the first object frame (208) facing the radar sensor system (102) is identified and selected first reference points (212') are determined, which lie on the at least one edge of the first object frame (208) facing the radar sensor system (102); wherein the pairs of reference points (216) are each formed from a selected first reference point (212') and a second reference point (214).
3. Verfahren nach einem der vorhergehenden Ansprüche, wobei der bevorzugte Referenzpunkt (220) aus dem3. The method according to any one of the preceding claims, wherein the preferred reference point (220) from the
Referenzpunktpaar (216) mit dem geringsten Referenzpunktabstand ausgewählt wird. Reference point pair (216) with the smallest reference point distance is selected.
4. Verfahren nach Anspruch 3, wobei der geringste Referenzpunktabstand mit einem Schwellenwert verglichen wird; wobei ein vordefinierter Referenzpunkt als der bevorzugte Referenzpunkt (220) verwendet wird, wenn der geringste Referenzpunktabstand größer als der Schwellenwert ist. 4. The method of claim 3, wherein the smallest reference point spacing is compared to a threshold; wherein a predefined reference point is used as the preferred reference point (220) when the smallest reference point distance is greater than the threshold.
5. Verfahren nach Anspruch 4, wobei der vordefinierte Referenzpunkt ein Mittelpunkt des ersten Objektrahmens (208) und/oder des zweiten Objektrahmens (210) ist. 5. The method according to claim 4, wherein the predefined reference point is a center point of the first object frame (208) and/or the second object frame (210).
6. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein Schätzfehler (K ) bezüglich der geschätzten Position (dx, dy) und/oder Orientierung (φ ) des Objekts (104) abhängig von einer Position des bevorzugten Referenzpunkts (220) an dem ersten Objektrahmen (208) und/oder dem zweiten Objektrahmen (210) bestimmt wird. 6. The method according to any one of the preceding claims, wherein an estimation error (K) with respect to the estimated position (d x , d y ) and / or orientation (φ) of the object (104) depending on a position of the preferred reference point (220) at the first object frame (208) and/or the second object frame (210).
7. Verfahren nach Anspruch 6, wobei ein kleinerer Schätzfehler (K ) bestimmt wird, wenn der bevorzugte Referenzpunkt (220) ein Eckpunkt ist, und ein größerer Schätzfehler (K) bestimmt wird, wenn der bevorzugte Referenzpunkt (220) kein Eckpunkt ist. 7. The method of claim 6, wherein a smaller estimation error (K) is determined when the preferred reference point (220) is a corner point, and a larger estimation error (K) is determined when the preferred reference point (220) is not a corner point.
8. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Referenzpunktabstände mit Wahrscheinlichkeiten gewichtet werden und der bevorzugte Referenzpunkt (220) basierend auf einer Summe der mit den Wahrscheinlichkeiten gewichteten Referenzpunktabstände bestimmt wird. 8. The method according to any one of the preceding claims, wherein the reference point distances are weighted with probabilities and the preferred reference point (220) is determined based on a sum of the reference point distances weighted with the probabilities.
9. Verfahren nach einem der vorhergehenden Ansprüche, wobei für jedes Objekt (104) mindestens drei Referenzpunktpaare (216) bestimmt werden. 9. The method according to any one of the preceding claims, wherein at least three pairs of reference points (216) are determined for each object (104).
10. Verfahren nach einem der vorhergehenden Ansprüche, wobei die ersten Referenzpunkte (212, 212’) Eckpunkte des ersten Objektrahmens (208) sind und die zweiten Referenzpunkte (214) Eckpunkte des zweiten Objektrahmens (210) sind und die Referenzpunktpaare (216) aus je einem Eckpunkt des ersten Objektrahmens (208) und einem korrespondierenden Eckpunkt des zweiten Objektrahmens (210) gebildet werden; und/oder wobei die ersten Referenzpunkte (212, 212’) Mittelpunkte zwischen zwei Eckpunkten des ersten Objektrahmens (208) sind und die zweiten Referenzpunkte (214) Mittelpunkte zwischen zwei Eckpunkten des zweiten Objektrahmens (210) sind und die Referenzpunktpaare (216) aus je einem Mittelpunkt des ersten Objektrahmens (208) und einem korrespondierenden Mittelpunkt des zweiten Objektrahmens (210) gebildet werden. 10. The method according to any one of the preceding claims, wherein the first reference points (212, 212') are corner points of the first object frame (208) and the second reference points (214) are corner points of the second object frame (210) and the reference point pairs (216) from a vertex of the first object frame (208) and a corresponding vertex of the second object frame (210) are formed; and/or wherein the first reference points (212, 212') are midpoints between two corner points of the first object frame (208) and the second reference points (214) are midpoints between two corner points of the second object frame (210) and the reference point pairs (216) from a center point of the first object frame (208) and a corresponding center point of the second object frame (210).
11. Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend: Bestimmen einer Radialgeschwindigkeit (vd) und eines11. The method according to any one of the preceding claims, further comprising: determining a radial velocity (v d ) and a
Azimutwinkels (0) für mindestens zwei Reflexionsorte (110) eines jeden Objekts (104) basierend auf den Radardaten (108); Azimuth angle (0) for at least two reflection locations (110) of each object (104) based on the radar data (108);
Bestimmen geschätzter Winkelparameter (C,S) einerDetermining estimated angle parameters (C,S) of a
Winkelfunktion (223), die die Radialgeschwindigkeit (vd) abhängig von dem Azimutwinkel (θ) beschreibt, wobei die geschätzten Winkelparameter (C,S) für jedes Objekt (104) basierend auf den dem Objekt (104) zugeordneten Radialgeschwindigkeiten (vd) und Azimutwinkeln (0) bestimmt werden; Angular function (223) describing the radial velocity (v d ) as a function of the azimuth angle (θ), the estimated angular parameters (C,S) for each object (104) based on the radial velocities (v d ) associated with the object (104) and azimuth angles (0) are determined;
Bestimmen eines geschätzten Drehpunkts (xR,yR) für jedes Objekt (104) basierend auf den Radardaten (108); determining an estimated pivot point (x R ,y R ) for each object (104) based on the radar data (108);
Bestimmen einer Geschwindigkeit (v, vx, vy, ω) für jedes Objekt (104) als Funktion der geschätzten Orientierung (φ ), des geschätzten determining a velocity (v, v x , v y , ω) for each object (104) as a function of the estimated orientation (φ ) of the estimated
Drehpunkts (xR,yR) und der geschätzten Winkelparameter (C, S) des Objekts (104). pivot point (x R ,y R ) and the estimated angular parameters (C, S) of the object (104).
12. Verfahren nach Anspruch 11, wobei zum Bestimmen der Geschwindigkeit (v, vx, vy, ω) mindestens einer der folgenden Berechnungsschritte ausgeführt wird: 12. The method according to claim 11, wherein at least one of the following calculation steps is carried out to determine the speed (v, v x , v y , ω):
Berechnen einer ersten Geschwindigkeitskomponente (vx) mit
Figure imgf000033_0001
Calculating a first velocity component (v x ) with
Figure imgf000033_0001
Berechnen einer zweiten Geschwindigkeitskomponente (vy) mit
Figure imgf000033_0002
Calculating a second velocity component (v y ) with
Figure imgf000033_0002
Berechnen einer Drehgeschwindigkeit (ω) bezüglich des geschätzten Drehpunkts (xR,yR) des Objekts (104) mit
Figure imgf000033_0003
wobei vx für die erste Geschwindigkeitskomponente, vy für die zweite Geschwindigkeitskomponente, ω für die Drehgeschwindigkeit,
calculating a rotational speed (ω) with respect to the estimated pivot point (x R ,y R ) of the object (104).
Figure imgf000033_0003
where v x for the first velocity component, v y for the second velocity component, ω for the rotational velocity,
C für einen ersten Winkelparameter der Winkelfunktion (223), C for a first angle parameter of the angle function (223),
S für einen zweiten Winkelparameter der Winkelfunktion (223), φ für die geschätzte Orientierung des Objekts (104), xR für eine x- Koordinate des geschätzten Drehpunkts des Objekts (104) und yR für eine y- Koordinate des geschätzten Drehpunkts des Objekts (104) steht. S for a second angle parameter of the angle function (223), φ for the estimated orientation of the object (104), x R for an x-coordinate of the estimated pivot point of the object (104), and y R for a y-coordinate of the estimated pivot point of the object (104) stands.
13. Vorrichtung (106) zur Datenverarbeitung, umfassend einen Prozessor (114), der konfiguriert ist, um das Verfahren nach einem der vorhergehenden Ansprüche auszuführen. 13. Device (106) for data processing, comprising a processor (114) which is configured to carry out the method according to any one of the preceding claims.
14. Computerprogramm, umfassend Befehle, die einen Prozessor (114) bei Ausführung des Computerprogramms durch den Prozessor (114) veranlassen, das Verfahren nach einem der Ansprüche 1 bis 12 auszuführen. A computer program comprising instructions which cause a processor (114), upon execution of the computer program by the processor (114), to carry out the method according to any one of claims 1 to 12.
15. Computerlesbares Medium, auf dem das Computerprogramm nach Anspruch 14 gespeichert ist. 15. Computer-readable medium on which the computer program according to claim 14 is stored.
PCT/EP2021/085019 2020-12-09 2021-12-09 Method and device for detecting objects in the surroundings of a vehicle WO2022122933A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020215504.6A DE102020215504A1 (en) 2020-12-09 2020-12-09 Method and device for detecting objects in the surroundings of a vehicle
DE102020215504.6 2020-12-09

Publications (1)

Publication Number Publication Date
WO2022122933A1 true WO2022122933A1 (en) 2022-06-16

Family

ID=79185624

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/085019 WO2022122933A1 (en) 2020-12-09 2021-12-09 Method and device for detecting objects in the surroundings of a vehicle

Country Status (2)

Country Link
DE (1) DE102020215504A1 (en)
WO (1) WO2022122933A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022209126A1 (en) 2022-09-02 2024-03-07 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for processing radar data, radar system
DE102022124192A1 (en) 2022-09-21 2024-03-21 Bayerische Motoren Werke Aktiengesellschaft Method and device for updating the object status of an object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3349033A1 (en) * 2017-01-13 2018-07-18 Autoliv Development AB Enhanced object detection and motion estimation for a vehicle environment detection system
US20200191942A1 (en) * 2018-12-18 2020-06-18 Hyundai Motor Company Apparatus and method for tracking target vehicle and vehicle including the same
DE102019109332A1 (en) * 2019-04-09 2020-10-15 Bayerische Motoren Werke Aktiengesellschaft Method and processing unit for determining an object status of an object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3349033A1 (en) * 2017-01-13 2018-07-18 Autoliv Development AB Enhanced object detection and motion estimation for a vehicle environment detection system
US20200191942A1 (en) * 2018-12-18 2020-06-18 Hyundai Motor Company Apparatus and method for tracking target vehicle and vehicle including the same
DE102019109332A1 (en) * 2019-04-09 2020-10-15 Bayerische Motoren Werke Aktiengesellschaft Method and processing unit for determining an object status of an object

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A. SCHEELK. DIETMAYER: "Tracking Multiple Vehicles Using a Variational Radar Model", IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, vol. 2
D. KELLNERM. BARJENBRUCHJ. KLAPPSTEIN, INSTANTANE BESTIMMUNG DER VOLLSTÄNDIGEN OBJEKTBEWEGUNG AUSGEDEHNTER OBJEKTE MITTELS HOCHAUFLÖSENDEM RADAR, vol. 30

Also Published As

Publication number Publication date
DE102020215504A1 (en) 2022-06-09

Similar Documents

Publication Publication Date Title
EP3177498B1 (en) Method for generating a map of surroundings of an area of the surroundings of a motor vehicle, driver assistance system and motor vehicle
WO2022122933A1 (en) Method and device for detecting objects in the surroundings of a vehicle
DE102019115240A1 (en) SYSTEMS AND METHODS FOR THE APPLICATION OF MAPS TO IMPROVE OBJECT TRACKING, ROAD ASSIGNMENT AND CLASSIFICATION
DE102021104324A1 (en) IMPROVED OBJECT DETECTION AND RESPONSE
EP1634241A1 (en) Method and device for object recognition in driver aid systems for motor vehicles
DE102020105192B4 (en) Method for detecting moving objects in a vehicle environment and motor vehicle
DE102020117773A1 (en) METHOD OF DETERMINING A SUBSTITUTE TRAJECTORY, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE
EP3809316A1 (en) Prediction of a road route based on radar data
DE102018216999A1 (en) Process, computer program and measuring system for the evaluation of movement information
DE102022109162A1 (en) IMPROVED VEHICLE AND TRAILER OPERATION
DE102022101054A1 (en) Method for planning a path for an at least partially automated motor vehicle, computer program product, computer-readable storage medium and assistance system
DE102020116027A1 (en) Method and device for determining occupancy information for an environmental point on the basis of radar detections
DE102019211327B4 (en) Device, vehicle and method for improved multi-radar sensor calibration
DE112020004020T5 (en) VEHICLE COLLISION DETERMINATION DEVICE
DE102019131334A1 (en) Method for tracking extended objects with at least one detection device and detection device
DE102019204408B4 (en) Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar
WO2020001690A1 (en) Method and system for identifying obstacles
DE102022204767A1 (en) Method and device for processing sensor data from a sensor system of a vehicle
WO2021233674A1 (en) Method for determining an initial position of a vehicle
DE102023109228A1 (en) SELF-ASSESSMENT LOCATION DEVICE FOR MOBILE OBJECT
DE102021202019A1 (en) Method and device for determining a location area of an object
DE102022123176A1 (en) FILTERING AND AGGREGATION OF DETECTION POINTS OF A RADAR POINT CLOUD FOR AN AUTONOMOUS VEHICLE
DE102023100670A1 (en) SYSTEMS AND METHODS FOR DETECTING TRAFFIC OBJECTS
DE102021124329A1 (en) Geometric characterization of a lane marker
DE102021122432A1 (en) Self-position estimation method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21835686

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21835686

Country of ref document: EP

Kind code of ref document: A1