EP1588189A1 - Verfahren zur erkennung von objektkonstellationen anhand von abstandssignalen - Google Patents

Verfahren zur erkennung von objektkonstellationen anhand von abstandssignalen

Info

Publication number
EP1588189A1
EP1588189A1 EP03740042A EP03740042A EP1588189A1 EP 1588189 A1 EP1588189 A1 EP 1588189A1 EP 03740042 A EP03740042 A EP 03740042A EP 03740042 A EP03740042 A EP 03740042A EP 1588189 A1 EP1588189 A1 EP 1588189A1
Authority
EP
European Patent Office
Prior art keywords
sensors
distance
constellations
objects
coefficients
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP03740042A
Other languages
English (en)
French (fr)
Inventor
Werner Uhler
Achim Pruksch
Uwe Zimmermann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP1588189A1 publication Critical patent/EP1588189A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9321Velocity regulation, e.g. cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9325Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles for inter-vehicle distance regulation, e.g. navigating in platoons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles

Definitions

  • the invention relates to a method for recognizing object constellations according to the category of claim 1 and to a device for performing this method according to the category of the first device claim.
  • Motor vehicles are increasingly equipped with distance-resolving sensors, which are arranged, for example, in the area of the front bumper of the vehicle and are used to locate obstacles in front of the vehicle, for example vehicles in front, and to determine their distances and possibly speeds relative to their own vehicle. At least in the close range, the position of the object or objects should also be recorded in a two-dimensional coordinate system.
  • Application examples for a sensor system of this type are, for example, the collision warning or the so-called pre-crash sensing, which involves determining in advance the exact time and, if possible, the exact location of the impact, so that safety devices in the vehicle such as airbags, belt tensioners and the like can be configured in preparation for the impending impact.
  • Another application example is distance and speed control (ACC; Adaptive Cruise Control).
  • ACC Adaptive Cruise Control
  • the short-range sensor system is used in particular in operating modes that are characterized by relatively low speeds and high traffic density and generally by high dynamics. net, for example in Stop & Go operation.
  • Pulsed 24 GHz radar sensors are often used as distance sensors, which enable a high distance resolution, but generally are not angle-resolving.
  • the two-dimensional position of the objects can then be determined by triangulation when using at least two sensors.
  • Tracking means the tracking of objects (or bogus objects) over a longer period of time. Since the distance measurements are repeated periodically, usually with a cycle time in the order of a few milliseconds, it can be assumed that the distances, relative speeds and accelerations of the objects differ only slightly from measurement to measurement and that, for example, the measured changes in distance are consistent with the measured relative speeds. Under this premise, it is possible to recognize the objects detected during a measurement in the subsequent measurements, so that the track of each object can be tracked as it were.
  • the method with the characterizing features of claim 1 offers the advantage that, with a given number of sensors and a given number of reflection centers, the computing effort and memory requirement required for a sufficiently precise and detailed detection of the object constellations can be considerably reduced, and in particular that with the occurrence problems related to bogus objects are largely avoided.
  • each individual object or center of reflection is not tracked independently of the others, but instead characteristic patterns are recognized from the totality of the distances of the different reflection centers measured with the various sensors, which patterns correlate with known patterns of typical model installations , 'By comparing the detected pattern with reference patterns that correspond to the various model configurations, can then decide which model constellation the current constellation has the greatest similarity, and can then be made of the characterized in this way constellation, the purpose of the application derive relevant information immediately. It is particularly advantageous that the pattern as a whole can now be tracked during tracking. Since this pattern can generally be described by a set of parameters that is significantly smaller than the total of the coordinates of all objects and bogus objects, this results in a saving in memory requirements and computing time.
  • a distance list is preferably first created for each sensor, in which the distances from reflection centers measured by this sensor are arranged according to increasing distances.
  • a statistical evaluation of the distance lists obtained in this way under practical conditions has shown that the distances obtained with the several sensors can generally be grouped into clusters which are assigned to the same object or to several objects located at the same distance from the vehicle to let.
  • radar sensors e.g. the relatively rugged rear section of a truck has a large number of reflection centers that have similar distances for all sensors and that can all be assigned to the same object, namely the truck.
  • the smallest 'measured distances are naturally particularly relevant for the evaluation of the distance information.
  • only the smallest distance value in the distance list of each sensor is evaluated for each cluster, and only these distance values are used as a basis for the further pattern recognition.
  • the individual sensors are arranged offset in relation to each other in the direction transverse to the longitudinal axis of the vehicle by a certain distance, the so-called base width, the smallest distance values form a characteristic pattern within each cluster, which allows the object constellation, ie the to conclude the spatial position of the object or objects belonging to this cluster relative to one another and to one's own vehicle. If, for example, a localized object is located a short distance from the center of your own vehicle, it will be closer to
  • the sensors closer to the vehicle edges are smaller distance values measure than the more to Middle sensors. If, in a particularly advantageous embodiment of the method, at least three distance-resolving sensors are used, it can therefore be decided on the basis of these characteristics which object constellation is currently present.
  • the minimum of the parabola is a good approximation of the smallest object distance, and the y coordinate of this minimum is a good approximation of the transverse offset of this object or that point of the object that has the smallest distance from your own vehicle. These sizes are of course particularly suitable for estimating the location and time of an expected impact.
  • the coefficients of the polynomial must each lie within certain value ranges, the possible value range of one coefficient being dependent on the current value of another coefficient. If, for example, the coefficient c has a relatively large value, the object is at a correspondingly large distance from its own vehicle, and the differences in the measured object distances caused by the transverse offset of the sensors by the base width B are correspondingly small, so that for the coefficient a only a small range of values is possible.
  • the permissible value ranges or combinations of values and value ranges can be determined by examining typical model constellations. In this way, a plausibility check of the results obtained for each cluster and at the same time a classification of the object constellation according to typical constellations is made possible. In this way, any errors in the assignment of the values found in the distance lists to the individual clusters can also be quickly recognized and, if necessary, corrected.
  • the accuracy and reliability of the detection is further increased, and it is also possible to add missing measurement values caused by temporary disturbances in the measurement process.
  • the sensitivity range of the sensors and in particular the location angle range of the sensors can be expanded without problems, so that objects can also be found Secondary lanes can be included in the coverage to a greater extent. This makes possible For example, early detection of situations in which a vehicle from the adjacent lane suddenly cuts in front of its own vehicle.
  • the use of at least three sensors has the advantage that the distinction between a single object and two symmetrically arranged objects even in static situations, i.e. is possible on the basis of the results of a single measuring cycle without the movement of the objects having to be evaluated as part of the tracking procedure.
  • Figure 1 is a schematic plan view of a vehicle equipped with three distance-resolving sensors and two vehicles in front, the constellation of which is to be recognized by evaluating the distance measurements;
  • Figure 2 is a graphical representation of the entries in distance lists for the three sensors in the situation shown in Figure 1;
  • FIG. 3 shows a graphical representation of the images selected from the diagram according to FIG. 2 for further evaluation. status values and the characterization of object constellations through parabolas;
  • FIGS. 6 and 7 graphical representations for characterizing the model constellations by parabolas
  • FIGS. 8 (a), (b) and (c) examples of permissible value ranges for the coefficients of the parabola function for different model constellations of a single object
  • FIGS. 9 (a), (b) and (c) examples of permissible value ranges for the coefficients of the parabola function for model constellations with two symmetrically arranged objects.
  • Figure 10 is a flow chart to illustrate the process flow.
  • the front part of a motor vehicle 10 is shown at the bottom of the drawing, in which three distance-resolving sensors S1, S2 and S3 are arranged at the same height in the area of the front bumper.
  • the sensors are arranged symmetrically to the longitudinal axis of the vehicle.
  • B is the base width, that is the lateral distance from sensor to sensor.
  • the sensors S1, S2 and S3 are, for example, pulsed 24 GHz radar sensors, each of which has a localization angle range of 140 °.
  • the locating angular ranges are each symmetrical to a axis that passes through the center of the sensor in question and is parallel to the vehicle longitudinal axis. all straight lines.
  • the location angular ranges of the outer sensors S1 and S2 can optionally also be directed obliquely outwards, for example.
  • the depth of location of the sensors S1, S2 and S3 is, for example, 7 m.
  • a car 12 and a truck 14 are shown as objects to be recognized in front of the vehicle 10.
  • the truck 14 has a relatively strongly jagged rear section and therefore forms several reflection centers for each of the sensors S2 and S3.
  • the radar beams from the sensor S1 to the reflection centers of the car 12 and the truck 14 and back to the sensor S1 are indicated by straight lines, and the associated distances, which are measured by the sensor S1, are indicated by du and di2.
  • the distances between the sensor S2 and the associated reflection centers are indicated by d21, d22 and d23
  • the distances between the sensor S3 and the associated reflection centers are indicated by d3l, d32 and d33.
  • the sensor S1 only receives two reflection signals, one from the car 12 and one from the truck 14, since part of the truck 14 is shadowed by the car 12. Numerical examples for the distance values are given in m in FIG.
  • the measured by the sensors Sl, S2 and S3 distance values are evaluated in an evaluation unit 16 on board the vehicle 10, and the results are vehicle provided other system components of this force to the 'disposal, such as a pre-crash system, a distance and Cruise control system (ACC) and the like.
  • a pre-crash system e.g., a pre-crash system
  • ACC distance and Cruise control system
  • the evaluation unit 16 first creates a distance list for each of the sensors S1, S2 and S3, in which the measured distances are arranged according to increasing values. This is shown graphically in FIG. 2. It can be seen that the distance values du, d21, d3i differ only slightly from one another (at least by less than twice the basic width B), and can be combined to form a “cluster 1” which represents a first object, namely the passenger car 12. Correspondingly, the remaining five distance values di2, d221, d32 and d33 can be combined to form a "cluster 2", which the truck 14 represents.
  • the distance values used for the evaluation are plotted in a two-dimensional coordinate system whose x-axis corresponds to the longitudinal axis of the vehicle and whose y-axis points in the transverse direction of the vehicle (in relation to the direction of travel to the left).
  • the second index (the ordinal number in the distance list) is omitted from the distance values.
  • a parabola 18 is obtained for the polygonomic function for cluster 1 and a parabola 20 for cluster 2. These parabolas or the associated coefficients now form a pattern that allows the object constellations represented by the clusters to be classified.
  • the associated object distances d1, d2 and d3 and the resulting parabola 46 are in Figure 6 in an analogous manner as shown in Figure 3. Since the distances d1 and d3 are larger than d2 in this constellation, the coefficient a for the parabola 24 has a positive value. If the object 22 were further away from the sensors, the distance differences would be smaller, and the parabola would be flatter, ie the coefficient a would be smaller in amount. The same effect would also occur if the object 22 were extended in the y direction.
  • FIG. 5 shows another model constellation in the form of two localized objects 26, 28, which are symmetrical about the longitudinal axis passing through the center of the vehicle 10.
  • the model configuration shown in FIGS. 5 and 7 corresponds approximately to the case in which objects 26 and 28 delimit a parking space into which vehicle 10 enters.
  • the distance of this object can be between 0 and 7 m.
  • the area for the transverse offset y and the distance area from 0 to 7 m are each divided into three equal intervals, which are represented by the three rows or the three columns of the table in FIG. 8 (a).
  • Figures 8 (b) and 8 (c) correspondingly indicate the range of values of the coefficients b and c for the same model constellations.
  • the numerical values for the limits of the value ranges of the coefficients are only to be understood as a rough guide and must be case for the respective base width B between the sensors can be calculated.
  • the limits of the range of values for example in the upper left-hand box in Figure 8 (a) (0.0 ⁇ a ⁇ 0.1) are based on the assumption that a point-like object 'can take any position within the rectangle, the y by the ntervall [1.17; 3.5] and the x interval [4.67: 7.0] is defined. The same applies to the value ranges in the other fields in FIGS. 8 (a), (b) and (c).
  • FIGS. 9 (a), (b) and (c) show the corresponding value ranges of the coefficients a, b and c for model constellations in which, as in FIG. 5, two localized objects lie symmetrically to the longitudinal central axis of the vehicle. If one of these objects in the interval [-3.5; -1.17], then the other object lies in the interval [1.17; 3,5]. For this reason, the entries in the right column in FIGS. 9 (a), (b) and (c) are identical to those in the left column.
  • the middle columns each relate to constellations in which the two objects are symmetrical to the longitudinal center axis of the vehicle 10 in the same y-interval [-1.17; +1.17].
  • the tables in FIGS. 8 and 9 are used to check whether a model constellation can be found for which all three coefficients are permitted in the respective ones Ranges of values. If this condition is met, it can be assumed that the three distance values represent a physically possible constellation. If no such model constellation can be found, the set of distance values and the associated set of coefficients are rejected as a physically impossible constellation. In addition to measurement errors and interference, a possible cause for this can also be that one of the distance values has been assigned to the wrong cluster. In general, it will be clear from the division of the clusters that the assignment of a special distance value is doubtful.
  • this measured value is then assigned to the other cluster in question and the evaluation is repeated.
  • the distinction between a single object (FIG. 8) and two symmetrically arranged objects (FIG. 9) is initially less relevant because the distance between these objects is then less than 2.34 m and is therefore of the same order of magnitude as the width of the vehicle 10. Nevertheless, this distinction can prove to be useful, e.g. if the subsequent tracking shows that the two symmetrically arranged objects move apart in the positive and negative y-direction, or if the closer the objects are and the correspondingly higher measurement accuracy shows that the The gap between the two objects is so large that your own vehicle fits into it.
  • FIG. 10 shows the process sequence again in the form of a flow chart.
  • step 101 the distance lists of the sensors S1, S2 and S3 are read into the evaluation unit 16, as shown in FIG. 2.
  • the distance values are then combined in clusters in the distance lists of all sensors in step 102, as is also illustrated in FIG. 2.
  • the coefficients a, b and c of the parabola function are then calculated in step 103 from the smallest distance values for each cluster and each sensor. This set of coefficients then forms the pattern that characterizes the object constellation in question.
  • step 104 the tracking process for the parabola coefficients is carried out.
  • the coefficient sets a, b, c are set up cluster by cluster with corresponding sets from the previous measurement cycle or the previous previous measurement cycles compared, and on the basis of the similarity or difference between the coefficients and their time derivatives and on the basis of the consistency between the time derivatives and the coefficients, a decision is made as to whether the object constellation from the current cycle can be identified with one of the object constellations from the previous cycle. In this way, the temporal change in the object constellation can be tracked.
  • step 105 the tables illustrated in FIGS. 8 and 9 are then used to check whether the coefficients lie within permissible limits, and object constellations with impermissible coefficients are rejected. With this plausibility check or filtering, it is also possible to fall back on findings from the previous tracking step 104. It is also possible to add missing measurement results by extrapolating the results of the previous tracking steps. In order to increase the robustness of the method, it is optionally also possible, in addition to the value range tables according to FIGS. 8 and 9, in which it is assumed that there is at least one measured value for each sensor within each cluster, to set up corresponding tables for situations and to be evaluated in which there are only measured values for two of the three sensors within a cluster.
  • step 106 the positions and relative speeds of the objects in question are calculated for the clusters or object constellations that remain after the checks in step 105.
  • the x and y coordinates of the minimum of the parabola are calculated for the position calculation. In this way, relatively precise information is obtained about the minimum distance of the object and about the y coordinate of the location where the impact would probably take place if the distance was reduced further.
  • the relative speeds in the x and y directions can also be determined by deriving these variables over time.
  • the minimum object distance can be calculated by evaluating the parabola function for the y values that correspond to the left and right vehicle edges.
  • the coefficient c it can also be decided in connection with the coefficient c whether the gap between the two objects is large enough for the own vehicle. This will be the case, for example, if the current object constellation can be identified with one of the model constellations in the left column or the right column in FIG. 9 (a).

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Verfahren zur Erkennung von Objektkonstellationen anhand von Abstandssignalen mindestens zweier Sensoren (S1, S2, S3), dadurch gekennzeichnet, dass die Abstandssignale mehrerer der Sensoren einer Mustererkennung durch Vergleich mit Referenzmustern unterzogen werden, die vorgegebenen Modellkonstellationen entsprechen.

Description

Verfahren zur Erkennung von Obiektkonstellationen anhand von Ab- Standssignalen
Stand der Technik
Die Erfindung betrifft ein Verfahren zur Erkennung von Objektkon- stellationen nach Gattung des Anspruchs 1 sowie eine zur Durchführung dieses Verfahrens dienende Vorrichtung nach Gattung des ersten Vorrichtungsanspruchs .
Kraftfahrzeuge werden zunehmend mit abstandsauflösenden Sensoren ausgestattet, die beispielsweise im Bereich der vorderen Stoßstange des Fahrzeugs angeordnet sind und dazu dienen, vor dem Fahrzeug befindliche Hindernisse, beispielsweise vorausfahrende Fahrzeuge, zu orten und ihre Abstände und ggf. Geschwindigkeiten relativ zum eigenen Fahrzeug zu bestimmen. Zumindest im Nahbereich sollte dabei auch die Lage des Objektes bzw. der Objekte in einem zweidimensio- nalen Koordinatensystem erfaßt werden. Anwendungsbeispiele für eine Sensorik dieser Art sind etwa die Kollisionswarnung oder die sogenannte Pre-Crash-Sensierung, bei der es darum geht, im Fall einer bevorstehenden Kollision die genaue Zeit und möglichst auch den ge- nauen Ort des Aufpralls vorab zu bestimmen, so daß Sicherheitsvorrichtungen im Fahrzeug wie Airbags, Gurtstraffer und dergleichen schon vorbereitend für den bevorstehenden Aufprall konfiguriert werden können. Ein weiteres Anwendungsbeispiel ist die Abstands- und Geschwindigkeitsregelung (ACC; Adaptive Cruise Control). Die Nahbereichssensorik findet dabei insbesondere in Betriebsarten Anwendung, die durch relativ niedrige Geschwindigkeiten und eine hohe Verkehrsdichte sowie generell durch eine hohe Dynamik gekennzeich- net sind, beispielsweise im Stop & Go Betrieb.
Als Abstandssensoren werden häufig gepulste 24 GHz Radar-Sensoren eingesetzt, die eine hohe Abstandsauflösung ermöglichen, im allge- meinen jedoch nicht winkelauflösend sind. Die zweidimensionale Position der Objekte läßt sich dann bei Verwendung von mindestens zwei Sensoren durch Triangulation bestimmen. In Anwesenheit von zwei oder mehr Objekten oder in Anwesenheit von mehreren Reflexionszentren desselben Objekts kommt es dabei jedoch zu Mehrdeutig- keiten hinsichtlich der Zuordnung der von den verschiedenen Sensoren gemessenen Abstände zueinander und zu den Objekten. Wenn beispielsweise zwei Reflexionszentren von zwei Sensoren erfaßt werden, so erhält man insgesamt vier Abstandspaare, die mögliche Abstände der Objekte zu jedem der Sensoren kennzeichnen. Von diesen vier Ab- standspaaren entsprechen jedoch nur zwei realen Objekten, während es sich bei den beiden übrigen Paaren um Scheinobjekte handelt, die nachträglich durch eine Plausibilitätsauswertung eliminiert werden müssen.
In DE 199 49 409 AI wird ein Verfahren zum Eliminieren von Scheinobjekten mit Hilfe einer Tracking-Prozedur beschrieben. Unter "Tracking" versteht man die Verfolgung von Objekten (oder Scheinobjekten) über einen längeren Zeitraum hinweg. Da die Abstandsmessun- gen periodisch, üblicherweise mit einer Zykluszeit in der Größen- Ordnung von einigen Millisekunden wiederholt werden, kann man davon ausgehen, daß sich die Abstände, Relativgeschwindigkeiten und Beschleunigungen der Objekte von Messung zu Messung nur wenig voneinander unterscheiden und daß zum Beispiel die gemessenen Abstandsän- derungen mit den gemessenen Relativgeschwindigkeiten konsistent sind. Unter dieser Prämisse ist es möglich, die bei einer Messung erfaßten Objekte bei den nachfolgenden Messungen wiederzuerkennen, so daß sich gleichsam die Spur jedes Objektes verfolgen läßt.
Bei bekannten Verfahren zur Erkennung von Objektkonstellationen werden die Objekte und Scheinobjekte einzeln getrackt. Diese Verfahren erfordern deshalb insbesondere bei Anwesenheit mehrerer Objekte oder Reflexionszentren einen hohen Rechenaufwand und dement- sprechend einen hohen Speicherplatzbedarf und eine lange Rechenzeit bzw. eine hohe Rechenkapazität. Zur Beseitigung von Mehrdeutigkeiten und zur genaueren Identifizierung der Objektkonstellation ist es auch bekannt, drei oder mehr abstandsauflösende Sensoren einzu- setzen, wodurch sich jedoch der Rechenaufwand weiter erhöht.
Vorteile der Erfindung
Das Verfahren mit den kennzeichnenden Merkmalen des Anspruchs 1 bietet demgegenüber den Vorteil, daß bei gegebener Anzahl von Sensoren und gegebener Anzahl von Reflexionszentren der für eine hinreichend präzise und detaillierte Erkennung der Objektkonstellationen erforderliche Rechenaufwand und Speicherbedarf beträchtlich reduziert werden kann und daß insbesondere die mit dem Auftreten von Scheinobjekten zusammenhängenden Probleme weitgehend vermieden werden.
Der Grundgedanke der Erfindung besteht darin, daß nicht jedes einzelne Objekt oder RelexionsZentrum unabhängig von den übrigen ver- folgt wird, sondern stattdessen aus der Gesamtheit der mit den verschiedenen Sensoren gemessenen Abstände der verschiedenen Reflexionszentren charakteristische Muster erkannt werden, die mit bekannten Mustern typischer Modellkonstallationen korrelieren.' Durch Vergleich des erfaßten Musters mit Referenzmustern, die den ver- schiedenen Modellkonstellationen entsprechen, läßt sich dann entscheiden, mit welcher Modellkonstellation die aktuelle Konstellation die größte Ähnlichkeit hat, und aus der in dieser Weise charakterisierten Konstellation lassen sich dann die für den Anwendungs- zweck relevanten Informationen unmittelbar ableiten. Besonders vor- teilhaft ist dabei, daß nun beim Tracking das Muster als Ganzes ge- trackt werden kann. Da sich dieses Muster im allgemeinen durch einen Satz von Parametern beschreiben läßt, der deutlich kleiner ist als die Gesamtheit der Koordinaten aller Objekte und Scheinobjekte, ergibt sich eine Ersparnis an Speicherbedarf und Rechenzeit.
In den abhängigen Ansprüchen sind vorteilhafte Ausgestaltungen und Weiterbildungen des Verfahrens nach Anspruch 1 und der Vorrichtung nach dem unabhängigen Vorrichtungsanspruch angegeben.
Bevorzugt wird wie bei den bekannten Verfahren zunächst für jeden Sensor eine Abstandsliste erstellt, in der die von diesem Sensor gemessenen Abstände von Reflexionszentren nach wachsenden Abstanden geordnet sind. Bei einer statistischen Auswertung der unter praxis- nahen Bedingungen in dieser Weise erhaltenen Abstandslisten hat sich gezeigt, daß sich die mit den mehreren Sensoren erhaltenen Abstände generell zu Clustern gruppieren lassen, die sich demselben Objekt oder mehreren in gleichem Abstand vor dem eigenen Fahrzeug befindlichen Objekten zuordnen lassen. Bei Verwendung von Radarsen- soren erzeugt z.B. die relativ stark zerklüftete Heckpartie eines Lkw eine Vielzahl von Reflexionszentren, die für sämtliche Sensoren ähnliche Abstände aufweisen und die sich alle demselben Objekt, nämlich dem Lkw zuordnen lassen. Für die Auswertung der Abstandsin- formation sind naturgemäß die kleinsten' gemessenen Abstände besonders relevant. In einer besonders zweckmäßigen Ausführungsform wird deshalb für jeden Cluster jeweils nur der kleinste Abstandswert in der Abstandsliste jedes Sensors ausgewertet, und nur diese Ab- standswerte werden für die weitere Mustererkennung zugrundegelegt.
Da die einzelnen Sensoren in der Richtung quer zur Längsachse des Fahrzeugs um einen bestimmten Abstand, die sogenannte Basisbreite, gegeneinander versetzt angeordnet sind, bilden die kleinsten Ab- standswerte innerhalb jedes Clusters ein charakteristisches Muster, das es gestattet, auf die Objektkonstellation, d.h., die räumliche Lage des oder der zu diesem Cluster gehörenden Objekte relativ zueinander und zum eigenen Fahrzeug zurückzuschließen. Wenn sich beispielsweise ein lokalisiertes Objekt in geringem Abstand vor der Mitte des eigenen Fahrzeugs befindet, so werden die näher zur
Längsmittelachse des Fahrzeugs gelegenen Sensoren für dieses Objekt einen kleineren Abstand messen als die weiter am Fahrzeugrand gelegenen Sensoren. Wenn dagegen zwei lokalisierte Objekte in gleicher Entfernung links und rechts neben der Mittelachse des eigenen Fahr- zeugs angeordnet sind, wie es beispielsweise beim Einfahren in eine 'Parklücke der Fall ist, so werden die näher an den Fahrzeugrändern gelegenen Sensoren kleinere Abstandswerte messen als die mehr zur Mitte gelegenen Sensoren. Wenn in einer besonders vorteilhaften Ausführungsform des Verfahrens mindestens drei abstandsauflösende Sensoren benutzt werden, läßt sich deshalb aufgrund dieser Charak- teristika entscheiden, welche Objektkonstellation gerade vorliegt.
Es ist vorteilhaft, wenn das durch die kleinsten Abstände von n (≥ = 3) Sensoren gebildete Muster durch die n Koeffizienten eines Polynoms (n - l)-ten Grades gekennzeichnet wird. Wenn einem karte- sischen Koordinatensystem mit x die Koordinate in der Richtung par- allel zur Fahrzeuglangsachse und mit y die Koordinate quer zur Fahrzeuglangsachse bezeichnet wird, so hat das Polynom die Form x = f(y). Der Graph dieses Polynoms beschreibt dann näherungsweise den Verlauf der rückwärtigen Begrenzung eines oder mehrerer Objekte, die zu demselben Cluster gehören. Im Fall von drei Sensoren ist der Graph dieses Polynoms eine Parabel. Das Minimum der Parabel gibt in guter Näherung den kleinsten Objektabstand an, und die y- Koordinate dieses Minimums gibt in guter Näherung den Querversatz dieses Objektes bzw. desjenigen Punktes des Objektes an, der den geringsten Abstand zum eigenen Fahrzeug aufweist. Für eine Abschät- zung des Ortes und Zeitpunkts eines voraussichtlichen Aufpralls sind diese Größen naturgemäß besonders geeignet.
Darüber hinaus lassen sich bei einem Polynom der Form x = y2 + by + c aus den Koeffizienten a, b und c weitere wichtige Informationen über die Objektkonstellation unmittelbar ableiten. Beispielsweise weist aufgrund der oben erläuterten Zusammenhänge ein positives Vorzeichen des Koeffizienten a darauf hin, daß der betreffende Cluster ein lokalisiertes Objekt mit geringem Querversatz beschreibt. Je kleiner bei festem Koeffizienten c der Koeffizient a ist, desto ausgedehnter ist das Objekt. Die Bedingung a = 0 kennzeichnet ein sehr breites Objekt, beispielsweise die Heckpartie eines Lkw, die zu sämtlichen Sensoren des Fahrzeugs etwa den gleichen Abstand aufweist. Ein negativer Koeffizient a bei annähernd verschwindendem Koeffizienten b läßt erkennen, daß der Cluster zwei Objekte reprä- sentiert, die symmetrisch zur Fahrzeuglangsachse liegen. Generell erlaubt der Koeffizient b (allgemeiner: die Koeffizienten zu ungeraden Exponenten von y) eine Aussage über die Symmetrie der Objekt- konstellation; b = 0 bedeutet vollkommene Symmetrie, und im Fall b ≠ 0 gibt das Vorzeichen von b an, zu welcher Seite der Schwerpunkt der Objektkonstellation gegenüber der Fahrzeuglangsachse versetzt ist.
Es liegt auf der Hand, daß für physikalisch mögliche Situationen die Koeffizienten des Polynoms jeweils innerhalb bestimmter Wertebereiche liegen müssen, wobei der mögliche Wertebereich des einen Koeffizienten von dem aktuellen Wert eines anderes Koeffizienten abhängig sein kann. Wenn beispielsweise der Koeffizient c einen relativ großen Wert hat, so weist das Objekt einen entsprechend großen Abstand zum eigenen Fahrzeug auf, und die durch den Querversatz der Sensoren um die Basisbreite B bedingten Unterschiede in den gemessenen Objektabständen sind entsprechend klein, so daß für den Koeffizienten a nur ein kleiner Wertebereich in Frage kommt . Die zulässigen Wertebereiche bzw. Kombinationen von Werten und Wertebereichen lassen sich durch Untersuchung typischer Modellkonstellationen ermitteln. Auf diese Weise wird eine Plausibilitätsprüfung der für jeden Cluster erhaltenen Ergebnisse und zugleich eine Klas- sifizierung der Objektkonstellation nach typischen Konstellationen ermöglicht. Auf die Weise können auch etwaige Fehler bei der Zuordnung der in den Abstandslisten gefundenen Werte zu den einzelnen Clustern schnell erkannt und ggf. korrigiert werden.
Durch Tracking der für jeden Cluster erkannten Muster, d.h. , des Satzes der Koeffizienten a, b und c, wird die Genauigkeit und Zuverlässigkeit der Erkennung weiter gesteigert, und es ist auch möglich, fehlende Meßwerte, die durch vorübergehende Störungen des Meßprozesses verursacht wurden, sinnvoll zu ergänzen.
Da es mit dem erfindungsgemäßen Verfahren möglich ist, auch relativ umfangreiche Abstandslisten, entsprechend einer sehr großen Anzahl von Reflexionszentren, mit vertretbarem Rechenaufwand effizient auszuwerten, kann der Empfindlichkeitsbereich der Sensoren und ins- besondere der Ortungswinkelbereich der Sensoren problemlos erweitert werden, so daß auch Objekte auf Nebenfahrbahnen in stärkerem Umfang in die Erfassung einbezogen werden können. Dies ermöglicht z.B. eine Früherkennung von Situationen, in denen ein Fahrzeug von der Nebenspur plötzlich vor dem eigenen Fahrzeug einschert. Je nach Anwendungszweck ist es auch möglich, die gesamte Sensoranordnung oder zusätzliche Sensoranordnungen an der Rückfront des Fahrzeugs oder seitlich am Fahrzeug anzubringen und nach hinten bzw. zur Seite hin auszurichten.
Die Verwendung von mindestens drei Sensoren hat den Vorteil, daß die Unterscheidung zwischen einem einzelnen Objekt und zwei symme- trisch angeordneten Objekten auch schon in statischen Situationen, d.h. aufgrund der Ergebnisse eines einzigen Meßzyklus möglich ist, ohne daß im Rahmen der Tracking-Prozedur die Bewegung der Objekte ausgewertet werden muß.
Zeichnung
Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert.
Es zeigen:
Figur 1 einen schematischen Grundriß eines mit drei abstandsauflösenden Sensoren ausgerüsteten Fahrzeugs und zweier vorausfahrender Fahrzeuge, deren Konstellation durch Auswertung der Abstands essungen erkannt werden soll;
Figur 2 eine graphische Darstellung der Einträge in Abstandslisten für die drei Sensoren bei der in Figur 1 gezeigten Situation;
Figur 3 eine graphische Darstellung der aus dem Diagramm nach Figur 2 für die weitere Auswertung ausgewählten Ab- standswerte und der Charakterisierung von Obj ektkonstellationen durch Parabeln;
Figuren 4 und 5 Beispiele für zwei unterschiedliche Modellkonstellationen;
Figuren 6 und 7 graphische Darstellungen zur Charakterisierung der Modellkonstellationen durch Parabeln;
Figuren 8(a), (b) und (c) Beispiele für zulässige Wertebereiche der Koeffizienten der Parabelfunktion für unterschiedliche Mo- dellkonstellationen eines Einzelob- jektes;
Figuren 9(a), (b) und (c) Beispiele für zulässige Wertebereiche der Koeffizienten der Parabelfunktion für Modellkonstellationen mit zwei symmetrisch angeordneten Objekten; und
Figur 10 ein Flußdiagramm zur Illustration des Verfahrensablaufs.
In Figur 1 ist am unteren Zeichnungsrand die Frontpartie eines Kraftfahrzeugs 10 gezeigt, bei dem im Bereich der vorderen Stoßstange drei abstandsauflösende Sensoren Sl, S2 und S3 auf gleicher Höhe angeordnet sind. Im gezeigten Beispiel sind die Sensoren symmetrisch zur Fahrzeuglangsachse angeordnet. Mit B ist die Basis- breite bezeichnet, das ist der seitliche Abstand von Sensor zu Sensor. Bei den Sensoren Sl, S2 und S3 handelt es sich zum Beispiel um gepulste 24 GHz-Radarsensoren, die jeweils einen Ortungs-Winkelbe- reich von 140° haben. Als Beispiel kann angenommen werden, daß die Ortungs-Winkelbereiche jeweils symmetrisch zu einer durch die Mitte des betreffenden Sensors gehenden und zur Fahrzeuglangsachse paral- lelen Geraden liegen. Wahlweise können jedoch beispielsweise die Ortungs-Winkelbereiche der äußeren Sensoren Sl und S2 auch schräg nach außen gerichtet sein. Die Ortungstiefe der Sensoren Sl, S2 und S3 beträgt beispielsweise 7 m.
Vor dem Fahrzeug 10 sind als zu erkennende Objekte ein Pkw 12 und ein Lkw 14 gezeigt. Insbesondere der Lkw 14 hat eine relativ stark zerklüftete Heckpartie und bildet deshalb mehrere Reflexionszentren für jeden der Sensoren S2 und S3. Die Radarstrahlen vom Sensor Sl zu den Reflexionszentren des Pkw 12 und des Lkw 14 und zurück zum Sensor Sl sind durch Geraden angegeben, und die zugehörigen Abstände, die von dem Sensor Sl gemessen werden, sind mit du und di2 angegeben. Entsprechend sind mit d21, d22 und d23 die Abstände zwischen dem Sensor S2 und den zugehörigen Reflexionszentren angege- ben, und mit d3l, d32 und d33 sind die Abstände zwischen dem Sensor S3 und den zugehörigen Reflexionszentren bezeichnet. Im gezeigten Beispiel empf ngt der Sensor Sl lediglich zwei Reflexionssignale, eins vom Pkw 12 und eins vom Lkw 14, da ein Teil des Lkw 14 durch •den Pkw 12 abgeschattet wird. Zahlenbeispiele für die Abstandswerte sind in Figur 1 in m angegben.
Die von den Sensoren Sl, S2 und S3 gemessenen Abstandswerte werden in einer Auswerteeinheit 16 an Bord des Fahrzeugs 10 ausgewertet, und die Ergebnisse werden weiteren Systemkomponenten dieses Kraft- fahrzeugs zur' Verfügung gestellt, beispielsweise einem Pre-Crash- System, einem Abstands- und Geschwindigkeitsregelsystem (ACC) und dergleichen.
Die Auswerteeinheit 16 erstellt zunächst für jeden der Sensoren Sl, S2 und S3 eine Abstandsliste, in der die gemessenen Abstände nach zunehmenden Werten geordnet sind. Dies ist in Figur 2 graphisch dargestellt. Man erkennt, daß die Abstandswerte du, d21, d3i sich nur wenig voneinander unterscheiden (jedenfalls um weniger als die zweifache Basisbreite B), und zu einem "Cluster 1" zusammengefaßt werden können, der ein erstes Objekt, nämlich den Pkw 12 repräsentiert. Entsprechend lassen sich die übrigen fünf Abstandswerte di2, d221, d32 und d33 zu einem "Cluster 2" zusammenfassen, der den Lkw 14 repräsentiert.
Für die weitere Auswertung wird nun aus jedem der beiden Cluster für jeden der Sensoren Sl, S2 und S3 jeweils nur der kleinste Ab- standswert ausgewählt . Für den Cluster 1 sind dies die Abstandswerte du, d21 und d3i und für den Cluster 2 sind es die Werte di2, d22 und d32- Die Abstandswerte d23 und d33 werden ignoriert.
In Figur 3 sind die für die Auswertung herangezogenen Abstandswerte in einem zweidimensionalen Koordinatensystem aufgetragen, dessen x- Achse der Längsachse des Fahrzeugs entspricht und dessen y-Achse in Querrichtung des Fahrzeugs weist (in Bezug auf die Fahrtrichtung nach links). Die y-Koordinate wird hier in Einheiten des Basisab- stads B gemessen, so daß der Sensor Sl die Koordinate y = -1 und der Sensor S3 die Koordinate y = +1 hat.
Aus den drei Abstandswerten jedes Clusters werden nun die Koeffizienten a, b und c einer Polynomfunktion der Form x = ay2 + by + c berechnet:
a = (dl + d3 - 2d2)/2 b = (d3 - dl) / 2 c = d2
In diesen Gleichungen ist bei den Abstandswerten jeweils der zweite Index (die Ordnungszahl in der Abstandsliste) fortgelassen.
Für die Polygonomfunktion zu dem Cluster 1 erhält man so eine Parabel 18 und für den Cluster 2 eine Parabel 20. Diese Parabeln bzw. die zugehörigen Koeffizienten bilden nun ein Muster, das es gestattet, die durch die Cluster repräsentierten Objektkonstellationen zu klassifizieren .
Figur 4 zeigt eine Modellkonstellation in der Form eines lokali- sierten einzelnen Objekts 22, das mittig in einem bestimmten Abstand vor dem Fahrzeug 10 liegt (y = 0). Die zugehörigen Objektab- stände dl, d2 und d3 und die daraus resultierende Parabel 46 sind in Figur 6 auf analoge Weise wie in Figur 3 dargestellt. Da bei dieser Konstellation die Abstände dl und d3 größer sind als d2 hat der Koeffizient a für die Parabel 24 einen positiven Wert. Wenn das Objekt 22 weiter von den Sensoren entfernt wäre, so wären die Ab- standsunterschiede kleiner, und die Parabel wäre flacher, d.h., der Koeffizient a wäre dem Betrage nach kleiner. Der gleiche Effekt würde auch eintreten, wenn das Objekt 22 in y-Richtung ausgedehnt wäre.
Figur 5 zeigt eine andere Modellkonstellation in der Form zweier lokalisierter Objekte 26, 28, die symmetrisch zu der durch die Mitte des Fahrzeugs 10 gehenden Längsachse liegen. In diesem Fall sind die von den Sensoren Sl und S3 gemessenen kleinsten Abstände du, d3i kleiner als die vom mittleren Sensor S2 gemessenen Abstände d21 = d22, und folglich hat die zugehörige Parabel 30 in Figur 7 einen negativen Koeffizienten a. In der Praxis entspricht die in Figuren 5 und 7 gezeigte Modellkonfiguration etwa dem Fall, daß die Objekte 26 und 28 eine Parklücke begrenzen, in die das Fahrzeug 10 einfährt.
In Figur 8(a) sind in einer aus drei Zeilen und drei Spalten bestehenden Tabelle die möglichen Wertebereiche für den Koeffizienten a für Modellkonstellationen eingetragen, bei denen ähnlich wie in Figur 5 nur ein einzelnes lokalisiertes Objekt vorhanden ist, das je- doch hier nicht notwendigerweise auf der Längsmittelachse des Fahrzeugs 10 liegt, sondern einen Querversatz von y = -3,5 m bis y = 3,5 m gegenüber der Längsmittelachse des Fahrzeugs aufweisen kann. Der Abstand dieses Objekts kann zwischen 0 und 7 m betragen. Der Bereich für den Querversatz y sowie der Abstandsbereich von 0 bis 7 m sind jeweils in drei gleiche Intervalle aufgeteilt, die durch die drei Zeilen bzw. die drei Spalten der Tabelle in Figur 8(a) repräsentiert werden.
Figuren 8(b) und 8(c) geben in entsprechender Weise die Werteberei- ehe der Koeffizienten b und c für dieselben Modellkonstellationen an. Die Zahlenwerte für die Grenzen der Wertebereiche der Koeffizienten sind nur als grober Anhalt zu verstehen und müssen im Einzel- fall für die jeweilige Basisbreite B zwischen den Sensoren berechnet werden. Die Grenzen des Wertebereichs beispielsweise im linken oberen Feld in Figur 8(a) (0,0 ≤ a ≤ 0,1) beruhen auf der Annahme, daß ein punktförmiges Objekt jede Position innerhalb des Rechtecks einnehmen' kann, das durch das y- ntervall [1,17 ; 3,5] und das x- Intervall [4,67 : 7,0] definiert wird. Entsprechendes gilt für die Wertebereiche in den übrigen Feldern in Figuren 8(a), (b) und (c) .
In Figuren 9(a), (b) und (c) sind die entsprechenden Wertebereiche der Koeffizienten a, b und c für Modellkonstellationen angegeben, bei denen ähnlich wie in Figur 5 zwei lokalisierte Objekte symmetrisch zur Längsmittelachse des Fahrzeugs liegen. Wenn eines dieser Objekte in dem Intervall [-3,5 ; -1,17] liegt, so liegt dementsprechend das andere Objekt in dem Intervall [1,17 ; 3,5]. Aus diesem Grund sind in Figuren 9(a), (b) und (c) die Einträge in der rechten Spalte jeweils mit denen in der linken Spalte identisch. Die mittleren Spalten beziehen sich jeweils auf Konstellationen, bei denen die beiden Objekte symmetrisch zur Längsmittelachse des Fahrzeuges 10 in demselben y-Intervall [-1,17 ; +1,17] liegen.
Wenn in einem aktuellen Meßzyklus die Koeffizienten a, b und c für einen gegebenen Cluster bestimmt worden sind, so wird anhand der Tabellen gemäß Figuren 8 und 9 überprüft, ob sich eine Modellkonstellation finden läßt, für die alle drei Koeffizienten in den da- für zugelassenen Wertebereichen liegen. Wenn diese Bedingung erfüllt ist, kann angenommen werden, daß die drei Abstandswerte eine physikalisch mögliche Konstellation repräsentieren. Wenn sich keine solche Modellkonstellation finden läßt, wird der Satz von Abstandswerten und der zugehörige Satz von Koeffizienten als physikalisch unmögliche Konstellation verworfen. Eine mögliche Ursache hierfür kann neben Meßfehlern und Störeinflüssen auch darin bestehen, daß einer der Abstandswerte dem falschen Cluster zugeordnet wurde. Im allgemeinen wird sich schon bei der Einteilung der Cluster erweisen, daß die Zuordnung eines speziellen Abstandswertes zweifelhaft ist. In diesem Fall wird dann dieser Meßwert dem anderen in Frage kommenden Cluster zugeordnet, und die Auswertung wird wiederholt. Für Konstellationen, bei denen die Koeffizienten in den Wertebereiche in der mittleren Spalte in Figuren 8 und 9 liegen, ist die Unterscheidung zwischen einem Einzelobjekt (Figur 8) und zwei symmetrisch angeordneten Objekten (Figur 9) zunächst weniger relevant, weil der Abstand zwischen diesen Objekten dann kleiner als 2,34 m ist und somit in derselben Größenordnung wie die Breite des Fahrzeugs 10 liegt. Dennoch kann sich diese Unterscheidung als sinnvoll erweisen, z.B. wenn sich beim anschließenden Tracking zeigt, daß sich die beiden symmetrisch angeordneten Objekte in positiver und negativer y-Richtung auseinander bewegen oder wenn sich bei größerer Annäherung an die Objekte und entsprechend höherer Meßgenauigkeit zeigt, daß die Lücke zwischen den beiden Objekten doch so groß ist, daß das eigene Fahrzeug hinein paßt.
Da bei dem hier beschriebenen Verfahren von vornherein nur mit den kleinsten Abstandswerten innerhalb jedes Clusters gearbeitet wird und zudem alle Konstellationen als unplausibel verworfen werden, bei denen die berechneten Koeffizienten a, b und c nicht alle innerhalb der zulässigen Wertebereiche liegen, werden Komplikationen, die sich .durch das mögliche Auftreten von Scheinobjekten ergeben könnten, von vornherein vermieden.
In Figur 10 ist der Verfahrensablauf noch einmal in Form eines Flußdiagramms dargestellt.
In Schritt 101 werden die Abstandslisten der Sensoren Sl, S2 und S3 in die Auswerteeinheit 16 eingelesen, wie in Figur 2 gezeigt ist. Anschließend werden in Schritt 102. die Abstandswerte in den Abstandslisten sämtlicher Sensoren zu Clustern zusammengefaßt, wie ebenfalls in Figur 2 illustriert ist. Danach werden in Schritt 103 aus den kleinsten Abstandswerten für jeden Cluster und jeden Sensor die Koeffizienten a, b und c der Parabelfunktion berechnet. Dieser Satz von Koeffizienten bildet dann das Muster, das die betreffende Objektkonstellation kennzeichnet. In Schritt 104 wird das Tracking- Verfahren für die Parabelkoeffizienten ausgeführt. Das heißt, die Koeffizientensätze a, b, c werden Cluster für Cluster mit entsprechenden Sätzen aus dem vorangegangenen Meßzyklus oder den vorange- gangenen Meßzyklen verglichen, und anhand der Ähnlichkeit oder Unterschiedlichkeit der Koeffizienten und ihrer zeitlichen Ableitungen und anhand der Konsistenz zwischen den zeitlichen Ableitungen und den Koeffizienten wird entschieden, ob die Objektkonstellation aus dem aktuellen Zyklus sich mit einer der Objektkonstellationen aus dem vorherigen Zyklus identifizieren läßt. Auf die Weise kann also die zeitliche Veränderung der Objektkonstellation verfolgt werden .
In Schritt 105 wird dann anhand der in Figuren 8 und 9 illustrierten Tabellen überprüft, ob die Koeffizienten innerhalb zulässiger Grenzen liegen, und Objektkonstellationen mit unzulässigen Koeffizienten werden verworfen. Wahlweise kann bei dieser Plausibili- tätsprüfung oder Filterung auch auf Erkenntnisse aus dem vorausge- gangenen Tracking-Schritt 104 zurückgegriffen werden. Ebenso ist es möglich, fehlende Meßergebnisse zu ergänzen, indem die Ergebnisse der vorangegangenen Tracking-Schritte extrapoliert werden. Um die Robustheit des Verfahrens zu erhöhen, ist es wahlweise auch möglich, zusätzlich zu den Wertebereichstabellen gemäß Figuren 8 und 9 , in denen jeweils davon ausgegangen wird, daß innerhalb jedes Clusters für jeden Sensor mindestens ein Meßwert vorhanden ist, entsprechende Tabellen für Situationen aufzustellen und auszuwerten, in denen innerhalb eines Clusters nur Meßwerte für zwei der drei Sensoren vorhanden sind.
In Schritt 106 werden schließlich für die Cluster bzw. Objektkonstellationen, die nach den Überprüfungen in Schritt 105 übrig geblieben sind, die Positionen und Relativgeschwindigkeiten der betreffenden Objekte berechnet. Im Fall von Einzelobjekten werden für die Positionsberechnung die x- und y-Koordinaten des Minimums der Parabel berechnet. Auf diese Weise erhält man eine relativ genaue Information über den minimalen Abstand des Objektes und über die y- Koordinate des Ortes, an dem bei weiterer Abstandsverringerung voraussichtlich der Aufprall stattfinden würde. Durch zeitliche Ablei- tung dieser Größen lassen sich auch die Relativgeschwindigkeiten in x- und y-Richtung bestimmen. Im Fall von zwei symmetrisch angeordneten Objekten, zwischen denen eine Lücke mit einer Breite besteht, die kleiner als die Fahrzeugbreite ist, läßt sich der minimale Ob- jektabstand berechnen, indem die Parabelfunktion für die y-Werte ausgewertet wird, die den linken und rechten Fahrzeugrändern entsprechen. Anhand des Betrages des negativen Koeffizienten a läßt sich in Verbindung mit dem Koeffizienten c auch entscheiden, ob die Lücke zwischen den beiden Objekten groß genug für das eigene Fahrzeug ist. Dies wird beispielsweise dann der Fall sein, wenn die aktuelle Objektkonstellation mit einer der Modellkonstellationen in der linken Spalte oder der rechten Spalte in Figur 9(a) identifi- ziert werden kann.

Claims

Ansprüche
1. Verfahren zur Erkennung von Objektkonstellationen anhand von Abstandssignalen mindestens zweier Sensoren (Sl, S2, S3), dadurch gekennzeichnet, daß die Abstandssignale mehrerer der Sensoren einer Mustererkennung durch Vergleich mit Referenzmu- stern unterzogen werden, die vorgegebenen Modellkonstellationen entsprechen.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die von den mehreren Sensoren gemessenen Abstandswerte zu Clustern (du, d21, d31 ; dl2, d22, d23, d23, d32, d33) zusammengef ßt werden, innerhalb derer sich die Abstandswerte nur wenig un- terscheiden, und das innerhalb jedes Clusters für jeden Sensor nur der kleinste Abstandswert (du, d21, d3l ; di2, d22 r d32) ausgewertet wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß für je- den Cluster aus den ausgewerteten Abstandswerten die Koeffizienten (a, b, c) einer Polynomfunktion berechnet werden, die den Verlauf der Begrenzung des Objektes oder der Objekte auf der den Sensoren (Sl, S2, S3) zugewandten Seite approximiert.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß die Polynomfunktion eine Parabelfunktion ist und daß die Koordinaten des Minimums der Parabel berechnet werden.
5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, daß für jeden Satz von Koeffizienten überprüft wird, ob die Koeffizienten innerhalb von vorgegebenen, anhand der Modellkon- stellationen berechneten Wertebereichen liegen.
6. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß jeweils die von mindestens drei Sensoren (Sl, S2, S3) gemessenen Abstandswerte ausgewertet werden.
7. Verfahren nach den Ansprüchen 3 und 6, dadurch gekennzeichnet, daß anhand der berechneten Koeffizienten (a, b, c) entschieden wird, ob die Objektkonstellation einem Einzelobjekt (24) oder zwei Objekten (26, 28) entspricht, die symmetrisch zu einer
Achse liegen, die rechtwinklig auf einer die Sensoren verbindenden Geraden liegt und durch die Mitte der Sensoranordnung geht.
8. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß in einer Tracking-Prozedur die durch ihre Muster repräsentierten Objektkonstellationen getrackt werden.
9. Vorrichtung zur Erkennung von Objektkonstellationen anhand von Abstandssignalen mindestens zweier Sensoren (Sl, S2, S3), gekennzeichnet durch eine Auswerteeinheit (16), die die Ab- standssignale mehrerer der Sensoren (Sl, S2, S3) einer Mustererkennung durch Vergleich mit gespeicherten Referenzmu- stern unterzieht, die vorgegebenen Modellkonstellationen ent- sprechen.
10. Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, daß mindestens drei Sensoren (Sl, S2, S3) vorhanden sind.
11. Vorrichtung nach Anspruch 9 oder 10, dadurch gekennzeichnet, daß die Sensoren (Sl, S2, S3) im Frontbereich eines Kraftfahrzeugs (10) angeordnet sind.
EP03740042A 2002-12-23 2003-05-27 Verfahren zur erkennung von objektkonstellationen anhand von abstandssignalen Withdrawn EP1588189A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10260855A DE10260855A1 (de) 2002-12-23 2002-12-23 Verfahren zur Erkennung von Objektkonstellationen anhand von Abstandssignalen
DE10260855 2002-12-23
PCT/DE2003/001720 WO2004061474A1 (de) 2002-12-23 2003-05-27 Verfahren zur erkennung von objektkonstellationen anhand von abstandssignalen

Publications (1)

Publication Number Publication Date
EP1588189A1 true EP1588189A1 (de) 2005-10-26

Family

ID=32477963

Family Applications (1)

Application Number Title Priority Date Filing Date
EP03740042A Withdrawn EP1588189A1 (de) 2002-12-23 2003-05-27 Verfahren zur erkennung von objektkonstellationen anhand von abstandssignalen

Country Status (4)

Country Link
US (1) US20050177336A1 (de)
EP (1) EP1588189A1 (de)
DE (1) DE10260855A1 (de)
WO (1) WO2004061474A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5405741B2 (ja) 2004-07-26 2014-02-05 オートモーティブ システムズ ラボラトリー インコーポレーテッド 道路使用弱者保護システム
DE102004042381A1 (de) * 2004-09-02 2006-03-09 Robert Bosch Gmbh Verfahren zur Erzeugung eines Auslösesignals für eine Fußgängerschutzvorrichtung
DE102004057296A1 (de) 2004-11-26 2006-06-08 Daimlerchrysler Ag Lane-Departure-Warning mit Unterscheidung zwischen Fahrbahnrandmarkierung und baulicher Begrenzung des Fahrbahnrandes
US7592945B2 (en) 2007-06-27 2009-09-22 Gm Global Technology Operations, Inc. Method of estimating target elevation utilizing radar data fusion
DE102007054821A1 (de) 2007-11-16 2009-05-20 Robert Bosch Gmbh Verfahren zur Schätzung der Breite von Radarobjekten
NL2003736C2 (en) * 2009-10-30 2011-05-03 Ambient Systems B V Communication method for high density wireless networks, terminal, cluster master device, central node, and system therefor.
DE102012203091A1 (de) * 2012-02-29 2013-08-29 Robert Bosch Gmbh Verfahren zur Erfassung von Objekten in der Umgebung eines Kraftfahrzeugs
JP6571545B2 (ja) * 2016-01-19 2019-09-04 パナソニック株式会社 物体検出装置および物体検出方法
US10705532B2 (en) * 2017-12-26 2020-07-07 X Development Llc Standing test device for mobile robots

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638281A (en) * 1991-01-31 1997-06-10 Ail Systems, Inc. Target prediction and collision warning system
ZA948824B (en) * 1993-12-08 1995-07-11 Caterpillar Inc Method and apparatus for operating geography altering machinery relative to a work site
US5482314A (en) * 1994-04-12 1996-01-09 Aerojet General Corporation Automotive occupant sensor system and method of operation by sensor fusion
US5850625A (en) * 1997-03-13 1998-12-15 Accurate Automation Corporation Sensor fusion apparatus and method
DE19853683C1 (de) * 1998-11-20 2000-09-07 Bosch Gmbh Robert Abstandsermittlungsvorrichtung und -verfahren
DE19949409A1 (de) * 1999-10-13 2001-04-19 Bosch Gmbh Robert Verfahren und Vorrichtung zur Objektdetektierung
JP4115638B2 (ja) * 1999-10-19 2008-07-09 本田技研工業株式会社 物体認識装置
US6445983B1 (en) * 2000-07-07 2002-09-03 Case Corporation Sensor-fusion navigator for automated guidance of off-road vehicles
US6542809B2 (en) * 2001-02-26 2003-04-01 Honeywell International Inc. Method and system for displaying target vehicle position information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2004061474A1 *

Also Published As

Publication number Publication date
WO2004061474A1 (de) 2004-07-22
US20050177336A1 (en) 2005-08-11
DE10260855A1 (de) 2004-07-08

Similar Documents

Publication Publication Date Title
EP1502165B1 (de) Verfahren und vorrichtung zur kurspraediktion bei kraftfahrzeugen
DE19650863C1 (de) Verfahren und Vorrichtung zur Erkennung einer vertikalen Dejustierung eines Abstandssensors
EP2065727B1 (de) Verfahren zur Schätzung der Breite von Radarobjekten
EP1634243B1 (de) Verfahren und vorrichtung zur objektortung für kraftfahrzeuge
DE19949409A1 (de) Verfahren und Vorrichtung zur Objektdetektierung
EP1612580A1 (de) Objekterkennungsverfahren für Fahrzeuge
DE102010030289A1 (de) Radarsensor und Verfahren zum Betreiben eines Radarsensors
EP2698646A1 (de) Verfahren zur Klassifizierung von fahrenden Fahrzeugen durch Verfolgung einer Positionsgröße des Fahrzeuges
EP1990654A1 (de) Verfahren und Vorrichtung zur Ermittlung der Fahrzeugklasse von Fahrzeugen
WO2018091386A1 (de) Verfahren zum erfassen und zur klassifizierung eines objekts mittels zumindest einer sensorvorrichtung auf basis einer belegungskarte, fahrerassistenzsystem sowie kraftfahrzeug
EP2417476A1 (de) Fmcw-radarsensor und verfahren zum frequenzmatching
DE102006036402A1 (de) System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs
DE102020105642A1 (de) Entwerfen von und verarbeiten mit antennenarrays zur beseitigung von fehldetektionen in einem radarsystem
EP1588189A1 (de) Verfahren zur erkennung von objektkonstellationen anhand von abstandssignalen
EP3788594B1 (de) Konturerkennung eines fahrzeugs anhand von messdaten einer umfeldsensorik
DE19754220B4 (de) Verfahren und Vorrichtung zur Erkennung einer bevorstehenden oder möglichen Kollision
DE102018222195A1 (de) Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen
WO2003050562A1 (de) Verfahren zur hinderniserkennung für ein kfz mit mindestens drei abstandssensoren zum erfassen der lateralen ausdehnund objekts
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen
EP1244577B1 (de) Verfahren und vorrichtung zum bestimmen des ortes einer krafteinwirkung auf ein fahrzeug sowie zum steuern des auslösens mindestens eines airbags
DE112021005463T5 (de) Fahrzeugsteuersystem-aussenumgebungserkennungsvorrichtung und fahrzeugsteuerverfahren
DE102017115457A1 (de) Erkennung einer Fehlstellung eines Abstandssensors basierend auf einem Verhältnis von Detektionsmerkmalen
DE102017105721A1 (de) Verfahren zur Identifikation wenigstens eines Parkplatzes für ein Fahrzeug und Parkplatzassistenzsystem eines Fahrzeugs
EP1679529B1 (de) Verfahren für die Objekterfassung
DE102017126183A1 (de) Verfahren zum Erfassen und zur Klassifizierung eines Objekts mittels zumindest einer Sensorvorrichtung auf Basis einer Belegungskarte, Fahrerassistenzsystem und Kraftfahrzeug

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20050725

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL LT LV MK

DAX Request for extension of the european patent (deleted)
RBV Designated contracting states (corrected)

Designated state(s): DE FR IT

17Q First examination report despatched

Effective date: 20071217

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20071201