WO2021078335A1 - Verfahren zur erfassung eines zielobjekts - Google Patents

Verfahren zur erfassung eines zielobjekts Download PDF

Info

Publication number
WO2021078335A1
WO2021078335A1 PCT/DE2020/200057 DE2020200057W WO2021078335A1 WO 2021078335 A1 WO2021078335 A1 WO 2021078335A1 DE 2020200057 W DE2020200057 W DE 2020200057W WO 2021078335 A1 WO2021078335 A1 WO 2021078335A1
Authority
WO
WIPO (PCT)
Prior art keywords
radar
target object
movement information
mirror
targets
Prior art date
Application number
PCT/DE2020/200057
Other languages
English (en)
French (fr)
Inventor
Andreas - c/o Conti Temic microelectronic GmbH EISENBARTH
Original Assignee
Conti Temic Microelectronic Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic Gmbh filed Critical Conti Temic Microelectronic Gmbh
Publication of WO2021078335A1 publication Critical patent/WO2021078335A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/46Indirect determination of position data
    • G01S2013/462Indirect determination of position data using multipath signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9321Velocity regulation, e.g. cruise control

Definitions

  • the present invention relates to a method, in particular a computer-implemented method, for detecting a target object by means of a radar sensor, such a radar sensor, an assistance system or driver assistance system in which the target object is detected in particular using the method according to the invention, a computer program for carrying out the method and a portable, computer-readable one Storage medium on which the computer program for carrying out the method is stored.
  • a radar sensor such as a radar sensor, an assistance system or driver assistance system in which the target object is detected in particular using the method according to the invention
  • a computer program for carrying out the method and a portable, computer-readable one Storage medium on which the computer program for carrying out the method is stored.
  • Modern means of transport such as motor vehicles or motorcycles are increasingly being equipped with driver assistance systems which, with the help of suitable sensors or sensor systems, can detect the environment, recognize traffic situations and support the driver, e.g. B. by braking and / or steering intervention or by the output of a visual, haptic or acoustic warning.
  • Radar sensors, lidar sensors, camera sensors, ultrasonic sensors or the like are regularly used as sensor systems for detecting the surroundings.
  • Conclusions about the environment can then be drawn from the sensor data determined by the sensors.
  • the environment detection by means of radar sensors is based z. B. on the emission of bundled electromagnetic waves and their reflection on objects such. B. other road users, obstacles on the road or the edge of the road.
  • the individual reflections or detections associated with an object are recorded as so-called radar targets by the radar sensor and z. B. assigned to the corresponding object by a suitable algorithm.
  • the detected radar signals often contain reflections that are caused by the reflection on surfaces, such as. B. by reflection on guard rails or roadside development. This usually leads to additional measurements which cannot be assigned to any real objects and which have to be marked accordingly, so-called mirror detection, mirror objects or ghost targets.
  • Such detections are undesirable especially with regard to the environment recognition and object classification in order to z. B. to avoid emergency braking of your own vehicle, which are triggered by reflections.
  • There is therefore a particular interest in the detection and assignment of such mirror objects in order to improve object tracking and to increase object accuracy and availability in order to e.g. B. also to avoid “track breaks” when tracking objects.
  • a method for radar-based detection of roadside development in which a first target object, e.g. B. a preceding vehicle, and a second target object, d. H. a mirror object of the first target object is detected.
  • the first target object is assigned to the second target object if the longitudinal distances and the longitudinal speeds of the first and second target objects essentially match and the determined radar cross section of the second target object is smaller than the determined radar cross section of the first target object.
  • the roadside development is recognized on the basis of the assignment of the target objects, since it is assumed that it must be a roadside development if the second target object is a mirror object of the first target object, because the radar signals must then be reflected on such a roadside development.
  • the present invention is therefore based on the object of providing an improved method for recognizing a target object and corresponding devices for executing the method, in which the disadvantages of the prior art are overcome and the target object detection is improved in a simple and cost-effective manner.
  • a radar sensor first sends out radar signals in successive measurement cycles, which are reflected by the target object so that the radar sensor can detect them again as radar targets. Movement information about the target object is then determined on the basis of the radar targets. Furthermore, a second object is detected on the basis of radar targets, movement information being determined from the second object, which is compared with the movement information of the target object. This comparison of the movement information is then used to identify or classify the second object as a mirror object of the target object or not. The radar targets of the second object can then be assigned to the target object when the second object has been recognized as a mirror object of the target object.
  • the tracked object with internal accuracy is not laterally influenced by reflections and is therefore better usable for automated driving.
  • the tracked objects thus have a higher availability, since the corresponding mirror detections can also be used alone in order to keep the object available with sufficient quality.
  • the first two good ones are essential for automated driving, namely high availability and high accuracy of the tracked objects at the same time.
  • the invention can be easily transferred to all radar-based driver assistance systems or radar sensors, in particular also to radar sensors directed to the rear or to the side.
  • the speed and / or the acceleration and / or a radar cross-section and / or the distance to the radar sensor can expediently be provided as movement information of the respective object.
  • a search window for the following measuring cycles for the target object is preferably established on the basis of the radar targets.
  • the target object can be tracked or tracked in a simple manner.
  • the focus of the detection can be directed to the expected target area or the search window.
  • the search window for radar targets of the target object is expanded, in particular laterally, if the second object has been recognized as a mirror object of the first object.
  • radar targets can be assigned to the target object, which were recorded in the extended search window.
  • the lateral position of the radar targets located in the extended search window is not taken into account. This also means that the target object is not shifted laterally.
  • the extension of the search window can expediently be reversed if no additional radar targets of the extended search window can be assigned to the target object in a definable number of measuring cycles and the extension of the search window is limited to a definable number of measuring cycles.
  • the lateral position of the radar targets or the mirror target is preferably not taken into account, so that the determined lateral position of the target object is not influenced.
  • a roadside estimate can be provided, the estimated roadside being used in order to identify whether or not the second object is a mirror object of the target object. For example, by classifying the second object as a mirror object if it is not within the estimated roadside, i. H. is on or within the real lane.
  • the roadside estimate can be carried out using the sensor data and using a central controller.
  • Means are preferably provided with which the movement information of the object, the classification of the object and / or the classification of the traffic situation can be forwarded.
  • the method further comprises the following steps: recognizing a detection outside of one's own lane (step I), searching for objects within one's own lane (step II), marking the mirror detection (step III), updating the detection list (step IV), data association (step V), data update (step VI), object quality measurement (step VII) and updating the object list (step VIII).
  • the present invention further comprises a driver assistance system for a host vehicle, in which a target object is detected, which is carried out in particular using the method according to the invention.
  • the driver assistance system has a control unit (e.g. ECU - Electronic Control Unit, ADCU - Assisted and Automated Driving Control Unit or another computer, microcontroller, processor or the like known from the prior art) for controlling the driver assistance system or the respective Assistance functions as well as a radar sensor for object and environment recognition.
  • the radar sensor sends out radar signals in successive measurement cycles, which are reflected by the target object and recorded again as radar targets by the radar sensor.
  • movement information of the target object can then be determined (such as the speed of the target object, the distance from the target object to the host vehicle or to the radar sensor and / or the acceleration of the target object Search window for the radar targets of the object of the following measuring cycles is defined: If the second object is now detected by the radar sensor on the basis of further radar targets, one of the second object is also detected Determines movement information, the control unit comparing the movement information of the second object with the movement information of the target object. This comparison of the movement information can then be used to decide whether the second object is a mirror object of the target object or whether it is recognized as such or not. If the second object has then been recognized as a mirror object, the radar targets of the second object are assigned to the target object in order to improve the object availability and object quality of the target object.
  • a radar sensor for object and environment detection that detects a target object by the radar sensor sending out radar signals in successive measurement cycles, which are reflected by the target object and received or detected by the radar sensor again as radar targets, the detection of the target object using the method according to the invention takes place.
  • the radar sensor is preferably a sensor which detects objects on the basis of emitted electromagnetic waves which are reflected on the objects and received again.
  • the electromagnetic waves can have different wave and frequency ranges.
  • the electromagnetic waves can be in a wavelength range from 1 mm to 10 km or frequency range from 300 GHz to 30 kHz, preferably in a wavelength range from 1 cm to 1000 m or frequency range from 30 GHz to 300 kHz, preferably in a wavelength range of 10 cm to 100 m or frequency range from 3 GHz to 3 MHz, particularly preferably in a wavelength range from 1 m to 10 m or frequency range from 300 MHz to 30 MHz.
  • the electromagnetic waves can also be in a wavelength range from 10 nm to 3 mm or frequency range from 30 PHz to 0.1 THz, preferably in a wavelength range from 380 nm to 1 mm or frequency range from 789 THz to 300 GHz, preferably in one Wavelength range from 780 nm to 1 mm or frequency range from 385 THz to 300 GHz, particularly preferably in a wavelength range from 780 nm to 3 pm or frequency range from 385 THz to 100 THz.
  • the present invention further comprises a computer program with program code for carrying out the method according to the invention when the computer program is executed in a computer or another programmable computer known from the prior art.
  • the method can also be designed as a purely computer-implemented method, the term “computer-implemented method” in the sense of the invention describing a sequence planning or procedure that is implemented or carried out using a computer.
  • the calculator such as B. a computer, a Computer network or another programmable device known from the prior art (for example a computer device comprising a processor, microcontroller or the like) can process data by means of programmable arithmetic rules.
  • essential properties such. B. caused by a new program, new programs, an algorithm or the like.
  • the present invention comprises a computer-readable storage medium which comprises instructions which cause the computer on which they are executed to carry out a method according to at least one of the preceding claims.
  • the invention also expressly includes combinations of features of the features or claims, so-called sub-combinations, which are not explicitly mentioned.
  • FIG. 1 shows a simplified schematic representation of a traffic scenario in which a host vehicle detects a vehicle traveling ahead and the vehicle surroundings of the host vehicle by means of a radar sensor;
  • FIG. 2 shows a simplified schematic illustration of a radar grid of the traffic scenario from FIG. 1;
  • FIG. 3 shows a simplified schematic representation of a further traffic scenario in which a host vehicle detects a vehicle traveling ahead and the vehicle surroundings of the host vehicle by means of a radar sensor;
  • FIG. 4 shows a simplified schematic illustration of a radar grid of the traffic scenario from FIG. 3;
  • 5 shows a simplified schematic representation of a radar grid of the traffic scenario in which a real tracked object is detected using a conventional method from the prior art
  • 6 shows a simplified schematic illustration of an embodiment of a method sequence according to the invention for the classification of mirror objects
  • FIG. 7 shows a simplified schematic representation of a radar grid of the traffic scenario from FIG. 3, in which the actually tracked object is detected using the method according to the invention.
  • FIG. 8 shows a simplified schematic illustration of an embodiment of a method sequence according to the invention for data assignment.
  • Reference number 1 in the traffic scenario according to FIG. 1 describes an ego vehicle which has a sensor for object and environment detection.
  • the sensor in host vehicle 1 is a radar sensor 2, in particular a long-range radar sensor, which has a forward-facing detection area 3 and is located in the front area of host vehicle 1 (e.g. behind the radome in the area of the front bumper).
  • a radar sensor 2 in particular a long-range radar sensor, which has a forward-facing detection area 3 and is located in the front area of host vehicle 1 (e.g. behind the radome in the area of the front bumper).
  • another vehicle 4 driving ahead of the host vehicle 1 which is detected by the driver assistance system in the course of object tracking (object tracking) by means of the radar sensor 2.
  • the vehicle 4 traveling ahead is therefore a target object to be detected by the radar sensor 2.
  • the recorded radar signals or detections can then be saved in an object list.
  • the detections can be displayed in a so-called radar grid, according to FIG. 2.
  • the vehicle 4 driving ahead can then be recorded and tracked by adding an object 4a to the reflected detections or radar targets 5 of the vehicle 4 is assigned.
  • the distance to the vehicle 4 and also movement information, e.g. B. the speed or the acceleration of the vehicle 4 can be determined.
  • the host vehicle 1 can predict the following movement or the trajectory of the vehicle 4 and the search area for expected detections associated with the vehicle 4 or the search window 6 corresponding to the predicted object shown in FIG or align or adjust vehicle 4.
  • the vehicle 4 can be classified by the classifier (for example as a car, truck, in the event of an accident as an accident vehicle and the like). The classification can also be included in the motion prediction.
  • the traffic situation can thus be determined so that changes or hazards can be reacted to in good time with braking and / or steering interventions or speed adjustments, sending out warnings or the like.
  • the host vehicle 1 is equipped with a driver assistance system, which functions such.
  • B. ACC (Adaptive Cruise Control or Adaptive Cruise Control) and / or EBA (Emergency Breaking Assist or Notbremsassistent) and / or LKA (Lane Keep Assist or Lane Keeping / Lane Change Assistant) run or control and the environment or the vehicle environment recognizes and classifies by means of the sensor data.
  • the driver assistance system comprises a central control unit (ECU - Electronic Control Unit, ADCU Assisted & Automated Driving Control Unit), not shown in the figures.
  • the classifier can be stored as an independent module or as a software application or algorithm on the central control unit of the driver assistance system.
  • FIG. 3 shows a traffic scenario in which the host vehicle 1 follows the vehicle 4 traveling ahead.
  • a guardrail 7 is located on one side of the vehicles 1, 4.
  • the guardrail 7 is also recognized by the sensor system for detecting the surroundings. For example, this can also be recorded via radar detections of the radar sensor 2 and displayed in the radar grid according to FIG. 4.
  • the ego vehicle 1 transmits radar signals from the transmission and reception point A via the radar sensor 2, which are reflected by the vehicle 4 at the reflection point B and received again by the radar sensor 2 as radar targets 5.
  • some of the radar signals transmitted are also reflected from the reflection point B in the direction of the guardrail 7 and then via the reflection point C towards the radar sensor 2.
  • the radar signals received in this way by the radar sensor 2 contain detections or radar targets 9 which are received with a different reception angle and therefore cannot be assigned to a real object.
  • the radar targets 9 are therefore assigned to a mirror object 8, which has the same speed or the same longitudinal distance to the host vehicle 1 as the vehicle 4, so that the evaluation electronics of the radar sensor or the central control unit assumes or calculates a reflection point D that is is located on the supposed mirror object 8.
  • the position of the mirror object 8 is arranged or calculated laterally offset to the vehicle 4 due to the different reception angle. According to the prior art, objects of this type recognized as reflections are no longer taken into account in the following signal processing with respect to the real object, so that the measurement of the mirror object has no significance for the measurement of the real object.
  • the object quality and / or object availability of the vehicle 4 would decrease, possibly up to complete loss of property.
  • the mirror detection or the radar targets 9 are used to track the real object, the position of the now real tracked object 4a would be distorted, since the lateral position of object 4a does not correspond to the real position of the real object (ie the real position of vehicle 4), as shown in FIG. 5. Accordingly, the tracked lateral position of the vehicle 4 would be shifted in the direction of the mirror detection, which can lead to the lane of the host vehicle 1 being recognized as free, although the real vehicle 4 is still located there. This would result in a considerable impairment of road safety.
  • mirror detections are tracked as separate objects, whereby a possible mirror detection has no influence on the declining object quality of the tracked real object if the real object has not been measured, and on the other hand that the tracked lateral Position can be influenced in such a way that it no longer corresponds to the real object position when a mirror detection is assigned (associated) to the real object.
  • z. B. object and environment detection by means of radar sensor 2, the detected detections being assigned to objects that can then be classified.
  • objects that z. B. have been classified as guardrail 7 or roadside development can be used for roadside estimation.
  • objects can be recognized and classified as road users such as vehicles or pedestrians.
  • the radar detections can be classified in such a way that reflections or mirror objects 8 are also classified as such.
  • the classification and / or the roadside estimation can be implemented in a simple manner via the control unit.
  • FIG. 6 A schematic sequence of the classification of mirror objects is shown in FIG. 6.
  • step II searching.
  • the current detection is used marked as mirror detection 8 (step III: marking the mirror detection), as also shown in FIG. 4.
  • the marked and classified detections can then be included in the detection list 11 (step IV: updating the detection list) so that an updated detection list 12 is available which also contains the respective mirror classifications.
  • the search window for tracked objects in a lateral position is then expanded for radar detections classified as mirror detection, as shown in FIG. 7, the lateral position not being taken into account for tracking the real object (whereas the speed and the longitudinal position are used).
  • the real tracked object is not distorted in the lateral position because the lateral position of the mirror detection is not used.
  • the longitudinal position and measured speed are not or at least only minimally influenced, so that the tracked object retains its real position.
  • the object quality and the object availability of the real object or of vehicle 4 (therefore shown in FIG.
  • step V shows a schematic sequence of the data assignment or the assignment of the mirror detections to the real tracked object.
  • the updated detection list 12 and the current object list 13 are an essential input for the assignment of the mirror detections.
  • step V data association step
  • current detections are assigned to existing tracked objects by using extended lateral search windows for mirror detections in order to cover a larger area and to be able to collect more data.
  • step VI data update step
  • step VI subsequent data update
  • step VI or tracking update step
  • the data collected in step V for each are used to update the properties of the objects (position, speed and the like).
  • the lateral position of the mirror objects is not taken into account, ie the X position for tracked mirror detection is not used.
  • the non-use of the lateral position during the data update can be achieved in various ways, e.g. B. by setting a high (or infinite) lateral variance, by reducing (or setting to 0) an existing association probability for the lateral position or by overwriting the lateral position of the detection with a different value, e.g. B. the current one lateral object position.
  • the object quality or the object dimension quality can be determined (step VII: object quality dimension determination).
  • the object quality measure rises as a result of a confirmation by measurement or and falls in the case of non-confirmation (prediction).
  • the object list 13 can then be updated (step VIII: updating the object list) so that an updated object list 14 is available.
  • the roadside estimate can also come from other external and / or internal sources, e.g. B. from a camera, via GPS, the navigation system, via Car2Car or Car2X communication or another radar sensor, or it can be determined internally as a further process step using the radar data.
  • the roadside estimate can be present in various mathematical models, in particular in the simple clothoid form according to the following equation
  • the method sequence or the algorithm can expediently be implemented in software and / or hardware, for example as a program that is executed by a universal, correspondingly powerful computer or microcontroller or processor (as a so-called computer-implemented method), or in the form of special hardware such as an ASIC (Application Specific Integrated Circuit) or PGA (Programmable Gate Array).
  • ASIC Application Specific Integrated Circuit
  • PGA Programmable Gate Array
  • the method according to the invention thus provides a radar-based object recognition component for highly automated or (partially) autonomous driving, which provides very precisely tracked objects or other road users with high availability.
  • the object accuracy and object availability of radar-based driver assistance systems can be improved.
  • the present invention therefore represents a very special contribution in the field of radar sensor technology as well as autonomous driving and driver assistance systems.
  • a Send and / or receive point (radar sensor 2)

Abstract

Verfahren zur Erfassung eines Zielobjekts, bei dem ein Radarsensor (2) Radarsignale in aufeinanderfolgenden Messzyklen ausgesendet, die vom Zielobjekt reflektiert und vom Radarsensor (2) als Radarziele (5) erfasst werden, anhand der Radarziele (5) eine Bewegungsinformation des Zielobjektes ermittelt wird, und ein zweites Objekt anhand von Radarzielen (9) erfasst wird, wobei von dem zweiten Objekt eine Bewegungsinformation ermittelt wird, die Bewegungsinformation des zweiten Objekts mit der Bewegungsinformation des Zielobjektes verglichen wird und der Vergleich der Bewegungsinformationen herangezogen wird, um das zweite Objekt als Spiegelobjekt (8) des Zielobjekts zu erkennen, wobei die Radarziele (9) dem Zielobjekt zugeordnet werden, wenn das zweite Objekt als Spiegelobjekt (8) erkannt worden ist.

Description

Verfahren zur Erfassung eines Zielobiekts
Die vorliegende Erfindung betrifft ein Verfahren, insbesondere computerimplementiertes Verfahren, zur Erfassung eines Zielobjekts mittels eines Radarsensors, einen derartigen Radarsensor, ein Assistenzsystem bzw. Fahrerassistenzsystem, bei dem eine Zielobjekterfassung insbesondere anhand des erfindungsgemäßen Verfahrens erfolgt, ein Computerprogramm zur Durchführung des Verfahrens sowie ein transportables computerlesbares Speichermedium, auf dem das Computerprogramm zur Durchführung des Verfahrens gespeichert ist.
Technologischer Hintergrund
Moderne Fortbewegungsmittel wie Kraftfahrzeuge oder Motorräder werden zunehmend mit Fahrerassistenzsystemen ausgerüstet, welche mit Hilfe von geeigneter Sensorik bzw. Sensorsystemen die Umgebung erfassen, Verkehrssituationen erkennen und den Fahrer unterstützen können, z. B. durch einen Brems- und/oder Lenkeingriff oder durch die Ausgabe einer optischen, haptischen oder akustischen Warnung. Als Sensorsysteme zur Umgebungserfassung werden regelmäßig Radarsensoren, Lidarsensoren, Kamerasensoren, Ultraschallsensoren oder dergleichen eingesetzt. Aus den durch die Sensoren ermittelten Sensordaten können anschließend Rückschlüsse auf die Umgebung gezogen werden. Die Umgebungserfassung mittels Radarsensoren basiert z. B. auf der Aussendung von gebündelten elektromagnetischen Wellen und deren Reflexion an Objekten, z. B. andere Verkehrsteilnehmer, Hindernisse auf der Fahrbahn oder die Randbebauung der Fahrbahn. Die einzelnen einem Objekt zugehörigen Reflexionen bzw. Detektionen werden als sogenannte Radarziele vom Radarsensor erfasst und z. B. durch einen geeigneten Algorithmus dem entsprechenden Objekt zugeordnet. Die detektierten Radarsignale enthalten allerdings oftmals Spiegelungen, die durch die Reflexion an Oberflächen entstehen, wie z. B. durch die Reflexion an Leitplanken oder der Straßenrandbebauung. Dies führt in der Regel zu zusätzlichen Messungen, welche keinem realen Objekten zuzuordnen sind und entsprechend markiert werden müssen, sogenannte Spiegeldetektion, Spiegelobjekte oder Ghosttargets. Derartige Detektionen sind gerade in Hinblick auf die Umfelderkennung und Objektklassifikation unerwünscht, um z. B. Notbremsungen des eigenen Fahrzeugs, die durch Spiegelungen ausgelöst werden, zu vermeiden. Daher besteht ein besonderes Interesse an der Detektion und Zuordnung derartiger Spiegelobjekte, um die Objektverfolgung zu verbessern und die Objektgenauigkeit und -Verfügbarkeit zu erhöhen, um z. B. auch „Trackabrisse“ bei der Objektverfolgung zu vermeiden. Druckschriftlicher Stand der Technik
Aus der DE 10 2012 108 023 A1 ist ein Verfahren zur radarbasierten Erkennung einer Straßenrandbebauung bekannt, bei dem ein erstes Zielobjekt, z. B. ein vorausfahrendes Fahrzeug, und ein zweites Zielobjekt, d. h. ein Spiegelobjekt des ersten Zielobjekts, erfasst wird. Dabei wird das erste Zielobjekt dem zweiten Zielobjekt zugeordnet, wenn die Longitudinalentfernungen und die Longitudinalgeschwindigkeiten des ersten und des zweiten Zielobjekts im Wesentlichen übereinstimmen und der ermittelte Radarquerschnitt des zweiten Zielobjekts geringer ist als der ermittelte Radarquerschnitt des ersten Zielobjekts. Ferner erfolgt das Erkennen der Straßenrandbebauung anhand der Zuordnung der Zielobjekte, da angenommen wird, dass es sich um eine Straßenrandbebauung handeln muss, wenn das Zweite Zielobjekt ein Spiegelobjekt des ersten Zielobjektes ist, weil sich die Radarsignale dann an einer solchen Straßenrandbebauung spiegeln müssen.
Aufgabe der vorliegenden Erfindung
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, ein verbessertes Verfahren zur Erkennung eines Zielobjektes sowie entsprechende Vorrichtungen zur Verfahrensausführung zur Verfügung zu stellen, bei dem die Nachteile aus dem Stand der Technik überwunden sind und die Zielobjekterfassung in einfacher und kostengünstiger Weise verbessert wird.
Lösung der Aufgabe
Die vorstehende Aufgabe wird durch die gesamte Lehre des Anspruchs 1 sowie der nebengeordneten Ansprüche gelöst. Zweckmäßige Ausgestaltungen der Erfindung sind in den Unteransprüchen beansprucht.
Bei dem erfindungsgemäßen Verfahren zur Erfassung eines Zielobjekts sendet ein Radarsensor zunächst Radarsignale in aufeinanderfolgenden Messzyklen aus, die von dem Zielobjekt reflektiert werden, sodass der Radarsensor diese wieder als Radarziele erfassen kann. Anhand der Radarziele wird dann eine Bewegungsinformation des Zielobjektes ermittelt. Ferner wird ein zweites Objekt anhand von Radarzielen erfasst, wobei von dem zweiten Objekt eine Bewegungsinformation ermittelt wird, die mit der Bewegungsinformation des Zielobjektes verglichen wird. Dieser Vergleich der Bewegungsinformationen wird anschließend herangezogen, um das zweite Objekt als Spiegelobjekt des Zielobjekts zu erkennen bzw. zu klassifizieren oder nicht. Die Radarziele des zweiten Objekts können dann dem Zielobjekt zugeordnet werden, wenn das zweite Objekt als Spiegelobjekt des Zielobjektes erkannt worden ist. Daraus resultiert der Vorteil, dass das getrackte Objekt interner Genauigkeit nicht durch Spiegelungen lateral beeinflusst und somit besser nutzbar für automatisiertes Fahren ist. Die getrackten Objekte haben dadurch eine höhere Verfügbarkeit, da auch die jeweils dazugehörigen Spiegeldetektionen alleine genutzt werden können, um das Objekt bei ausreichender Qualität verfügbar zu halten. Ferner kommt es zu einer Verringerung der Anzahl an nicht real getrackten Objekten (Spiegelobjekten), da diese Detektionen mit den realen Objekten verarbeitet werden, woraus eine Verringerung der Rechenzeit resultiert, da weniger Objekte pro Rechenzyklus zu prozessieren sind. Die beiden ersten gutes in essentiell für automatisiertes fahren, nämlich hoher Verfügbarkeit bei gleichzeitiger hoher Genauigkeit der getrackten Objekte. Ferner lässt sich die Erfindung in einfacher Weise auf alle radarbasierten Fahrerassistenzsysteme bzw. Radarsensoren übertragen, insbesondere auch auf nach hinten oder zur Seite gerichtete Radarsensoren.
Zweckmäßigerweise kann als Bewegungsinformation des jeweiligen Objekts die Geschwindigkeit und/oder die Beschleunigung und/oderein Radarquerschnitt und/oder der Abstand zum Radarsensor vorgesehen sein.
Vorzugsweise wird anhand der Radarziele ein Suchfenster für folgende Messzyklen für das Zielobjekt festgelegt. Dadurch kann das Zielobjekt in einfacher Weise verfolgt bzw, getrackt werden. Zudem kann dadurch der Fokus der Detektion auf den zu erwartenden Zielbereich bzw. das Suchfenster gerichtet werden.
Gemäß einer vorteilhaften Ausgestaltung der Erfindung wird das Suchfenster für Radarziele des Zielobjekts, insbesondere lateral, erweitert, wenn das zweite Objekt als Spiegelobjekt des ersten Objekts erkannt wurde.
Ferner können dem Zielobjekt Radarziele zugeordnet werden, welche im erweiterten Suchfenster erfasst wurden. Die laterale Position der im erweiterten Suchfenster befindlichen Radarziele bleibt jedoch unberücksichtigt. Dadurch wird das Zielobjekt auch nicht lateral verschoben.
Zweckmäßigerweise kann die Erweiterung des Suchfensters rückgängig gemacht werden, wenn in einer festlegbaren Anzahl von Messzyklen dem Zielobjekt keine zusätzlichen Radarziele des erweiterten Suchfensters zugeordnet werden können und die Erweiterung des Suchfensters auf eine festlegbare Anzahl von Messzyklen beschränkt wird. Vorzugsweise bleibt bei der Zuordnung der Radarziele des Spiegelziels zum Zielobjekt die laterale Position der Radarziele bzw. des Spiegelziels unberücksichtigt, sodass die ermittelte laterale Position des Zielobjekts nicht beeinflusst wird.
Ferner kann eine Straßenrandschätzung vorgesehen sein, wobei der geschätzte Straßenrand herangezogen wird, um zu erkennen, ob es sich bei dem zweiten Objekt um ein Spiegelobjekt des Zielobjekts handelt oder nicht. Beispielsweise indem das zweite Objekt als Spiegelobjekt klassifiziert wird, wenn es sich nicht innerhalb des geschätzten Straßenrandes befindet, d. h. sich auf oder innerhalb der realen Fahrbahn befindet. In praktischer weise kann die Straßenrandschätzung anhand der Sensordaten und mittels einer zentralen Steuerung erfolgen.
Vorzugsweise sind Mittel vorgesehen, mit denen die Bewegungsinformation des Objekts, die Klassifikation des Objekts und/oder die Klassifikation der Verkehrssituation weitergeleitet werden kann.
Gemäß einer vorteilhaften Ausgestaltung der Erfindung umfasst das Verfahren ferner folgende Schritte: Erkennen einer Detektion außerhalb der eigenen Spur (Schritt I), Suchen nach Objekten innerhalb der eigenen Spur (Schritt II), Markieren der Spiegeldetektion (Schritt III), Aktualisieren der Detektionsliste (Schritt IV), Datenassoziation (Schritt V), Datenupdate (Schritt VI), Objektqualitätsmaßbestimmung (Schritt VII) sowie Aktualisieren der Objektliste (Schritt VIII).
Ferner umfasst die vorliegende Erfindung ein Fahrerassistenzsystem für ein Egofahrzeug, bei dem eine Erfassung eines Zielobjekts erfolgt, welche insbesondere anhand des erfindungsgemäßen Verfahrens durchgeführt wird. Das Fahrerassistenzsystem weist hierzu eine Steuereinheit (z. B. ECU - Electronic Control Unit, ADCU - Assisted and Automated Driving Control Unit oder ein anderer aus dem Stand der Technik bekannter Computer, Mikrocontroller, Prozessor oder dergleichen) zum Steuern des Fahrerassistenzsystems bzw. die jeweiligen Assistenzfunktionen sowie einen Radarsensor zur Objekt- und Umfelderkennung auf. Der Radarsensor sendet dabei Radarsignale in aufeinanderfolgenden Messzyklen aus, die von dem Zielobjekt reflektiert und vom Radarsensor wieder als Radarziele erfasst werden. Anhand der Radarziele kann dann eine Bewegungsinformation des Zielobjekts ermittelt werden (wie z. B. die Geschwindigkeit des Zielobjektes, der Abstand vom Zielobjekt zum Egofahrzeug bzw. zum Radarsensor und/oder die Beschleunigung des Zielobjektes. Ferner wird unter Berücksichtigung der Bewegungsinformation bzw. Bewegungsinformationen ein Suchfenster für die Radarziele des Objektes folgender Messzyklen festgelegt. Wird nun zweites Objekt anhand von weiteren Radarzielen durch den Radarsensor erfasst, wird auch von dem zweiten Objekt eine Bewegungsinformation ermittelt, wobei die Steuereinheit die Bewegungsinformation des zweiten Objekts mit der Bewegungsinformation des Zielobjektes vergleicht. Durch diesen Vergleich der Bewegungsinformationen kann dann entschieden werden, ob es sich bei dem zweiten Objekt um ein Spiegelobjekt des Zielobjekts handelt bzw. ob dieses als solches erkannt wird oder nicht. Sofern das zweite Objekt dann als Spiegelobjekt erkannt worden ist, werden die Radarziele des zweiten Objekts dem Zielobjekt zugeordnet, um die Objektverfügbarkeit und Objektqualität des Zielobjektes zu verbessern.
Darüber hinaus wird ein Radarsensor zur Objekt- und Umfelderkennung beansprucht, der ein Zielobjekt erfasst, indem der Radarsensor Radarsignale in aufeinanderfolgenden Messzyklen aussendet, die von dem Zielobjekt reflektiert und vom Radarsensor wieder als Radarziele empfangen bzw. erfasst werden, wobei die Erfassung des Zielobjektes anhand des erfindungsgemäßen Verfahrens erfolgt.
Vorzugsweise handelt es sich bei dem Radarsensor, um einen Sensor, welcher Objekte anhand von ausgesendeten elektromagnetischen Wellen detektiert, die an den Objekten reflektiert und wieder empfangen werden. Die elektromagnetischen Wellen können dabei unterschiedliche Wellen- und Frequenzbereiche aufweisen. Beispielsweise können die elektromagnetischen Wellen in einem Wellenlängenbereich von 1 mm bis 10 km bzw. Frequenzbereich von 300 GHz bis 30 kHz, vorzugsweise in einem Wellenlängenbereich von 1 cm bis 1000 m bzw. Frequenzbereich von 30 GHz bis 300 kHz, vorzugsweise in einem Wellenlängenbereich von 10 cm bis 100 m bzw. Frequenzbereich von 3 GHz bis 3 MHz, besonders vorzugsweise in einem Wellenlängenbereich von 1 m bis 10 m bzw. Frequenzbereich von 300 MHz bis 30 MHz liegen. Ferner können die elektromagnetischen Wellen auch in einem Wellenlängenbereich von 10 nm bis 3 mm bzw. Frequenzbereich von 30 PHz bis 0,1 THz, vorzugsweise in einem Wellenlängenbereich von 380 nm bis 1 mm bzw. Frequenzbereich von 789 THz bis 300 GHz, vorzugsweise in einem Wellenlängenbereich von 780 nm bis 1 mm bzw. Frequenzbereich von 385 THz bis 300 GHz, besonders vorzugsweise in einem Wellenlängenbereich von 780 nm bis 3 pm bzw. Frequenzbereich von 385 THz bis 100 THz liegen.
Ferner umfasst die vorliegende Erfindung ein Computerprogramm mit Programmcode zur Durchführung des erfindungsgemäßen Verfahrens, wenn das Computerprogramm in einem Computer oder einem sonstigen aus dem Stand der Technik bekannten programmierbaren Rechner ausgeführt wird. Demzufolge kann das Verfahren auch als rein computerimplementiertes Verfahren ausgestaltet sein, wobei der Begriff „computerimplementiertes Verfahren“ im Sinne der Erfindung eine Ablaufplanung bzw. Vorgehensweise beschreibt, welche anhand eines Rechners verwirklicht bzw. durchgeführt wird. Der Rechner, wie z. B. ein Computer, ein Computemetzwerk oder eine andere aus dem Stand der Technik bekannte programmierbare Vorrichtung (z. B. eine einen Prozessor, Mikrocontroller oder dergleichen umfassenden Rechnervorrichtung), kann dabei mittels programmierbarer Rechenvorschriften Daten verarbeiten. In Bezug auf das Verfahren können dabei wesentliche Eigenschaften z. B. durch ein neues Programm, neue Programme, einen Algorithmus oder dergleichen bewirkt werden.
Zudem umfasst die vorliegende Erfindung ein computerlesbares Speichermedium, das Anweisungen umfasst, welche den Computer, auf dem sie ausgeführt werden, veranlassen, ein Verfahren nach mindestens einem der vorhergehenden Ansprüche durchzuführen.
Ausdrücklich umfasst sind von der Erfindung auch nicht explizit genannte Merkmalskombinationen der Merkmale bzw. Ansprüche, sogenannte Unterkombinationen.
Beschreibung der Erfindung anhand von Ausführunasbeispielen
Im Folgenden wird die Erfindung anhand von zweckmäßigen Ausführungsbeispielen näher beschrieben. Es zeigen:
Fig. 1 eine vereinfachte schematische Darstellung eines Verkehrsszenarios, bei dem ein Egofahrzeug ein vorausfahrendes Fahrzeug sowie die Fahrzeugumgebung des Egofahrzeuges mittels Radarsensor erfasst;
Fig. 2 eine vereinfachte schematische Darstellung eines Radargrids des Verkehrsszenarios aus Fig. 1 ;
Fig. 3 eine vereinfachte schematische Darstellung eines weiteren Verkehrsszenarios, bei dem ein Egofahrzeug ein vorausfahrendes Fahrzeug sowie die Fahrzeugumgebung des Egofahrzeuges mittels Radarsensor erfasst;
Fig. 4 eine vereinfachte schematische Darstellung eines Radargrids des Verkehrsszenarios aus Fig. 3;
Fig. 5 eine vereinfachte schematische Darstellung eines Radargrids des Verkehrsszenarios, bei dem ein real getracktes Objekt anhand einer herkömmlichen Methode aus dem Stand der Technik erfasst wird; Fig. 6 eine vereinfachte schematische Darstellung einer Ausgestaltung eines erfindungsgemäßen Verfahrensablaufs der Klassifikation von Spiegelobjekten;
Fig. 7 eine vereinfachte schematische Darstellung eines Radargrids des Verkehrsszenarios aus Fig. 3, bei dem das real getrackte Objekt anhand des erfindungsgemäßen Verfahrens erfasst wird, sowie
Fig. 8 eine vereinfachte schematische Darstellung einer Ausgestaltung eines erfindungsgemäßen Verfahrensablaufs der Datenzuordnung.
Bezugsziffer 1 in dem Verkehrsszenario gemäß Fig. 1 beschreibt ein Egofahrzeug, welches einen Sensor zur Objekt- und Umgebungserfassung aufweist. Als Sensor im Egofahrzeug 1 ist ein Radarsensor 2, insbesondere ein Fernbereichsradarsensor, vorgesehen, weicher einen nach vorne gerichteten Detektionsbereich 3 aufweist und im Frontbereich des Egofahrzeuges 1 angeordnet ist (z. B. hinter dem Radom im Bereich des vorderen Stoßfängers). Ferner befindet sich vordem Egofahrzeug 1 ein weiteres dem Egofahrzeug 1 vorausfahrendes Fahrzeug 4, welches vom Fahrerassistenzsystem im Zuge der Objektverfolgung (Objekttracking) mittels des Radarsensors 2 erfasst wird. Bei dem vorausfahrenden Fahrzeug 4 handelt es sich somit um ein vom Radarsensor 2 zu erfassendes Zielobjekt. Die erfassten Radarsignale bzw. Detektionen können dann in eine Objektliste abgespeichert werden. Ferner können die Detektionen in einem sogenannten Radargrid dargestellt werden, gemäß Fig. 2. Anhand der Sensordaten des Radarsensors 2 kann dann das vorausfahrende Fahrzeug 4 erfasst und verfolgt (getrackt) werden, indem den reflektierten Detektionen bzw. Radarzielen 5 des Fahrzeuges 4 ein Objekt 4a zugeordnet wird. Dabei kann der Abstand zum Fahrzeug 4 und zudem eine Bewegungsinformation, z. B. die Geschwindigkeit oder die Beschleunigung, des Fahrzeuges 4 ermittelt werden. Durch die Radarziele 5 und die dazugehörigen Bewegungsinformationen kann das Egofahrzeug 1 die folgende Bewegung bzw. die Trajektorie des Fahrzeuges 4 prä- dizieren und den Suchbereich nach zum Fahrzeug 4 dazugehörigen erwarteten Detektionen bzw. das Suchfenster 6 entsprechend an das in Fig. 2 dargestellte prädizierte Objekt bzw. Fahrzeug 4 ausrichten bzw. anpassen. Ferner kann das Fahrzeug 4 durch den Klassifikator klassifiziert werden (z. B. als PKW, LKW, im Falle eines Unfalls als Unfallfahrzeug und dergleichen). Die Klassifikation kann zudem mit in die Bewegungsprädiktion mit einbezogen werden. Somit kann die Verkehrssituation bestimmt werden, sodass auf Veränderungen bzw. Gefahren rechtzeitig mit Brems- und/oder Lenkeingriffen oder Geschwindigkeitsanpassungen, Aussenden von Warnungen oder dergleichen reagiert werden kann. Ferner ist das Egofahrzeug 1 mit einem Fahrerassistenzsystem ausgestattet, das Funktionen, wie z. B. ACC (Adaptive Cruise Control bzw. Abstandsregeltempomat) und/oder EBA (Emergency Breaking Assist bzw. Notbremsassistent) und/oder LKA (Lane Keep Assist bzw. Spurhalte-/Spurwechselassistent) ausführen bzw. steuern kann und die Umwelt bzw. das Fahrzeugumfeld mittels anhand der Sensordaten erkennt und klassifiziert. Für die Funktionsausführung umfasst das Fahrerassistenzsystem eine, in den Figuren nicht dargestellte, zentrale Steuereinheit (ECU - Electronic Control Unit, ADCU Assisted & Automated Driving Control Unit). Der Klassifikator kann dabei als eigenständiges Modul oder als Softwareapplikation bzw. Algorithmus auf der zentralen Steuereinheit des Fahrerassistenzsystems hinterlegt sein.
In Fig. 3 ist ein Verkehrsszenario dargestellt, bei dem das Egofahrzeug 1 dem vorausfahrenden Fahrzeug 4 folgt. Auf einer Seite der Fahrzeuge 1 , 4 befindet sich eine Leitplanke 7. In einfacher Weise wird die Leitplanke 7 ebenfalls über die Sensorik zur Umfelderfassung erkannt. Beispielsweise kann diese ebenfalls über Radardetektionen des Radarsensors 2 erfasst und im Radargrid gemäß Fig. 4 dargestellt werden.
Das Ego Fahrzeug 1 sendet über den Radarsensor 2 vom Sende- und Empfangspunkt A Radarsignale aus, die vom Fahrzeug 4 am Reflexionspunkt B reflektiert und wieder vom Radarsensor 2 als Radarziele 5 empfangen werden. Ein Teil der ausgesendeten Radarsignale wird allerdings vom Reflexionspunkt B auch in Richtung Leitplanke 7 und dann über den Reflexionspunkt C hin zum Radarsensor 2 reflektiert. Demzufolge enthalten die auf diese Weise vom Radarsensor 2 empfangenen Radarsignale Detektionen bzw. Radarziele 9, welche mit abweichendem Empfangswinkel empfangen werden und somit keinem realen Objekt zuzuordnen sind. Die Radarziele 9 werden daher einem Spiegelobjekt 8 zugeordnet, welches die gleiche Geschwindigkeit bzw. den gleichen longitudinalen Abstand zum Egofahrzeug 1 aufweist, wie das Fahrzeug 4, sodass die Auswerteelektronik des Radarsensors bzw. die zentrale Steuereinheit einen Reflexionspunkt D annimmt bzw. berechnet, der sich am vermeintlichen Spiegelobjekt 8 befindet. Die Position des Spiegelobjektes 8 wird dabei aufgrund des unterschiedlichen Empfangswinkels lateral versetzt zum Fahrzeug 4 angeordnet bzw. berechnet. Derartige als Spiegelungen erkannten Objekte werden gemäß dem Stand der Technik in der folgenden Signalverarbeitung in Bezug auf das reale Objekt nicht weiter berücksichtigt, so dass die Messung des Spiegelobjekts für das Messen des realen Objekts keine Bedeutung hat.
Für den Fall, dass das reale Objekt bzw. das Fahrzeug 4 nicht auf direktem Wege erkannt worden ist, aber das Spiegelobjekt 8 erkannt wurde, hat das Erkennen des Spiegelobjektes 8 keinen Einfluss auf das getrackte Objekt des realen Fahrzeuges 4, wobei die Objektqualität und/oder Objektverfügbarkeit des Fahrzeuges 4 sinken würde, gegebenenfalls bis zum kompletten Objektverlust. Sollten aber die Spiegeldetektion bzw. die Radarziele 9 zum Tra- cken des realen Objekts genutzt werden, würde sich die Position des nunmehr real getrackten Objekts 4a verzerren, da die laterale Position von Objekt 4a nicht der realen Position des realen Objekts (d. h. der realen Position von Fahrzeuges 4) entspricht, wie in Fig. 5 dargestellt. Dementsprechend würde die getrackte laterale Position des Fahrzeuges 4 in Richtung der Spiegeldetektion verschoben, was dazu führen kann, dass die Spur des Egofahrzeuges 1 als frei erkannt würde, obwohl sich dort noch das reale Fahrzeug 4 befindet. Dadurch käme es zu einer erheblichen Beeinträchtigung der Verkehrssicherheit.
Demzufolge ergeben sich zwei wesentliche Probleme: Zum einen, dass Spiegeldetektion als separate Objekte getrackt werden, wobei eine eventuelle Spiegeldetektion keinen Einfluss auf die sinkende Objektqualität des getrackten realen Objekts, wenn das reale Objekt nicht gemessen worden ist, und zum anderen, dass die getrackte laterale Position derart beeinflusst werden kann, dass sie nicht mehr der realen Objekt Position entspricht, wenn eine Spiegeldetektion dem realen Objekt zugeordnet (assoziiert) wird.
Erfindungsgemäß erfolgt zunächst z. B. eine Objekt- und Umfelderkennung mittels Radarsensor 2, wobei die erfassten Detektionen jeweils Objekten zugeordnet werden, die dann klassifiziert werden können. Hierbei können Objekte, die z. B. als Leitplanke 7 oder Straßenrandbebauung klassifiziert worden sind, zur Straßenrandschätzung herangezogen werden. Zudem können Objekte als Verkehrsteilnehmer wie Fahrzeuge oder Fußgänger erkannt und klassifiziertwerden. Ferner kann eine Klassifikation der Radardetektionen derart erfolgen, dass Spiegelungen bzw. Spiegelobjekte 8 auch als solche klassifiziert werden. In einfacher Weise können die Klassifikation und/oder die Straßenrandschätzung über die Steuereinheit realisiert werden.
Ein schematischer Ablauf der Klassifikation von Spiegelobjekten ist in Fig. 6 dargestellt. Die existierende Straßenrandschätzung 10 und die Liste der aktuellen Radardetektionen (Detektionsliste 11), die im Prozessierungszyklus aufgenommen wird, sind dabei ein wesentlicher Input für die Klassifikation der Spiegeldetektionen. Für die Klassifikation wird zunächst für alle Detektionen ermittelt, ob sie sich innerhalb oder außerhalb der von der Straßenrandschätzung geschätzten Begrenzung befinden (Schritt I: Erkennen einer Detektion bzw. aller Detektionen außerhalb der eigenen Spur). Dabei wird für alle Detektionen, die sich außerhalb des Straßenrandes befinden, innerhalb des Straßenrandes nach einem bereits existierenden getrackten Objekt gesucht, welches eine zumindest im Wesentlichen übereinstimmende longitudinale Position und Geschwindigkeit hat, wie die Detektion des realen Objektes bzw. des Fahrzeuges 4 (Schritt II: Suche). Wird ein derartiges getracktes Objekt gefunden, wird die aktuelle Detektion als Spiegeldetektion 8 markiert (Schritt III: Markieren der Spiegeldetektion), wie auch in Fig. 4 gezeigt. Die markierten und klassifizierten Detektionen können dann in die Detektionsliste 11 aufgenommen werden (Schritt IV: Aktualisieren der Detektionsliste), so dass eine aktualisierte Detektionsliste 12 vorliegt, welche auch die jeweiligen Spiegelklassifikationen enthält.
Anschließend wird das Suchfenster für getrackte Objekte in lateraler Position für als Spiegeldetektion klassifizierte Radardetektionen erweitert, wie in Fig. 7 dargestellt, wobei die laterale Position für das Tracken des realen Objekts nicht berücksichtigt wird (hingegen die Geschwindigkeit und die longitudinale Position verwendet werden). Dadurch werden die genannten Probleme gelöst, da die Spiegeldetektion nicht separat getrackt werden, sondern dem real getrackten Objekt zugeordnet werden. Dadurch sinkt die Qualität des getrackten Objekts nicht, da es als gemessen eingestuft wird. Das real getrackte Objekt wird dabei nicht in lateraler Position verzerrt, da die laterale Position der Spiegeldetektion nicht genutzt wird. Die longitudinale Position und gemessene Geschwindigkeit werden nicht oder zumindest nur minimal beeinflusst, wodurch das getrackte Objekt seine reale Position behält. Zudem verbessert sich die Objektqualität und die Objektverfügbarkeit des realen Objektes bzw. von Fahrzeug 4 (daher in Fig. 7 mit dicker Umrandung dargestellt), da nun auch die zusätzlichen Radarziele 9 zur Objektqualität beitragen. Dadurch können auch Trackingabrisse vermieden werden, da das real getrackte Objekte sogar anhand der Radarziele 9 weiterverfolgt bzw. getrackt werden kann, wenn z. B. aufgrund einer Störung keine Radarziele 5 mehr detektiert werden. Die Objektverfolgung wird dadurch in besonderem Maße verbessert.
In Fig. 8 ist ein schematischer Ablauf der Datenzuordnung bzw. der Zuordnung der Spiegeldetektionen zum real getrackten Objekt dargestellt. Die aktualisierte Detektionsliste 12 sowie die aktuelle Objektliste 13, sind dabei ein wesentlicher Input für die Zuordnung der Spiegeldetektionen. Im sogenannten Datenassoziationsschritt (Schritt V) werden aktuelle Detektionen existierenden getrackten Objekten zugeordnet, indem für Spiegeldetektionen erweiterte laterale Suchfenster verwendet werden, um einen größeren Bereich abzudecken und mehr Daten sammeln zu können. Im darauffolgenden Datenupdate (Schritt VI) bzw. Tracking-Update- Schritt, werden die in Schritt V zu jedem gesammelten Daten genutzt, um die Eigenschaften der Objekte (Position, Geschwindigkeit und dergleichen) zu aktualisieren. Die laterale Position der Spiegelobjekte wird dabei nicht berücksichtigt, d. h. die X-Position für getrackte Spiegeldetektion wird nicht genutzt. Das Nichtbenutzen der lateralen Position beim Datenupdate (Schritt VI) kann über verschiedene Wege erreicht werden, z. B. durch Festlegen einer hohen (beziehungsweise unendlichen) lateralen Varianz, durch Verringern (beziehungsweise zu 0 setzen) einer existierenden Assoziationswahrscheinlichkeit für die laterale Position oder durch Überschreiben der lateralen Position der Detektion mit einem anderen Wert, z. B. der aktuellen lateralen Objektposition. Ferner kann die Objektqualität bzw. die Objektmaßqualität bestimmt werden (Schritt VII: Objektqualitätsmaßbestimmung). Insbesondere steigt das Objektqualitätsmaß infolge einer Bestätigung durch Messung oder und fällt bei Nichtbestätigung (Prädiktion). Anschließend kann die Objektliste 13 aktualisiert werden (Schritt VIII: Aktualisieren der Objektliste), so dass eine aktualisierte Objektliste 14 vorliegt.
Ferner kann die Straßenrandschätzung auch von anderen externen und/oder internen Quellen kommen, z. B. von einer Kamera, über GPS, dem Navigationssystem, via Car2Car- oder Car2X-Kommunikation oder auch einem anderen Radarsensor, oder sie kann intern als weiterer Prozessschritt durch die Radardaten ermittelt werden. Dabei kann die Straßenrandschätzung in verschiedenen mathematischen Modellen vorliegen, insbesondere in der einfachen Klothoidenform gemäß folgender Gleichung
Y = A * x + ((C 0 * x * x) / 2), oder der erweiterten Klothoidenform gemäß
Y = A* X + ((C0 * x * x) / 2) + ((C1* x * x * x) / 6).
Zweckmäßigerweise kann der Verfahrensablauf bzw. der Algorithmus in Soft- und/oder Hardware implementiert sein, beispielsweise als Programm, das von einem universellen entsprechend leistungsfähigen Computer bzw. Mikrocontroller oder Prozessor ausgeführt wird (als sogenanntes computerimplementiertes Verfahren), oder in Form einer speziellen Hardware wie einem ASIC (Application Specific Integrated Circuit) oder PGA (Programmable Gate Ar- ray).
Durch das erfindungsgemäße Verfahren wird somit eine radarbasierte Objekterkennungskomponente für das hochautomatisierte bzw (teil-)autonome Fahren zur Verfügung gestellt, welches sehr genau getrackte Objekte bzw. andere Verkehrsteilnehmer mit hoher Verfügbarkeit liefert. Infolgedessen kann die Objektgenauigkeit und Objektverfügbarkeit von radarbasierten Fahrerassistenzsystemen verbessert werden. Daher stellt die vorliegende Erfindung einen ganz besonderen Beitrag auf dem Gebiet der Radarsensorik sowie des autonomen Fahrens und der Fahrerassistenzsysteme dar. BEZUGSZEICHENLISTE
1 Egofahrzeug
2 Radarsensor
3 Detektionsbereich
4 Fahrzeug
4a getracktes Objekt (unter Berücksichtigung der Radarziele 5 und 9)
5 Radarziele (Fahrzeug 4)
6 Suchfenster
6a erweitertes Suchfenster
7 Leitplanke
8 Spiegelobjekt
9 Radarziele (Spiegelobjekt 8)
10 Straßenrandschätzung
11 Detektionsliste
12 aktualisierte Detektionsliste
13 Objektliste
14 aktualisierte Objektliste
A Sende- und/Empfangspunkt (Radarsensor 2)
B Reflexionspunkt (Fahrzeug 4)
C Reflexionspunkt (Leitplanke 7)
D angenommener Reflexionspunkt (Spiegelobjekt 8)
I Erkennen einer Detektion außerhalb der eigenen Spur
II Suchen nach Objekten innerhalb der eigenen Spur
III Markieren der Spiegeldetektion
IV Aktualisieren der Detektionsliste
V Datenassoziation
VI Datenupdate
VII Objektqualitätsmaßbestimmung
VIII Aktualisieren der Objektliste

Claims

PATENTANSPRÜCHE
1. Verfahren zur Erfassung eines Zielobjekts, bei dem ein Radarsensor (2) Radarsignale in aufeinanderfolgenden Messzyklen ausgesendet, die vom Zielobjekt reflektiert und vom Radarsensor (2) als Radarziele (5) erfasst werden, anhand der Radarziele (5) eine Bewegungsinformation des Zielobjektes ermittelt wird, und ein zweites Objekt anhand von Radarzielen (9) erfasst wird, wobei von dem zweiten Objekt eine Bewegungsinformation ermittelt wird, die Bewegungsinformation des zweiten Objekts mit der Bewegungsinformation des Zielobjektes verglichen wird und der Vergleich der Bewegungsinformationen herangezogen wird, um zu erkennen, ob es sich bei dem zweiten Objekt um ein Spiegelobjekt (8) des Zielobjekts handelt oder nicht, wobei die Radarziele (9) dem Zielobjekt zugeordnet werden, wenn das zweite Objekt als Spiegelobjekt (8) erkannt worden ist.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Bewegungsinformation des jeweiligen Objekts die Geschwindigkeit und/oder die Beschleunigung und/oder ein Radarquerschnitt und/oder der Abstand zum Radarsensor (2) vorgesehen ist.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass ein Suchfenster (6) für das Zielobjekt anhand der Radarziele (5) festgelegt wird.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass das Suchfenster (6) für Radarziele des Zielobjekts, insbesondere lateral, erweitert wird, wenn das zweite Objekt als Spiegelobjekt (8) des ersten Objekts erkannt wurde.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass dem Zielobjekt Radarziele (9) zugeordnet werden, welche im erweiterten Suchfenster (6a) erfasst wurden.
6. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass die Erweiterung des Suchfensters (6) rückgängig gemacht wird, wenn in einer festlegbaren Anzahl von Messzyklen dem Zielobjekt keine zusätzlichen Radarziele des erweiterten Suchfensters (6a) zugeordnet werden können und die Erweiterung des Suchfensters (6) auf eine festlegbare Anzahl von Messzyklen beschränkt wird.
7. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei der Zuordnung der Radarziele (9) zum Zielobjekt die laterale Position der Radarziele (9) nicht berücksichtigt wird.
8. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Straßenrandschätzung (10) vorgesehen ist, wobei der geschätzte Straßenrand herangezogen wird, um zu erkennen, ob es sich bei dem zweiten Objekt um ein Spiegelobjekt (8) des Zielobjekts handelt oder nicht.
9. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Mittel vorgesehen sind, womit die Bewegungsinformation des Objekts, die Klassifikation des Objekts und/oder die Klassifikation der Verkehrssituation weitergeleitet werden kann.
10. Verfahren zur Erfassung eines Zielobjekts, insbesondere nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren ferner folgende Schritte umfasst:
- Erkennen einer Detektion außerhalb der eigenen Spur (Schritt I),
- Suchen nach Objekten innerhalb der eigenen Spur (Schritt II),
- Markieren der Spiegeldetektion (Schritt III),
- Aktualisieren der Detektionsliste (Schritt IV),
- Datenassoziation (Schritt V),
- Datenupdate (Schritt VI),
- Objektqualitätsmaßbestimmung (Schritt VII) sowie
- Aktualisieren der Objektliste (Schritt VIII).
11. Fahrerassistenzsystem für ein Egofahrzeug (1), welches eine Erfassung eines Zielobjekts umfasst, insbesondere anhand eines Verfahrens nach einem der vorhergehenden Ansprüche, aufweisend eine Steuereinheit, einen Radarsensor (2) zur Objekt- und Umfelderkennung, wobei der Radarsensor (2) Radarsignale in aufeinanderfolgenden Messzyklen aussendet, die von dem Zielobjekt reflektiert und vom Radarsensor (2) als Radarziele (5) erfasst werden, wobei anhand der Radarziele (5) eine Bewegungsinformation des Zielobjekts ermittelt wird, und anhand der Bewegungsinformation ein Suchfenster für die Radarziele (5) des Objektes festgelegt wird, der Radarsensor (2) ein zweites Objekt anhand von Radarzielen (9) erfasst, wobei von dem zweiten Objekt eine Bewegungsinformation ermittelt wird, die Steuereinheit die Bewegungsinformation des zweiten Objekts mit der Bewegungsinformation des Zielobjektes vergleicht und der Vergleich der Bewegungsinformationen herangezogen wird, um zu erkennen, ob es sich bei dem zweiten Objekt um ein Spiegelobjekt (8) des Zielobjekts handelt oder nicht, wobei die Radarziele (9) dem Zielobjekt zugeordnet werden, wenn das zweite Objekt als Spiegelobjekt (8) erkannt worden ist.
12. Radarsensor (2) zur Objekt- und Umfelderkennung, wobei der Radarsensor (2) ein Zielobjekt erfasst, indem Radarsignale in aufeinanderfolgenden Messzyklen ausgesendet werden, die von dem Zielobjekt reflektiert und vom Radarsensor (2) als Radarziele (5) erfasst werden, dadurch gekennzeichnet, dass die Erfassung des Zielobjektes anhand eines Verfahrens nach mindestens einem der Ansprüche 1-10 erfolgt.
13. Computerprogramm mit Programmcode zur Durchführung eines Verfahren nach mindestens einem der Ansprüche 1-10, wenn das Computerprogramm in einem Computer ausgeführt wird.
14. Computerlesbares Speichermedium umfassend Anweisungen, welche den Computer, auf dem sie ausgeführt werden, veranlassen, ein Verfahren nach mindestens einem der Ansprüche 1-10 auszuführen.
PCT/DE2020/200057 2019-10-24 2020-07-15 Verfahren zur erfassung eines zielobjekts WO2021078335A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019216373.4A DE102019216373A1 (de) 2019-10-24 2019-10-24 Verfahren zur Erfassung eines Zielobjekts
DE102019216373.4 2019-10-24

Publications (1)

Publication Number Publication Date
WO2021078335A1 true WO2021078335A1 (de) 2021-04-29

Family

ID=72086652

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2020/200057 WO2021078335A1 (de) 2019-10-24 2020-07-15 Verfahren zur erfassung eines zielobjekts

Country Status (2)

Country Link
DE (1) DE102019216373A1 (de)
WO (1) WO2021078335A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4092447A1 (de) * 2021-05-21 2022-11-23 Axis AB Mehrwegklassifizierung in radardetektionen

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004036580A1 (de) * 2004-07-28 2006-03-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Objektdetektion bei einem Fahrzeug
DE102012108023A1 (de) 2012-08-30 2014-05-15 Conti Temic Microelectronic Gmbh Radarbasierte Erkennung von Strassenrandbebauung durch Ausnutzung von Mehrwegausbreitung
US20180341012A1 (en) * 2017-05-25 2018-11-29 Mitsumi Electric Co., Ltd. Ghost removal method and radar device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004036580A1 (de) * 2004-07-28 2006-03-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Objektdetektion bei einem Fahrzeug
DE102012108023A1 (de) 2012-08-30 2014-05-15 Conti Temic Microelectronic Gmbh Radarbasierte Erkennung von Strassenrandbebauung durch Ausnutzung von Mehrwegausbreitung
US20180341012A1 (en) * 2017-05-25 2018-11-29 Mitsumi Electric Co., Ltd. Ghost removal method and radar device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FENG LIU: "Objektverfolgung durch Fusion von Radar- und Monokameradaten auf Merkmalsebene für zukünftige Fahrerassistenzsysteme", 1 January 2010 (2010-01-01), XP055741538, ISBN: 978-3-86644-577-2, Retrieved from the Internet <URL:http://dx.doi.org/10.5445/KSP/1000020219> [retrieved on 20201019] *

Also Published As

Publication number Publication date
DE102019216373A1 (de) 2021-04-29

Similar Documents

Publication Publication Date Title
DE102013113619B4 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102016106298B4 (de) Fusionsverfahren für eine Querverkehr-Applikation unter Verwenden von Radargeräten und einer Kamera
DE112009004346B4 (de) Objekterkennungsvorrichtung und Objekterkennungsverfahren
DE60213235T2 (de) Überwachungsvorrichtung für fahrzeuge
EP1475764B1 (de) Verfahren und Vorrichtung zur Ermittlung der Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
EP1731922A1 (de) Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Kraftfahrzeuges
DE112015005329T5 (de) Fahrzeuggeschwindigkeitsvorrichtung, Fahrzeuggeschwindigkeitsregelungsverfahren und Fahrzeuggeschwindigkeitsregelungsprogramm
EP1891460A1 (de) Verfahren und vorrichtung zur erkennung und klassifizierung von objekten
DE102017102506B4 (de) Verfahren zum erfassen anderer fahrzeuge relativ zu einem trägerfahrzeug mittels raderfassung
EP2191293A1 (de) Objektklassifizierungsverfahren, einparkhilfeverfahren und einparkhilfesystem
DE112017005976T5 (de) Fahrzeugsteuervorrichtung
DE102018104243B3 (de) Verfahren und System zur Erkennung von für ein Fahrzeug geeigneten Parklücken
EP3151035A1 (de) Verfahren zum betrieb von radarsensoren in einem kraftfahrzeug und kraftfahrzeug
DE102016015405A1 (de) Umfassende Umgebungserfassung für einen Kraftwagen mittels Radar
WO2020127245A1 (de) Bestimmung der orientierung von objekten mittels radar oder durch die verwendung von elektromagnetischer abfragestrahlung
EP3374791A1 (de) Seitliche leitplankenerkennung über einen abstandssensor im kfz
DE102016220450A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Abschätzung einer Kollisionswahrscheinlichkeit zwischen einem Fortbewegungsmittel und einem Umgebungsobjekt
DE102020105192B4 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
WO2021078335A1 (de) Verfahren zur erfassung eines zielobjekts
DE102017205245A1 (de) Freibereichsfusion für Fahrerassistenzsysteme
EP4052064A1 (de) Verfahren zum verfolgen eines entfernten zielfahrzeugs in einem umgebungsbereich eines kraftfahrzeugs mittels einer kollisionserkennungsvorrichtung
DE112019006516T5 (de) Fahrassistenzvorrichtung
DE102022132859A1 (de) Fahrzeug und steuerungsverfahren dafür
EP2605039A1 (de) Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20756766

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20756766

Country of ref document: EP

Kind code of ref document: A1