WO2016087339A1 - Verfahren zum erkennen einer abschattung einer sensoreinrichtung eines kraftfahrzeugs durch ein objekt, recheneinrichtung, fahrerassistenzsystem sowie kraftfahrzeug - Google Patents

Verfahren zum erkennen einer abschattung einer sensoreinrichtung eines kraftfahrzeugs durch ein objekt, recheneinrichtung, fahrerassistenzsystem sowie kraftfahrzeug Download PDF

Info

Publication number
WO2016087339A1
WO2016087339A1 PCT/EP2015/077999 EP2015077999W WO2016087339A1 WO 2016087339 A1 WO2016087339 A1 WO 2016087339A1 EP 2015077999 W EP2015077999 W EP 2015077999W WO 2016087339 A1 WO2016087339 A1 WO 2016087339A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor device
motor vehicle
classifier
sensor
computing device
Prior art date
Application number
PCT/EP2015/077999
Other languages
English (en)
French (fr)
Inventor
Alexander SUHRE
Youssef-Aziz GHALY
Urs Luebbert
Original Assignee
Valeo Schalter Und Sensoren Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter Und Sensoren Gmbh filed Critical Valeo Schalter Und Sensoren Gmbh
Priority to JP2017529714A priority Critical patent/JP6510052B2/ja
Priority to CN201580065639.0A priority patent/CN107003405B/zh
Priority to KR1020177014953A priority patent/KR102012572B1/ko
Priority to US15/532,608 priority patent/US10908259B2/en
Priority to EP15801452.2A priority patent/EP3227718A1/de
Publication of WO2016087339A1 publication Critical patent/WO2016087339A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/74Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems
    • G01S13/76Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems wherein pulse-type signals are transmitted
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/66Sonar tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4039Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating
    • G01S2007/52009Means for monitoring or calibrating of sensor obstruction, e.g. dirt- or ice-coating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles

Definitions

  • the present invention relates to a method for detecting a shadowing of a sensor device of a motor vehicle by an object, in which at least one echo signal detected by the sensor device, which characterizes a distance between the sensor device and the object, is received by means of a computing device, a detection range for the sensor device is determined and is checked based on the at least one received echo signal, whether the
  • the invention also relates to a computing device for a driver assistance system.
  • the invention relates to a driver assistance system and a motor vehicle.
  • These sensor devices can, for example, be distributed on the motor vehicle and serve to detect or recognize an object in an environmental region of the motor vehicle. In particular, a distance between the motor vehicle and the object can be detected with the sensor devices.
  • Such sensor devices usually operate according to the echosounding principle. That is, the sensor devices send out a transmission signal, which is reflected by the object in the surrounding area of the motor vehicle. That reflected
  • Transmission signal is then received as echo signal again from the sensor device. Based on the transit time between the transmission of the transmission signal and the reception of the echo signal, the distance between the motor vehicle and the object can then be determined.
  • sensor devices may include, for example, a radar sensor, an ultrasonic sensor or a laser sensor. The sensor devices are used in particular in connection with driver assistance systems which assist the driver in guiding the motor vehicle. Such
  • Driver assistance system may be, for example, a parking aid, a blind spot assistant, a distance control or an automatic door opener.
  • the functionality of the sensor devices must be ensured.
  • the functionality of the sensor device is limited, for example, if a detection range of the sensor device is shaded. Of the Detection range of the sensor device describes in particular the area in which objects can be detected with the sensor device.
  • Sensor device can be shaded, for example, when a (quasi) static object is in the detection range of the sensor device.
  • a (quasi) static object is in the detection range of the sensor device.
  • further objects that are located behind the shading object, starting from the sensor device can no longer be detected.
  • the shading object is located relatively close to the sensor device, this can result in a large proportion of the detection area being shaded by the object. This is effected in particular by the fact that the transmission signals, which are transmitted with the sensor device, are scattered on this object, whereby the field of view of the sensor device is restricted.
  • EP 2 639 781 A1 describes a method for detecting a position of a target object in a surrounding area of a motor vehicle.
  • a sensor device for example a radar sensor.
  • an image containing the target object and detected by an image sensor is received.
  • the first position is projected onto the image and the first position is refined by a second position which is determined based on a symmetry search within the image.
  • it can be checked whether an object is shadowed by other objects.
  • This object is achieved by a method by a
  • An inventive method is used to detect a shadowing of a sensor device of a motor vehicle by an object.
  • at least one echo signal detected by the sensor device which characterizes a distance between the sensor device and the object, is received by means of a computing device.
  • a detection range for the sensor device is determined and On the basis of the at least one received echo signal is checked whether the
  • Sensor device is shadowed by the object at least partially. Furthermore, at least one echo signal by means of the computing device becomes a discrete one
  • a power value is determined on the basis of the echo signal, and based on the power values, it is decided by means of a classifier whether at least a predetermined portion of the detection range of the sensor device is shaded by the object.
  • the method relates to the operation of a sensor device of a motor vehicle.
  • a sensor device With the sensor device, an object in the surrounding area of the motor vehicle can be detected.
  • a distance between the sensor device and an object can be determined with the sensor device.
  • the sensor device may comprise, for example, a radar sensor, an ultrasound sensor and / or a laser sensor.
  • the sensor device can be in several, in particular temporally
  • a transmission signal is transmitted by means of the sensor device, this transmission signal is reflected at the object and the reflected sensor signal is received by the sensor device again as an echo signal. Based on the transit time between the transmission of the transmission signal and the reception of the echo signal, the distance between the sensor device and the object can be determined.
  • the shading of the sensor device can also be referred to as "occlusion.”
  • the sensor device has a predetermined detection region which describes the region in the surrounding region of the motor vehicle in which objects can be detected with the sensor device.
  • the object may be (quasi-) static and have a low permittivity for the transmission signal .
  • the object may therefore be determined as to whether the object for the sensor device is a shading object Shading of the detection area by the object is dependent on the distance between the sensor device and the object and / or the dimensions of the object. of the shadowed by the object, no further objects can be detected by means of
  • the at least one echo signal is discrete by means of a computing device
  • a plurality of echo signals can also be received by means of the computing device and assigned to discrete distance values in each case. These discrete distance values can be predetermined.
  • a power value is determined for each of the discrete distance values on the basis of the echo signal. The power value can be determined, for example, based on the signal power of the echo signal. For example, the
  • Power value can be determined from the signal amplitude of the echo signal.
  • a classifier in particular a linear classifier, is provided, with which the power values for the discrete distance values are examined. It is also possible to use a non-linear classifier.
  • the classifier can be provided for example by a corresponding computing device on which a classification method is performed. It can also be provided that the classification method is performed on the computing device itself. In this case, the computing device forms the classifier.
  • the classifier can now analyze the power values for the respective discrete distance values and assign these predetermined classes.
  • the classifier can be the
  • shaded means that the object described by the discrete distance values and the associated power values will shade the detection range of the sensor device.
  • the class "not shaded” means that the object to which the discrete distance values and the associated power values are assigned do not shade the sensor device, so that it is easy to check with the aid of the classifier whether the object has the
  • the power values for the plurality of discrete distance values are assigned to a vector and the vector is compared by means of the classifier with a predetermined decision limit.
  • the decision boundary can be designed differently.
  • the decision limit may be, for example, a line, a hyperplane or a
  • Probability density function to be formed Based on this predetermined Decision limit may be the vector that determines the performance values for the discrete
  • Distance values includes either the class "shadowed” or the class "unshaded”. This way, within a short
  • the predetermined decision limit is predetermined during a training phase of the classifier. During this training phase, for example, a reference object at a predetermined distance from the
  • the reference object can be positioned at a predetermined distance from the motor vehicle. It can then be decided whether the reference object should be assigned to the class "shaded" or "not shaded". For this distance of the reference object, a so-called ground truth label can be defined. Subsequently, the vector can be determined, which in each case includes the power value for the plurality of discrete distance values.
  • Sensor device and the reference object are performed.
  • the steps described above can be performed for different reference objects or for several reference objects.
  • the vectors determined in the respective measurements with their associated ground truth label can then be passed to the classifier. Based on these values, the classifier can then use the
  • the predetermined decision limit is checked during a test phase of the classifier.
  • a test phase of the classifier for example, a
  • the vector can be determined, which in each case includes the power value for the plurality of discrete distance values. This vector can then be compared with the decision boundary and then it can be decided whether the reference object is assigned to the class "shadowed" or "unshaded". Thus, the functionality of the classifier can be checked in the test phase.
  • a plurality of echo signals are received by the computing device, wherein each of the echo signals is received during the measurement cycle with the sensor device.
  • the sensor device can, for example, in operated consecutively measuring cycles. It is also conceivable that in each of the measuring cycles only a portion of the detection range is examined by means of the sensor device for the presence of the object. In the successive measuring cycles, the complete detection range can also be checked by means of the sensor device. In each of the measuring cycles, an echo signal is generated with the sensor device and transmitted to the computing device. The computing device can then assign the echo signal to the respective discrete distance value and determine the associated power value. Thus, it can be determined, for example, whether the object which is detected by means of the sensor device is static or whether a relative movement takes place between the sensor device and the object.
  • Sensor device and the object is determined.
  • the distance between the sensor device and the object can be determined.
  • a spatial dimension of at least one side of the object facing the sensor device can be determined.
  • the arrangement of the object to the sensor device can be determined.
  • the object is determined by a plurality of sensor devices.
  • the object can be detected by means of the sensor device starting from different positions and in this case the distance in each case can be determined. In this way, the relative position between the sensor device and the object can be determined.
  • the location of the object in the detection area and the spatial extent of the object in the detection area can be determined.
  • a first part of the detection area which is shadowed by the object, and a second part area of the detection area, in which further objects by means of
  • Sensor device can be detected determined. On the basis of the relative position between the sensor device and / or on the basis of the dimensions of the object and on the basis of the detection range of the sensor device, it is possible to determine the region of the detection region which is shaded by the object. In addition, the area can be determined which is not shadowed by the object in which further objects can be detected by means of the sensor device. Thus, can
  • the sensor device for detecting objects can continue to be used and in which area objects can be detected.
  • Detected detection range by means of the sensor device can be detected. On the one hand, it can be determined on the basis of the echo signal and the distance values derived therefrom as well as the associated power values whether a shading object is located in the detection range of the sensor device. Furthermore, it should now be checked whether this
  • Shadowing is so strong that behind the shading object no more objects can be detected.
  • the discrete distance values can be used.
  • the discrete distance values can be used, which objects are assigned behind the shadowing object. If the
  • Power value which is associated with such a discrete distance value, falls below a predetermined threshold, it can be assumed that an object which is assigned to this discrete distance value, can not be detected. In this case, the field of view of the sensor device would be too strongly influenced by the shading object. However, if the power value for this distance value exceeds the threshold, it can be assumed, for example, that objects behind the shadowed object can still be detected.
  • the classifier is a Support Vector Machine, a Parzen Window Classifier, and / or a Discriminant Analysis Classifier.
  • a support vector machine which can also be referred to as a support vector machine, can, for example, divide the vectors into classes in such a way that the respective ones can be divided into classes
  • class boundaries remain as free of vectors as possible. Furthermore, the classifier can be designed according to the principle of a Parzen window classification method. Furthermore, it is conceivable that the classifier
  • Discriminant analysis classifier for example a Fisher's linear discriminant or a perceptron.
  • a computing device for a driver assistance system of a
  • the computing device may be, for example, a programmable
  • Computer such as a digital signal processor (DSP), a microcontroller or the like act.
  • DSP digital signal processor
  • a computer program may be provided which for example, stored on a storage medium (RAM, ROM, flash memory), wherein the program is programmed to execute the method described here, when it is executed on the computer.
  • the program can be executed on the computing device.
  • An inventive driver assistance system for a motor vehicle comprises a computing device according to the invention.
  • the driver assistance system may be, for example, a parking aid, a blind spot assistant, a proximity control or an automatic door opener.
  • the driver assistance system can also have a
  • Output means by means of which an output is output to the driver of the motor vehicle, if it is detected by the computing means that the object shadows the sensor device. Thus, the driver can be informed that the sensor device can not currently detect objects.
  • a motor vehicle according to the invention comprises an inventive
  • the motor vehicle is designed in particular as a passenger car.
  • Embodiments and their advantages apply correspondingly to the computing device according to the invention, to the driver assistance system according to the invention and to the motor vehicle according to the invention.
  • FIG. 1 is a schematic representation of a motor vehicle according to a
  • FIG. 2 shows the motor vehicle according to FIG. 1, wherein further objects are located in a detection area of a sensor device of the motor vehicle;
  • Fig. 3 is an enlarged fragmentary view of Fig. 2;
  • FIG. 4 is a schematic flow diagram of a method according to the invention for detecting a shading of the sensor device of the motor vehicle;
  • FIG. 1 shows a motor vehicle 1 according to an embodiment of the present invention
  • the motor vehicle 1 is in the present embodiment as
  • the motor vehicle 1 further comprises a
  • Driver assistance system 2 which, for example, as a parking aid system,
  • Abstandsregeltempomat, blind spot assistant or the like may be formed.
  • the driver assistance system 2 comprises at least one sensor device 4 by means of which an object 8 can be detected in a surrounding area 7 of the motor vehicle 1.
  • the surrounding area 7 surrounds the motor vehicle 1 completely.
  • an object 8 which in the
  • the sensor device 4 is designed to emit a transmission signal, which is reflected by the object 8.
  • the reflected transmission signal returns as an echo signal to the sensor device 4.
  • the sensor device 4 can basically be designed as an ultrasonic sensor, as a radar sensor or as a laser sensor.
  • the sensor device can be arranged in a front area and / or in a rear area 5 of the motor vehicle 1.
  • the motor vehicle 1 or the
  • Driver assistance system 2 two distance sensors 4, which are designed as radar sensors, and which are arranged in the rear region 5 of the motor vehicle.
  • Distance sensors may be designed in particular as so-called continuous wave radar sensors.
  • the distance sensors 4 can be arranged, for example, concealed behind a bumper of the motor vehicle 1.
  • Driver assistance system 2 also has a computing device 3.
  • Computing device 3 may be formed, for example, by a computer, by a digital signal processor or the like.
  • the computing device 3 may also be a control unit (ECU - Electronic Control Unit) of the motor vehicle 1.
  • FIG. 1 shows an enlarged view of Fig. 2.
  • the detection area E is assumed to be circular sector-shaped here.
  • Detection area E is thus divided into a first partial area 10, which is shadowed by the object 8, and into a second partial area 11, in which optionally further objects 9 can be detected by means of the sensor device 4.
  • the second portion 1 1 has the opening angle ⁇ .
  • only part of the further object 9 can be detected by means of the sensor device 4.
  • the lateral distance W and the longitudinal distance L can be determined.
  • the lateral distance W may, for example, be a distance at which a warning signal is output if an object 9 is located there.
  • 4 shows a schematic flow diagram of a method for detecting a shading of the sensor device 4 by the object 8. In a step S1, a plurality of measuring cycles are performed with the distance sensor 4. At each
  • a transmission signal is emitted and received by the object 8 reflected echo signal. Based on the received echo signal, a power can be determined. This power is measured in particular as a function of two discrete variables, namely the distance and the speed. The distance between the distance sensor 4 and the object 8 can be determined based on the transit time. The speed or the relative speed between the
  • Motor vehicle 1 and the object 8 can be determined for example by means of a double shift of the echo signal. Based on the distance and the distance
  • Speed can be defined as a two-dimensional function of power that includes the distance as the first variable and the speed as the second variable.
  • the object 8 is in particular a static object, for example a parked motor vehicle.
  • the proportion of the speed can not be considered.
  • the echo signal is further processed by means of the computing device 3.
  • the echo signal which describes a distance between the sensor device 4 and the object 8, can now be assigned to a discrete distance value B1, B2, B3. For each of the distance values B1, B2, B3 can then by means of
  • the power value P can be determined for each of the discrete distance values B1, B2, B3 from the signal power of the
  • Echo signal can be determined.
  • the respective power values P for each of the discrete distance values B1, B2, B3 are assigned to a vector.
  • the vector is compared by means of a classifier with a predetermined decision boundary.
  • the classifier can be provided by a corresponding computer, on which a corresponding classification method is performed.
  • the classifier can also be provided by the computing device 3 itself. In the present case, it is assumed that in the case of shading, the shading object 8 is at a distance from the
  • the power value P will be highest for the discrete distance values B1, B2, B3 closest to that distance. Similarly, the power or the power value P for the other
  • Distance values B1, B2, B3 be much smaller. These can be for example Rauschmony are. Based on the power values P for the discrete distance values B1, B2, B3, it can now be determined on the one hand whether a shading object 8 is arranged in the detection area E of the distance sensor 4. Furthermore, it can be determined whether the shading is so strong that the power values P for areas behind the object 8 are sufficiently small. Thus one can conclude that the
  • Distance sensor 4 can no longer "see” behind the object 8, and the field of view is thus impaired.
  • the power values P should have similar values for the respective discrete distance values B1, B2, B3. This is illustrated for example in FIG. 5.
  • the power values P should have a clear maximum with respect to the power value P for one of the discrete distance values B1, B2, B3, and for the other distance values B1, B2, B3, the power values P should be markedly lower. In the present case, this is illustrated by way of example in FIG. 6, in which case the power value P for the discrete distance value B1 is significantly greater than that
  • Power values P for the distance values B2 and B3. Such patterns of performance values can be recognized by the classifier.
  • the classifier can first be operated in a training phase according to step S4.
  • a reference object can be positioned at a predetermined distance from the distance sensor. Then it can be decided to which class "shadowed” or “not shaded” this distance should belong. Thus, a ground truth label can be defined.
  • the vector comprising the discrete distance values B1, B2, B3 and the associated power values P can be determined. This can be done for different distances between the distance sensor 4 and the reference object as well as for different reference objects. Based on
  • the classifier can then determine the decision boundary, which is, for example, a line, a hyperplane or a probability density function, depending on the classifier used.
  • step S5 since the decision boundary is checked in a test phase of the classifier.
  • an object can be positioned at a predetermined distance from the distance sensor 4.
  • the vector can be determined.
  • the vector can be compared with the decision boundary and it can be decided whether this object is assigned to the class "shadowed" or "unshaded".
  • FIG. 7 Here, for example, corresponding training data for two classes to be considered are shown as points 12 and 13.
  • the classifier now tries to find a mathematical rule to uniquely assign a new point 12, 13 to one of the two classes. This can be done in this example by drawing a line 14 (for more dimensional points this would be a hyperplane) that separates the two classes as well as possible.
  • Test data point is assigned to the class on whose side of the line it is located.
  • step S3 the determined power values P for the discrete distance values B1 and B2 are compared as a function of the decision limit.
  • the points 12 of the class are "shadowed" and the points 13 are assigned to the class "not shaded".
  • line 15 shows the decision boundary of a first Bayes classifier.
  • Line 16 shows the decision boundary of a discriminant analysis classifier, for example Fisher's Linear Discriminant.
  • the curve 17 describes the decision boundary of a Parzen classifier.
  • Line 18 shows the decision boundary of a classifier operating on the basis of an artificial neural network, such as a perceptron.
  • the curve 19 describes the decision boundary of another Bayes classifier.
  • Detection range E of the distance sensor shadows or not. In addition, it can be determined to what extent the object 8 shadows the detection area E of the distance sensor 4.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erkennen einer Abschattung einer Sensoreinrichtung (4) eines Kraftfahrzeugs (1) durch ein Objekt (8), bei welchem zumindest ein von der Sensoreinrichtung (4) erfasstes Echosignal, welches einen Abstand zwischen der Sensoreinrichtung (4) und dem Objekt (8) charakterisiert, mittels einer Recheneinrichtung (3) empfangen wird (S1), ein Erfassungsbereich (E) für die Sensoreinrichtung (4) bestimmt wird und anhand des zumindest einen empfangenen Echosignals überprüft wird, ob der Erfassungsbereich (E) der Sensoreinrichtung (4) durch das Objekt (8) zumindest bereichsweise abgeschattet wird, wobei das zumindest eine Echosignal mittels der Recheneinrichtung (3) einem diskreten Abstandswert (B1, B2, B3) aus einer Mehrzahl von diskreten Abstandswerten (B1, B2, B3) zugeordnet wird, für jeden der diskreten Abstandswerte (B1, B2, B3) ein Leistungswert (P) anhand des Echosignals bestimmt wird (S2) und anhand der Leistungswerte (P) mittels eines Klassifikators entschieden wird, ob zumindest ein vorbestimmter Anteil des Erfassungsbereichs (E) der Sensoreinrichtung (4) durch das Objekt (8) abgeschattet wird (S6).

Description

Verfahren zum Erkennen einer Abschattung einer Sensoreinrichtung eines Kraftfahrzeugs durch ein Objekt, Recheneinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
Die vorliegende Erfindung betrifft ein Verfahren zum Erkennen einer Abschattung einer Sensoreinrichtung eines Kraftfahrzeugs durch ein Objekt, bei welchem zumindest ein von der Sensoreinrichtung erfasstes Echosignal, welches einen Abstand zwischen der Sensoreinrichtung und dem Objekt charakterisiert, mittels einer Recheneinrichtung empfangen wird, ein Erfassungsbereich für die Sensoreinrichtung bestimmt wird und anhand des zumindest einen empfangenen Echosignals überprüft wird, ob der
Erfassungsbereich der Sensoreinrichtung durch das Objekt zumindest bereichsweise abgeschattet wird. Die Erfindung betrifft außerdem eine Recheneinrichtung für ein Fahrerassistenzsystem. Zudem betrifft die Erfindung ein Fahrerassistenzsystem sowie ein Kraftfahrzeug.
Das Interesse richtet sich vorliegend insbesondere auf Sensoreinrichtungen für
Kraftfahrzeuge. Diese Sensoreinrichtungen können beispielsweise verteilt an dem Kraftfahrzeug angeordnet sein und dazu dienen, ein Objekt in einem Umgebungsbereich des Kraftfahrzeugs zu erfassen bzw. zu erkennen. Mit den Sensoreinrichtungen kann insbesondere ein Abstand zwischen dem Kraftfahrzeug und dem Objekt detektiert werden. Derartige Sensoreinrichtungen arbeiten üblicherweise nach dem Echolotprinzip. Das heißt die Sensoreinrichtungen senden ein Sendesignal aus, welches von dem Objekt in dem Umgebungsbereich des Kraftfahrzeugs reflektiert wird. Das reflektierte
Sendesignal wird dann als Echosignal wieder von der Sensoreinrichtung empfangen. Anhand der Laufzeit zwischen dem Aussenden des Sendesignals und dem Empfangen des Echosignals kann dann der Abstand zwischen dem Kraftfahrzeug und dem Objekt ermittelt werden. Diese Sensoreinrichtungen können beispielsweise einen Radarsensor, einen Ultraschallsensor oder einen Lasersensor umfassen. Die Sensoreinrichtungen werden insbesondere im Zusammenhang mit Fahrerassistenzsystemen eingesetzt, welche den Fahrer beim Führen des Kraftfahrzeugs unterstützen. Ein solches
Fahrerassistenzsystem kann beispielsweise eine Einparkhilfe, ein Totwinkel-Assistent, ein Abstandsregeltempomat oder ein automatischer Türöffner sein.
Damit die Fahrerassistenzsysteme den Fahrer beim Führen des Kraftfahrzeugs zuverlässig unterstützen können, muss die Funktionsfähigkeit der Sensoreinrichtungen gewährleistet sein. Die Funktionsfähigkeit der Sensoreinrichtung ist beispielsweise eingeschränkt, wenn ein Erfassungsbereich der Sensoreinrichtung abgeschattet ist. Der Erfassungsbereich der Sensoreinrichtung beschreibt insbesondere den Bereich, in welchem mit der Sensoreinrichtung Objekte detektiert werden können. Die
Sensoreinrichtung kann beispielsweise abgeschattet sein, wenn sich ein (quasi-) statisches Objekt in dem Erfassungsbereich der Sensoreinrichtung befindet. Somit können beispielsweise weitere Objekte, die sich ausgehend von der Sensoreinrichtung hinter dem abschattenden Objekt befinden, nicht mehr erfasst werden. Insbesondere wenn sich das abschattende Objekt relativ nahe an der Sensoreinrichtung befindet, kann dies zur Folge haben, dass ein großer Anteil des Erfassungsbereichs durch das Objekt abgeschattet wird. Dies wird insbesondere dadurch bewirkt, dass die Sendesignale, die mit der Sensoreinrichtung ausgesendet werden, an diesem Objekt gestreut werden, wodurch das Sichtfeld der Sensoreinrichtung eingeschränkt wird.
Hierzu beschreibt die EP 2 639 781 A1 ein Verfahren zum Detektieren einer Position eines Zielobjekts in einem Umgebungsbereich eines Kraftfahrzeugs. Dabei wird eine Information über eine erste Position des Zielobjekts mit einer Sensoreinrichtung, beispielsweise einem Radarsensor, empfangen. Zudem wird ein Bild, das das Zielobjekt enthält und das von einem Bildsensor, beispielsweise einer Kamera, erfasst wurde, empfangen. Ferner wird die erste Position auf das Bild projiziert und die erste Position durch eine zweite Position verfeinert, welche auf Basis einer Symmetriesuche innerhalb des Bildes bestimmt wird. Hierbei kann zudem überprüft werden, ob ein Objekte durch andere Objekte abgeschattet sind.
Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie
Sensoreinrichtungen, mit denen Objekte in einem Umgebungsbereich eines
Kraftfahrzeugs erfasst werden, zuverlässiger betrieben werden können.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine
Recheneinrichtung, durch ein Fahrerassistenzsystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst.
Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen
Patentansprüche, der Beschreibung und der Figuren.
Ein erfindungsgemäßes Verfahren dient zum Erkennen einer Abschattung einer Sensoreinrichtung eines Kraftfahrzeugs durch ein Objekt. Hierbei wird zumindest ein von der Sensoreinrichtung erfasstes Echosignal, welches einen Abstand zwischen der Sensoreinrichtung und dem Objekt charakterisiert, mittels einer Recheneinrichtung empfangen. Zudem wird ein Erfassungsbereich für die Sensoreinrichtung bestimmt und anhand des zumindest einen empfangenen Echosignals wird überprüft, ob die
Sensoreinrichtung durch das Objekt zumindest bereichsweise abgeschattet wird. Ferner wird zumindest ein Echosignal mittels der Recheneinrichtung einem diskreten
Abstandswert aus einer Mehrzahl von diskreten Abstandswerten zugeordnet. Für jeden der diskreten Abstandswerte wird anhand des Echosignals ein Leistungswert bestimmt und anhand der Leistungswerte wird mittels eines Klassifikators entschieden, ob zumindest ein vorbestimmter Anteil des Erfassungsbereichs der Sensoreinrichtung durch das Objekt abgeschattet wird.
Das Verfahren betrifft den Betrieb einer Sensoreinrichtung eines Kraftfahrzeugs. Mit der Sensoreinrichtung kann ein Objekt in dem Umgebungsbereich des Kraftfahrzeugs detektiert werden. Insbesondere kann mit der Sensoreinrichtung ein Abstand zwischen der Sensoreinrichtung und einem Objekt bestimmt werden. Die Sensoreinrichtung kann beispielsweise einen Radarsensor, einen Ultraschallsensor und/oder einen Lasersensor umfassen. Die Sensoreinrichtung kann in mehreren, insbesondere zeitlich
aufeinanderfolgenden, Messzyklen betrieben werden. In jedem der Messzyklen wird mittels der Sensoreinrichtung ein Sendesignal ausgesendet, dieses Sendesignal wird an dem Objekt reflektiert und das reflektierte Sensorsignal wird von der Sensoreinrichtung wieder als Echosignal empfangen. Anhand der Laufzeit zwischen dem Aussenden des Sendesignals und dem Empfangen des Echosignals kann der Abstand zwischen der Sensoreinrichtung und dem Objekt bestimmt werden.
Vorliegend soll nun erkannt werden, ob die Sensoreinrichtung abgeschattet ist.
Insbesondere soll erkannt werden, ob die Sensoreinrichtung durch das Objekt abgeschattet wird. Die Abschattung der Sensoreinrichtung kann auch als„occlusion" bezeichnet werden. Die Sensoreinrichtung weist einen vorbestimmten Erfassungsbereich auf, der den Bereich in dem Umgebungsbereich des Kraftfahrzeugs beschreibt, in dem mit der Sensoreinrichtung Objekte detektiert werden können. Mit anderen Worten soll erkannt werden, ob das Sichtfeld der Sensoreinrichtung durch das Objekt gestört ist oder nicht. Es soll also ermittelt werden, ob das Objekt für die Sensoreinrichtung ein abschattendes Objekt ist. Das Objekt kann (quasi-) statisch sein, und eine geringe Permittivität für das Sendesignal aufweisen. Das Objekt kann den Erfassungsbereich der Sensoreinrichtung abschatten, wenn ein vorbestimmter Anteil des Erfassungsbereichs durch das Objekt abgeschattet wird. Die Abschattung des Erfassungsbereichs durch das Objekt ist abhängig von dem Abstand zwischen der Sensoreinrichtung und dem Objekt und/oder den Abmessungen des Objekts. In dem Anteil des Erfassungsbereichs, der durch das Objekt abgeschattet wird, können keine weiteren Objekte mittels der
Sensoreinrichtung erfasst werden.
Zum Erkennen der Abschattung des Erfassungsbereichs der Sensoreinrichtung wird das zumindest eine Echosignal mittels einer Recheneinrichtung einem diskreten
Abstandswert aus einer Mehrzahl von diskreten Abstandswerten zugeordnet. Dabei können auch mehrere Echosignale mittels der Recheneinrichtung empfangen werden und jeweils diskreten Abstandswerten zugeordnet werden. Diese diskreten Abstandswerte können vorbestimmt sein. Zudem wird für jeden der diskreten Abstandswerte anhand des Echosignals ein Leistungswert bestimmt. Der Leistungswert kann beispielsweise anhand der Signalleistung des Echosignals bestimmt werden. Beispielsweise kann der
Leistungswert aus der Signalamplitude des Echosignals bestimmt werden. Zudem wird ein Klassifikator, insbesondere ein linearer Klassifikator, bereitgestellt, mit dem die Leistungswerte für die diskreten Abstandswerte untersucht werden. Es ist auch möglich, einen nicht-linearen Klassifikator zu verwenden. Der Klassifikator kann beispielsweise durch eine entsprechende Recheneinrichtung bereitgestellt werden, auf welchem ein Klassifikationsverfahren durchgeführt wird. Dabei kann es auch vorgesehen sein, dass das Klassifikationsverfahren auf der Recheneinrichtung selbst durchgeführt wird. In diesem Fall bildet die Recheneinrichtung den Klassifikator. Der Klassifikator kann nun die Leistungswerte für die jeweiligen diskreten Abstandswerte analysieren und diese vorbestimmten Klassen zuordnen. Beispielsweise kann der Klassifikator die
Leistungswerte entweder einer Klasse„abgeschattet" oder einer Klasse„nicht
abgeschattet" zuordnen. Dabei bedeutet die Klasse„abgeschattet", dass das Objekt, das durch die diskreten Abstandswerte und die zugehörigen Leistungswerte beschrieben wird, den Erfassungsbereich der Sensoreinrichtung abschattet. Die Klasse„nicht abgeschattet" bedeutet, dass das Objekt, welchem die diskreten Abstandswerte und die zugehörigen Leistungswerte zugeordnet sind, die Sensoreinrichtung nicht abschatten. Somit kann mit Hilfe des Klassifikators auf einfache Weise überprüft werden, ob das Objekt die
Sensoreinrichtung abschattet oder nicht. Ferner kann überprüft werden, ob die
Funktionsfähigkeit der Sensoreinrichtung gegeben ist oder nicht.
Bevorzugt werden die Leistungswerte für die Mehrzahl von diskreten Abstandswerten einem Vektor zugeordnet und der Vektor wird mittels des Klassifikators mit einer vorbestimmten Entscheidungsgrenze verglichen. Je nach verwendetem Klassifikator kann die Entscheidungsgrenze unterschiedlich ausgebildet sein. Die Entscheidungsgrenze kann beispielsweise durch eine Linie, einer Hyperebene oder eine
Wahrscheinlichkeitsdichtefunktion gebildet sein. Anhand dieser vorbestimmten Entscheidungsgrenze kann der Vektor, der die Leistungswerte für die diskreten
Abstandswerte umfasst, entweder der Klasse„abgeschattet" oder der Klasse„nicht abgeschattet" zugeordnet werden. Auf diese Weise kann innerhalb einer kurzen
Rechendauer entschieden werden, ob das Objekt die Sensoreinrichtung abschattet oder nicht.
In einer Ausführungsform wird die vorbestimmte Entscheidungsgrenze während einer Trainingsphase des Klassifikators vorbestimmt. Während dieser Trainingsphase kann beispielsweise ein Referenzobjekt in einem vorbestimmten Abstands zu der
Sensoreinrichtung positioniert werden. Wenn die Sensoreinrichtung an und/oder in dem Kraftfahrzeug verbaut ist, kann das Referenzobjekt in einem vorbestimmten Abstand zu dem Kraftfahrzeug positioniert werden. Anschließend kann entscheiden werden, ob das Referenzobjekt der Klasse„abgeschattet" oder„nicht abgeschattet" zugeordnet werden soll. Für diesen Abstand des Referenzobjekts kann ein sogenanntes Ground-Truth-Label definiert werden. Anschließend kann der Vektor bestimmt werden, der für die Mehrzahl von diskreten Abstandswerten jeweils den Leistungswert umfasst. Die zuvor
beschriebenen Schritte können für unterschiedliche Abstände zwischen der
Sensoreinrichtung und dem Referenzobjekt durchgeführt werden. Zudem können die zuvor beschriebenen Schritte für unterschiedliche Referenzobjekte oder für mehrere Referenzobjekte durchgeführt werden. Die bei den jeweiligen Messungen ermittelten Vektoren mit ihrem zugehörigen Ground-Truth-Label können dann dem Klassifikator übergeben werden. Anhand dieser Werte kann der Klassifikator dann die
Entscheidungsgrenze vorbestimmen.
In einer weiteren Ausführungsform wird die vorbestimmte Entscheidungsgrenze während einer Testphase des Klassifikators überprüft. Hierbei kann beispielsweise ein
Referenzobjekt in einem vorbestimmten Abstand zu der Sensoreinrichtung platziert werden. Anschließend kann der Vektor bestimmt werden, der für die Mehrzahl von diskreten Abstandswerten jeweils den Leistungswert umfasst. Dieser Vektor kann dann mit der Entscheidungsgrenze verglichen werden und daraufhin kann entschieden werden, ob das Referenzobjekt der Klasse„abgeschattet" oder„nicht abgeschattet" zugeordnet wird. In der Testphase kann somit die Funktionsfähigkeit des Klassifikators überprüft werden.
In einer weiteren Ausführungsform werden mittels der Recheneinrichtung eine Mehrzahl von Echosignalen empfangen, wobei jedes der Echosignale während des Messzyklus mit der Sensoreinrichtung empfangen wird. Die Sensoreinrichtung kann beispielsweise in zeitlich aufeinanderfolgenden Messzyklen betrieben werden. Dabei ist es auch denkbar, dass in jedem der Messzyklen nur ein Teilabschnitt des Erfassungsbereichs mittels der Sensoreinrichtung auf das Vorhandensein des Objekts hin untersucht wird. In den aufeinanderfolgenden Messzyklen können jeweils auch der komplette Erfassungsbereich mittels der Sensoreinrichtung überprüft werden. Bei jedem der Messzyklen wird mit der Sensoreinrichtung ein Echosignal erzeugt und an die Recheneinrichtung übermittelt. Die Recheneinrichtung kann das Echosignal dann dem jeweiligen diskreten Abstandswert zuordnen und den dazugehörigen Leistungswert bestimmen. Somit kann beispielsweise bestimmt werden, ob das Objekt, das mittels der Sensoreinrichtung erfasst wird, statisch ist oder ob eine Relativbewegung zwischen der Sensoreinrichtung und dem Objekt erfolgt.
Weiterhin ist es vorteilhaft, wenn mittels der Recheneinrichtung anhand der jeweiligen Leistungswerte für die diskreten Abstandswerte eine relative Lage zwischen der
Sensoreinrichtung und dem Objekt bestimmt wird. Mit der Sensoreinrichtung kann der Abstand zwischen der Sensoreinrichtung und dem Objekt bestimmt werden. Weiterhin kann eine räumliche Abmessung zumindest einer der Sensoreinrichtung zugewandten Seite des Objekts bestimmt werden. Auf diese Weise kann die Anordnung des Objekts zu der Sensoreinrichtung bestimmt werden. Es kann auch vorgesehen sein, dass das Objekt mit mehreren Sensoreinrichtungen bestimmt wird. Alternativ oder zusätzlich kann das Objekt mittels der Sensoreinrichtung ausgehend von verschiedenen Positionen erfasst und hierbei jeweils der Abstand bestimmt werden. Auf diese Weise kann die relative Lage zwischen der Sensoreinrichtung und dem Objekt bestimmt werden. Somit kann die Lage des Objekts in dem Erfassungsbereich und die räumliche Ausdehnung des Objekts in dem Erfassungsbereich bestimmt werden.
In einer weiteren Ausführungsform wird mittels der Recheneinrichtung anhand der bestimmten relativen Lage zwischen der Sensoreinrichtung und dem Objekt ein erster Teil des Erfassungsbereichs, welcher durch das Objekt abgeschattet ist, und ein zweiter Teilbereich des Erfassungsbereichs, in welchem weitere Objekte mittels der
Sensoreinrichtung erfassbar sind, bestimmt. Anhand der relativen Lage zwischen der Sensoreinrichtung und/oder anhand der Abmessungen des Objekts sowie anhand des Erfassungsbereichs der Sensoreinrichtung kann der Bereich des Erfassungsbereichs bestimmt werden, welcher durch das Objekt abgeschattet wird. Zudem kann der Bereich bestimmt werden, welcher nicht durch das Objekt abgeschattet wird, in dem weiteren Objekte mittels der Sensoreinrichtung detektiert werden können. Somit kann
beispielsweise bestimmt werden, ob die Sensoreinrichtung zum Erfassen von Objekten weiterhin eingesetzt werden kann und in welchem Bereich Objekte detektiert werden können.
Weiterhin ist es vorteilhaft, wenn mittels der Recheneinrichtung anhand der diskreten Abstandswerte überprüft wird, ob ausgehend von der Sensoreinrichtung ein zumindest bereichsweise hinter dem Objekt angeordnetes, weiteres Objekt in dem
Erfassungsbereich mittels der Sensoreinrichtung erfassbar ist. Anhand des Echosignals und der daraus abgeleiteten Abstandswerte sowie der zugehörigen Leistungswerte kann einerseits ermittelt werden, ob sich ein abschattendes Objekt in dem Erfassungsbereich der Sensoreinrichtung befindet. Weiterhin soll nun überprüft werden, ob diese
Abschattung so stark ist, dass hinter dem abschattenden Objekt keine weiteren Objekte mehr erfasst werden können. Hierzu können die diskreten Abstandswerte herangezogen werden. Insbesondere können die diskreten Abstandswerte herangezogen werden, welche Objekten hinter dem abschattenden Objekt zugeordnet sind. Wenn der
Leistungswert, der einem solchen diskreten Abstandswert zugeordnet ist, einen vorbestimmten Schwellenwert unterschreitet, kann davon ausgegangen werden, dass ein Objekt, welches diesem diskreten Abstandswert zugeordnet ist, nicht erfasst werden kann. In diesem Fall wäre das Sichtfeld der Sensoreinrichtung durch das abschattende Objekt zu stark beeinflusst. Wenn der Leistungswert für diesen Abstandswert allerdings den Schwellenwert überschreitet, kann beispielsweise davon ausgegangen werden, dass Objekte hinter dem abgeschatteten Objekt dennoch erfasst werden können.
In einer Ausführungsform ist der Klassifikator eine Support- Vector-Machine, ein Parzen- Fenster-Klassifikator und/oder ein Diskriminanzanalyse-Klassifikator. Eine Support- Vector-Machine, die auch als Stützvektormaschine bezeichnet werden kann, kann beispielsweise die Vektoren so in Klassen einteilen, dass um die jeweiligen
Klassengrenzen herum ein möglichst großer Bereich frei von Vektoren bleibt. Weiterhin kann der Klassifikator nach dem Prinzip eines Parzen-Fenster-Klassifikationsverfahrens ausgebildet sein. Weiterhin ist es denkbar, dass der Klassifikator ein
Diskriminanzanalyse-Klassifikator, beispielsweise ein Fisher's Linear Discriminant oder ein Perzeptron, sein.
Eine erfindungsgemäße Recheneinrichtung für ein Fahrerassistenzsystem eines
Kraftfahrzeugs ist zur Durchführung eines erfindungsgemäßen Verfahrens ausgelegt. Bei der Recheneinrichtung kann es sich beispielsweise um einen programmierbaren
Rechner, wie etwa einen digitalen Signalprozessor (DSP), einen MikroController oder dergleichen handeln. Demgemäß kann ein Computerprogramm vorgesehen werden, das beispielsweise auf einem Speichermedium (RAM, ROM, Flash-Speicher) abgelegt ist, wobei das Programm zum Ausführen des hier beschriebenen Verfahrens programmiert ist, wenn es auf dem Rechner ausgeführt wird. Insbesondere kann das Programm auf der Recheneinrichtung ausgeführt werden.
Ein erfindungsgemäßes Fahrerassistenzsystem für ein Kraftfahrzeug umfasst eine erfindungsgemäße Recheneinrichtung. Das Fahrerassistenzsystem kann beispielsweise eine Einparkhilfe, ein Totwinkel-Assistent, ein Abstandsregeltempomat oder ein automatischer Türöffner sein. Das Fahrerassistenzsystem kann zudem eine
Ausgabeeinrichtung aufweisen, mittels welcher an den Fahrer des Kraftfahrzeugs eine Ausgabe ausgegeben wird, falls mittels der Recheneinrichtung erkannt wird, dass das Objekt die Sensoreinrichtung abschattet. Damit kann der Fahrer darüber informiert werden, dass die Sensoreinrichtung momentan keine Objekte erfassen kann.
Ein erfindungsgemäßes Kraftfahrzeug umfasst ein erfindungsgemäßes
Fahrerassistenzsystem. Das Kraftfahrzeug ist insbesondere als Personenkraftwagen ausgebildet.
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten
Ausführungsformen und deren Vorteile gelten entsprechend für die erfindungsgemäße Recheneinrichtung, für das erfindungsgemäße Fahrerassistenzsystem sowie für das erfindungsgemäße Kraftfahrzeug.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen
Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
Dabei zeigen:
Fig. 1 eine schematische Darstellung eines Kraftfahrzeugs gemäß einer
Ausführungsform der vorliegenden Erfindung;
Fig. 2 das Kraftfahrzeug gemäß Fig. 1 , wobei sich in einem Erfassungsbereich einer Sensoreinrichtung des Kraftfahrzeug weitere Objekte befinden;
Fig. 3 eine vergrößerte ausschnittsweise Darstellung von Fig. 2;
Fig. 4 ein schematisches Ablaufdiagramm eines erfindungsgemäßen Verfahrens zum Erkennen einer Abschattung der Sensoreinrichtung des Kraftfahrzeugs;
Fig. 5, 6 jeweilige Leistungswerte für Abstandswerte, die anhand von Echosignalen der Sensoreinrichtung bestimmt wurden; und
Fig. 7, 8 Einteilungen der Leistungswerte in Klassen mit Hilfe von Klassifikatoren
Fig. 1 zeigt ein Kraftfahrzeug 1 gemäß einer Ausführungsform der vorliegenden
Erfindung. Das Kraftfahrzeug 1 ist in dem vorliegenden Ausführungsbeispiel als
Personenkraftwagen ausgebildet. Das Kraftfahrzeug 1 umfasst ferner ein
Fahrerassistenzsystem 2, welches beispielsweise als Parkhilfesystem,
Abstandsregeltempomat, Totwinkel-Assistent oder dergleichen ausgebildet sein kann.
Das Fahrerassistenzsystem 2 umfasst zumindest eine Sensoreinrichtung 4. mittels welcher ein Objekt 8 in einem Umgebungsbereich 7 des Kraftfahrzeugs 1 erfasst werden kann. Der Umgebungsbereich 7 umgibt das Kraftfahrzeug 1 vollständig. Vorliegend kann mit der zumindest einen Sensoreinrichtung 4 ein Objekt 8, das in dem
Umgebungsbereich 7 hinter dem Kraftfahrzeug 1 angeordnet ist, erfasst werden. Die Sensoreinrichtung 4 ist dazu ausgelegt, ein Sendesignal auszusenden, welches von dem Objekt 8 reflektiert wird. Das reflektierte Sendesignal gelangt als Echosignal wieder zu der Sensoreinrichtung 4. Anhand der Laufzeit kann der Abstand zwischen der Sensoreinrichtung 4 und dem Objekt 8 bestimmt werden. Die Sensoreinrichtung 4 kann grundsätzlich als Ultraschallsensor, als Radarsensor oder als Lasersensor ausgebildet sein. Die Sensoreinrichtung kann in einem Frontbereich und/oder in einem Heckbereich 5 des Kraftfahrzeugs 1 angeordnet sein.
In dem vorliegenden Ausführungsbeispiel umfasst das Kraftfahrzeug 1 bzw. das
Fahrerassistenzsystem 2 zwei Abstandssensoren 4, die als Radarsensoren ausgebildet sind, und die in dem Heckbereich 5 des Kraftfahrzeugs angeordnet sind. Die
Abstandssensoren können insbesondere als sogenannte Dauerstrich-Radarsensoren ausgebildet sein. Die Abstandssensoren 4 können beispielsweise verdeckt hinter einem Stoßfänger des Kraftfahrzeugs 1 angeordnet sein. Das Kraftfahrzeug 1 bzw. das
Fahrerassistenzsystem 2 weist zudem eine Recheneinrichtung 3 auf. Die
Recheneinrichtung 3 kann beispielsweise durch einen Computer, durch einen digitalen Signalprozessor oder dergleichen gebildet sein. Die Recheneinrichtung 3 kann auch ein Steuergerät (ECU - Electronic Control Unit) des Kraftfahrzeugs 1 sein.
Vorliegend soll überprüft werden, ob eine der Sensoreinrichtungen 4 durch ein Objekt 8 verdeckt ist. Dies ist in Fig. 2 beispielhaft dargestellt. Hier befindet sich hinter dem Kraftfahrzeug 1 das Objekt 8, das ebenfalls ein Kraftfahrzeug ist. Zudem befindet sich hinter dem Kraftfahrzeug 1 ein weiteres Objekt 9, welches ebenfalls als Kraftfahrzeug ausgebildet ist. Weiterhin ist in Fig. 2 ein Erfassungsbereich E der hinteren linken Sensoreinrichtung 4 dargestellt. Vorliegend ist der Erfassungsbereich E zumindest bereichsweise durch das Objekt 8 abgeschattet. Die Abschattung ergibt sich durch die relative Lage des Objekts 8 zu dem Abstandssensor 4. Vorliegend weist beispielsweise die dem Abstandssensor 4 zugewandte Kante des Objekts 8 in dem Erfassungsbereich E den lateralen Abstand OW sowie den longitudinalen Abstand OL auf. Dies ist in Fig. 3 zu erkennen, die eine vergrößerte Darstellung von Fig. 2 zeigt.
Der Erfassungsbereich E wird vorliegend kreissektorförmig angenommen. Der
Erfassungsbereich E wird somit in einen ersten Teilbereich 10, der durch das Objekt 8 abgeschattet ist, und in einen zweiten Teilbereich 1 1 , in dem gegebenenfalls weitere Objekte 9 mittels der Sensoreinrichtung 4 detektiert werden können, eingeteilt. Der zweite Teilbereich 1 1 weist den Öffnungswinkel α auf. Vorliegend kann nur ein Teil des weiteren Objekts 9 mittels der Sensoreinrichtung 4 erfasst werden. Somit kann beispielsweise mittels der Sensoreinrichtung der laterale Abstand W und der longitudinale Abstand L bestimmt werden. Der laterale Abstand W kann beispielsweise ein Abstand sein, bei welchem ein Warnsignal ausgegeben wird, falls sich dort ein Objekt 9 befindet. Fig. 4 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zum Erkennen einer Abschattung der Sensoreinrichtung 4 durch das Objekt 8. In einem Schritt S1 werden mit dem Abstandssensor 4 eine Mehrzahl von Messzyklen durchgeführt. Bei jedem
Messzyklus wird ein Sendesignal ausgesendet und das von dem Objekt 8 reflektierte Echosignal empfangen. Anhand des empfangenen Echosignals kann eine Leistung bestimmt werden. Diese Leistung wird insbesondere in Abhängigkeit von zwei diskreten Variablen gemessen, nämlich dem Abstand und der Geschwindigkeit. Der Abstand zwischen dem Abstandssensor 4 und dem Objekt 8 kann anhand der Laufzeit bestimmt werden. Die Geschwindigkeit bzw. die Relativgeschwindigkeit zwischen dem
Kraftfahrzeug 1 und dem Objekt 8 kann beispielsweise anhand einer Doppier- Verschiebung des Echosignals bestimmt werden. Anhand des Abstands und der
Geschwindigkeit kann eine zweidimensionale Funktion der Leistung definiert werden, die als erste Variable den Abstand und als zweite Variable die Geschwindigkeit umfasst. Vorliegend stellt das Objekt 8 insbesondere ein statisches Objekt dar, beispielsweise ein geparktes Kraftfahrzeug. Somit kann der Anteil der Geschwindigkeit nicht berücksichtigt werden.
In einem Schritt S2 wird das Echosignal mittels der Recheneinrichtung 3 weiter verarbeitet. Das Echosignal, das einen Abstands zwischen der Sensoreinrichtung 4 und dem Objekt 8 beschreibt, kann nun einem diskreten Abstandswert B1 , B2, B3 zugeordnet werden. Für jeden der Abstandswerte B1 , B2, B3 kann dann mittels der
Recheneinrichtung ein Leistungswert P bestimmt werden. Der Leistungswert P kann für jeden der diskreten Abstandswerte B1 , B2, B3 anhand der Signalleistung des
Echosignals bestimmt werden. Die jeweiligen Leistungswerte P für jeden der diskreten Abstandswerte B1 , B2, B3 werden einem Vektor zugeordnet.
In einem Schritt S3 wird der Vektor mittels eines Klassifikators mit einer vorbestimmten Entscheidungsgrenze verglichen. Der Klassifikator kann durch einen entsprechenden Rechner bereitgestellt werden, auf dem ein entsprechendes Klassifikationsverfahren durchgeführt wird. Der Klassifikator kann auch durch die Recheneinrichtung 3 selbst bereitgestellt werden. Vorliegend wird von der Annahme ausgegangen, dass im Falle einer Abschattung das abschattende Objekt 8 in einem Abstand entfernt zu dem
Kraftfahrzeug 1 bzw. dem Abstandssensor 4 steht. Dabei wird der Leistungswert P für den diskreten Abstandswerte B1 , B2, B3 am höchsten sein, der am nächsten zu jenem Abstand ist. Ebenso wird die Leistung bzw. der Leistungswert P für die anderen
Abstandswerte B1 , B2, B3 sehr viel kleiner sein. Diese können beispielsweise auf Rauschniveau liegen. Anhand der Leistungswerte P für die diskreten Abstandswerte B1 , B2, B3 kann nun einerseits ermittelt werden, ob ein abschattendes Objekt 8 in dem Erfassungsbereich E des Abstandssensors 4 angeordnet ist. Ferner kann bestimmt werden, ob die Abschattung so stark ist, dass die Leistungswerte P für Bereiche hinter dem Objekt 8 genügend klein sind. Somit kann man darauf schließen, dass der
Abstandssensor 4 nichts mehr hinter dem Objekt 8„sehen" kann, und das Sichtfeld somit beeinträchtigt ist.
Im nicht abgeschatteten Fall sollten die Leistungswerte P für die jeweiligen diskreten Abstandswerte B1 , B2, B3 ähnliche Werte aufweisen. Dies ist beispielsweise in Fig. 5 dargestellt. Im abgeschatteten Fall sollten die Leistungswerte P ein klares Maximum bezüglich des Leistungswerts P für einen der diskreten Abstandswerte B1 , B2, B3 aufweisen und für die anderen Abstandswerte B1 , B2, B3 sollte die Leistungswerte P deutlich geringer sein. Dies ist vorliegend beispielhaft in Fig. 6 dargestellt, wobei hier der Leistungswert P für den diskreten Abstandswert B1 deutlich größer ist als die
Leistungswerte P für die Abstandswerte B2 und B3. Solcherlei Muster bezüglich der Leistungswerte können von dem Klassifikator erkannt werden.
Zum Bestimmen der Entscheidungsgrenze kann der Klassifikator zunächst in einer Trainingsphase gemäß dem Schritt S4 betrieben werden. Hierzu kann beispielsweise ein Referenzobjekt in einem vorbestimmten Abstand zu dem Abstandssensor positioniert werden. Anschließend kann entschieden werden, zu welcher Klasse„abgeschattet" oder „nicht abgeschattet" dieser Abstand gehören soll. Somit kann ein Ground-Truth-Label definiert werden. Anschließend kann der Vektor, der die diskreten Abstandswerte B1 , B2, B3 und die dazugehörigen Leistungswerte P umfasst, bestimmt werden. Dies kann für unterschiedliche Abstände zwischen dem Abstandssensor 4 und dem Referenzobjekt sowie für unterschiedliche Referenzobjekte durchgeführt werden. Anhand der
gemessenen Vektoren mit ihrem Ground-Truth-Label kann der Klassifikator dann die Entscheidungsgrenze bestimmen, die beispielsweise eine Linie, eine Hyperebene oder eine Wahrscheinlichkeitsdichtefunktion, je nach verwendetem Klassifikator, ist.
In dem vorliegenden Ausführungsbeispiel ist es ebenfalls gemäß dem Schritt S5 vorgesehen, da die Entscheidungsgrenze in einer Testphase des Klassifikators überprüft wird. Hierzu kann ein Objekt in einem vorbestimmten Abstand zu dem Abstandssensor 4 positioniert werden. Anschließend kann der Vektor bestimmt werden. Zudem kann der Vektor mit der Entscheidungsgrenze verglichen werden und es kann entschieden werden, ob dieses Objekt der Klasse„abgeschattet" oder„nicht abgeschattet" zugeordnet wird. Dies ist beispielsweise in Zusammenhang mit Fig. 7 verdeutlicht. Hier sind beispielsweise entsprechende Trainingsdaten für zwei zu betrachtende Klassen als Punkte 12 und 13 dargestellt. Der Klassifikator versucht nun eine mathematische Regel zu finden, um einen neuen Punkt 12, 13 eindeutig einer der beiden Klassen zuzuordnen. Dies kann in diesem Beispiel geschehen, indem eine Linie 14 (für mehr dimensionale Punkte wäre dies eine Hyperebene) gezogen wird, die die beiden Klassen möglichst gut separiert. Ein
Testdatenpunkt wird der Klasse zugeordnet, auf deren Seite der Linie er sich befindet.
In dem Schritt S3 erfolgt nun der Vergleich der ermittelten Leistungswerte P für die diskreten Abstandswerte B1 und B2 in Abhängigkeit von der Entscheidungsgrenze. Vorliegend sind die Punkte 12 der Klasse„abgeschattet" und die Punkte 13 der Klasse „nicht abgeschattet" zugeordnet. Man beachte, dass in Fig. 8 nur zweidimensionale Eingangsdaten verwendet wurden. Dies wurde aus dem einfachen Grund gewählt, um das Konzept besser sichtbar zu machen. Es können in gleicher Weise mehrdimensionale Eingangsdaten verwendet werden. Vorliegend zeigt die Linie 15 die Entscheidungsgrenze eines ersten Bayes-Klassifikators. Die Linie 16 zeigt die Entscheidungsgrenze eines Diskriminanzanalyse-Klassifikators, beispielsweise des Fisher's Linear Discriminant. Die Kurve 17 beschreibt die Entscheidungsgrenze eines Parzen-Klassifikators. Die Linie 18 zeigt die Entscheidungsgrenze eines Klassifikators, der auf Grundlage eines künstlichen neuronalen Netzes, beispielsweise eines Perzeptrons, arbeitet. Die Kurve 19 beschreibt die Entscheidungsgrenze eines weiteren Bayes-Klassifikators.
Somit kann in einem Schritt S6 mittels des Klassifikators entschieden werden, ob der Vektor, der die jeweiligen Leistungswerte P für die diskreten Abstandswerte B1 , B2, B3 umfasst, einer Klasse„abgeschattet" oder einer Klasse„nicht abgeschattet" zugeordnet wird. Somit kann auf einfache Weise bestimmt werden, ob das Objekt 8 den
Erfassungsbereich E des Abstandssensors abschattet oder nicht. Zudem kann bestimmt werden, in welchem Maße das Objekt 8 den Erfassungsbereich E des Abstandsensors 4 abschattet.

Claims

Patentansprüche
1 . Verfahren zum Erkennen einer Abschattung einer Sensoreinrichtung (4) eines
Kraftfahrzeugs (1 ) durch ein Objekt (8), bei welchem zumindest ein von der Sensoreinrichtung (4) erfasstes Echosignal, welches einen Abstand zwischen der Sensoreinrichtung (4) und dem Objekt (8) charakterisiert, mittels einer
Recheneinrichtung (3) empfangen wird (S1 ), ein Erfassungsbereich (E) für die Sensoreinrichtung (4) bestimmt wird und anhand des zumindest einen
empfangenen Echosignals überprüft wird, ob der Erfassungsbereich (E) der Sensoreinrichtung (4) durch das Objekt (8) zumindest bereichsweise abgeschattet wird,
dadurch gekennzeichnet, dass
das zumindest eine Echosignal mittels der Recheneinrichtung (3) einem diskreten Abstandswert (B1 , B2, B3) aus einer Mehrzahl von diskreten Abstandswerten (B1 , B2, B3) zugeordnet wird, für jeden der diskreten Abstandswerte (B1 , B2, B3) ein Leistungswert (P) anhand des Echosignals bestimmt wird (S2) und anhand der Leistungswerte (P) mittels eines Klassifikators entschieden wird, ob zumindest ein vorbestimmter Anteil des Erfassungsbereichs (E) der Sensoreinrichtung (4) durch das Objekt (8) abgeschattet wird (S6).
2. Verfahren nach Anspruch 1 ,
dadurch gekennzeichnet, dass
die Leistungswerte (P) für die Mehrzahl von diskreten Abstandswerten (B1 , B2, B3) einem Vektor zugeordnet werden und der Vektor mittels des Klassifikators mit einer vorbestimmten Entscheidungsgrenze vergleichen wird (S3).
3. Verfahren nach Anspruch 2,
dadurch gekennzeichnet, dass
die vorbestimmte Entscheidungsgrenze während einer Trainingsphase des
Klassifikators vorbestimmt wird (S4).
4. Verfahren nach Anspruch 2 oder 3,
dadurch gekennzeichnet, dass die vorbestimmte Entscheidungsgrenze während einer Testphase des Klassifikators überprüft wird (S5).
5. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
mittels der Recheneinrichtung (3) eine Mehrzahl von Echosignalen empfangen werden, wobei jedes der Echosignale während eines Messzyklus mit der
Sensoreinrichtung (4) empfangen wird.
6. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
mittels der Recheneinrichtung (3) anhand der jeweiligen Leistungswerte (P) für die diskreten Abstandswerte (B1 , B2, B3) eine relative Lage zwischen der
Sensoreinrichtung (4) und dem Objekt (8) bestimmt wird.
7. Verfahren nach Anspruch 6,
dadurch gekennzeichnet, dass
mittels der Recheneinrichtung (3) anhand der bestimmten relativen Lage zwischen der Sensoreinrichtung (4) und dem Objekt (8) ein erster Teilbereich (10) des Erfassungsbereichs (E), welcher durch das Objekt (8) abgeschattet ist, und ein zweiter Teilbereich (1 1 ) des Erfassungsbereichs (E), in welchem zumindest ein weiteres Objekt (9) mittels der Sensoreinrichtung (4) erfassbar sind, bestimmt werden.
8. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
mittels der Recheneinrichtung (3) anhand der diskreten Abstandswerte (B1 , B2, B3) überprüft wird, ob ausgehend von der Sensoreinrichtung (4) ein zumindest bereichsweise hinter dem Objekt (8) angeordnetes, weiteres Objekt (9) in dem Erfassungsbereich (E) mittels der Sensoreinrichtung (4) erfassbar ist.
9. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
der Klassifikator eine Support-Vector-Machine, ein Parzen-Fenster-Klassifikator und/oder ein Diskriminanzanalyse-Klassifikator ist.
10. Recheneinrichtung (3) für ein Fahrerassistenzsystem (2) eines Kraftfahrzeug (1 ), welche zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche ausgelegt ist.
1 1 . Fahrerassistenzsystem (2) für ein Kraftfahrzeug (1 ) mit einer Recheneinrichtung (3) nach Anspruch 10 und mit zumindest einer Sensoreinrichtung (4).
12. Fahrerassistenzsystem (2) nach Anspruch 1 1 ,
dadurch gekennzeichnet, dass
die zumindest eine Sensoreinrichtung (3) einen Radarsensor, einen
Ultraschallsensor, einen Lasersensor und/oder eine Kamera aufweist.
13. Kraftfahrzeug (1 ) mit einem Fahrerassistenzsystem (2) nach Anspruch 1 1 oder 12.
PCT/EP2015/077999 2014-12-05 2015-11-30 Verfahren zum erkennen einer abschattung einer sensoreinrichtung eines kraftfahrzeugs durch ein objekt, recheneinrichtung, fahrerassistenzsystem sowie kraftfahrzeug WO2016087339A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017529714A JP6510052B2 (ja) 2014-12-05 2015-11-30 物体による自動車のセンサ装置の遮蔽を検出するための方法、コンピュータ装置、運転者支援システム、及び自動車
CN201580065639.0A CN107003405B (zh) 2014-12-05 2015-11-30 用于检测机动车辆的传感器装置由物体屏蔽的方法、计算装置、驾驶员辅助系统和机动车辆
KR1020177014953A KR102012572B1 (ko) 2014-12-05 2015-11-30 물체에 의한 자동차의 센서 장치의 차단을 검출하는 방법, 컴퓨팅 장치, 운전자 보조 시스템 및 자동차
US15/532,608 US10908259B2 (en) 2014-12-05 2015-11-30 Method for detecting a screening of a sensor device of a motor vehicle by an object, computing device, driver-assistance system and motor vehicle
EP15801452.2A EP3227718A1 (de) 2014-12-05 2015-11-30 Verfahren zum erkennen einer abschattung einer sensoreinrichtung eines kraftfahrzeugs durch ein objekt, recheneinrichtung, fahrerassistenzsystem sowie kraftfahrzeug

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014118035.6A DE102014118035B4 (de) 2014-12-05 2014-12-05 Verfahren zum Erkennen einer Abschattung einer Sensoreinrichtung eines Kraftfahrzeugs durch ein Objekt, Recheneinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102014118035.6 2014-12-05

Publications (1)

Publication Number Publication Date
WO2016087339A1 true WO2016087339A1 (de) 2016-06-09

Family

ID=54705638

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/077999 WO2016087339A1 (de) 2014-12-05 2015-11-30 Verfahren zum erkennen einer abschattung einer sensoreinrichtung eines kraftfahrzeugs durch ein objekt, recheneinrichtung, fahrerassistenzsystem sowie kraftfahrzeug

Country Status (7)

Country Link
US (1) US10908259B2 (de)
EP (1) EP3227718A1 (de)
JP (1) JP6510052B2 (de)
KR (1) KR102012572B1 (de)
CN (1) CN107003405B (de)
DE (1) DE102014118035B4 (de)
WO (1) WO2016087339A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3579020B1 (de) * 2018-06-05 2021-03-31 Elmos Semiconductor SE Verfahren zur erkennung eines hindernisses mit hilfe von reflektierten ultraschallwellen
US11156714B2 (en) * 2020-02-13 2021-10-26 Tymphany Acoustic Technology (Huizhou) Co., Ltd. Object movement detection based on ultrasonic sensor data analysis

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10311958A1 (de) * 2002-03-19 2003-11-06 Denso Corp Signalprozeßvorrichtung für ein auf einem Fahrzeug befindliches Radar und Verfahren hierfür
DE102006027678A1 (de) * 2005-06-15 2006-12-21 Denso Corp., Kariya Fahrzeug-Radarvorrichtung und Fahrzeugsteuerungssystem
DE102012017668A1 (de) * 2012-09-07 2014-03-13 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben einer Ultraschallsensorvorrichtung eines Kraftfahrzeugs bei angekoppeltem Anhänger, Ultraschallsensorvorrichtung und Kraftfahrzeug

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19721901A1 (de) 1997-05-26 1997-11-13 Bernhard Prof Dr Liesenkoetter Verfahren und Vorrichtung zur Hinderniserkennung auf Bahngleisen mit einem fahrzeugbasierten Radarsystem
US6611227B1 (en) * 2002-08-08 2003-08-26 Raytheon Company Automotive side object detection sensor blockage detection system and related techniques
JP2006010570A (ja) * 2004-06-28 2006-01-12 Aisin Seiki Co Ltd 車両周辺監視装置
WO2006025453A1 (ja) * 2004-09-01 2006-03-09 Matsushita Electric Industrial Co., Ltd. レーダ装置
DE102005046000A1 (de) * 2004-09-28 2006-05-04 Continental Teves Ag & Co. Ohg Vorrichtung zum Erfassen eines seitlichen Umfelds eines Fahrzeugs
JP4485892B2 (ja) * 2004-09-28 2010-06-23 セコム株式会社 移動体検知装置
JP4426436B2 (ja) * 2004-12-27 2010-03-03 株式会社日立製作所 車両検知装置
EP2260322A1 (de) * 2008-03-31 2010-12-15 Valeo Radar Systems, Inc. Vorrichtung und verfahren zur erkennung einer automobil-radarsensor-sperre
CN101866499B (zh) * 2009-04-14 2012-04-25 成都西谷曙光数字技术有限公司 一种用于不停车收费管理的电子标签准确识别方法
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
JP2013134591A (ja) * 2011-12-26 2013-07-08 Denso Corp 運転支援装置
DE102012001554A1 (de) * 2012-01-26 2013-08-01 Connaught Electronics Ltd. Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
JP5852456B2 (ja) * 2012-01-30 2016-02-03 トヨタ自動車株式会社 周辺物体検知装置
JP5615862B2 (ja) * 2012-03-07 2014-10-29 クラリオン株式会社 車両周囲監視装置
EP2639781A1 (de) 2012-03-14 2013-09-18 Honda Motor Co., Ltd. Fahrzeug mit verbesserter Verkehrsobjektpositionserkennung
WO2013157123A1 (ja) * 2012-04-19 2013-10-24 トヨタ自動車株式会社 周辺物体検出装置
JP6152673B2 (ja) * 2013-03-21 2017-06-28 トヨタ自動車株式会社 車線変更支援装置
JP6229615B2 (ja) * 2014-08-01 2017-11-15 マツダ株式会社 車両の運転支援装置、及び運転支援方法
JP6770299B2 (ja) * 2015-03-25 2020-10-14 パナソニック株式会社 物体検出装置および物体検出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10311958A1 (de) * 2002-03-19 2003-11-06 Denso Corp Signalprozeßvorrichtung für ein auf einem Fahrzeug befindliches Radar und Verfahren hierfür
DE102006027678A1 (de) * 2005-06-15 2006-12-21 Denso Corp., Kariya Fahrzeug-Radarvorrichtung und Fahrzeugsteuerungssystem
DE102012017668A1 (de) * 2012-09-07 2014-03-13 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben einer Ultraschallsensorvorrichtung eines Kraftfahrzeugs bei angekoppeltem Anhänger, Ultraschallsensorvorrichtung und Kraftfahrzeug

Also Published As

Publication number Publication date
CN107003405A (zh) 2017-08-01
EP3227718A1 (de) 2017-10-11
US10908259B2 (en) 2021-02-02
KR102012572B1 (ko) 2019-08-20
DE102014118035A1 (de) 2016-06-09
JP2018503074A (ja) 2018-02-01
KR20170081665A (ko) 2017-07-12
US20170343649A1 (en) 2017-11-30
CN107003405B (zh) 2020-09-01
DE102014118035B4 (de) 2022-11-17
JP6510052B2 (ja) 2019-05-08

Similar Documents

Publication Publication Date Title
EP3183152B1 (de) Verfahren zum warnen eines fahrers eines kraftfahrzeugs vor der anwesenheit eines objekts in der umgebung, fahrerassistenzsystem und kraftfahrzeug
EP2137042B1 (de) Verfahren zur objektbildung
EP3250943B1 (de) Verfahren zum erfassen eines objekts in einem umgebungsbereich eines kraftfahrzeugs durch überprüfen einer räumlichen abweichung von messpunkten, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
WO2019068291A1 (de) - prüfen eines neuronalen netzes -
EP3177474A1 (de) Verfahren zum erzeugen einer umgebungskarte sowie fahrerassistenzsystem
EP3076377A1 (de) Verfahren zum bereitstellen von freirauminformationen in einem umgebungsbereich eines kraftfahrzeugs als sensor-rohdaten an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichung und kraftfahrzeug
DE102017103275A1 (de) Verfahren zum Erfassen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mithilfe eines Ultraschallsensors mit verbesserter Filterung von Bodenreflexionen, Steuergerät, Ultraschallsensorvorrichtung sowie Kraftfahrzeug
EP3156820A1 (de) Verfahren zum erfassen eines dynamischen objekts in einem umgebungsbereich eines kraftfahrzeugs auf basis von informationen einer kraftfahrzeugseitigen ultraschall-detektionseinrichtung, fahrerassistenzsystem und kraftfahrzeug
WO2015135688A1 (de) Vorrichtung und verfahren zum betreiben eines fahrzeugs
EP3195006B1 (de) Verfahren und vorrichtung zum öffnen eines flügelelements eines kraftfahrzeugs, sowie kraftfahrzeug
DE102007039374A1 (de) Kraftfahrzeug mit einem Spurwechsel- oder einem Spurhalteassistenzsystem sowie einem Einparkhilfesystem
DE102014118035B4 (de) Verfahren zum Erkennen einer Abschattung einer Sensoreinrichtung eines Kraftfahrzeugs durch ein Objekt, Recheneinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102008002576A1 (de) Verfahren zur Plausibilisierung von Objekten in einem Fahrerassistenzsystem
DE102018119263B3 (de) Erkennung eines beweglichen Objekts und einer Annäherung eines Objekts
DE102015122413A1 (de) Verfahren zum Betreiben eines Ultraschallsensors eines Kraftfahrzeugs, Ultraschallsensorvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3018490B1 (de) Verfahren zur detektion einer interferenz in einem empfangssignal eines radarsensors eines kraftfahrzeugs, recheneinrichtung, fahrerassistenzsystem, kraftfahrzeug sowie computerprogrammprodukt
DE102017128983A1 (de) Verfahren zur Abschätzung einer Höhe eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mittels eines Ultraschallsensors mit statistischer Auswertung eines Empfangssignals, Steuergerät sowie Fahrerassistenzsystem
WO2017076630A1 (de) Verfahren zum erkennen einer abschattung einer sensoreinrichtung, recheneinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
DE102005024052B4 (de) Verfahren und Vorrichtung zum gesteuerten Auswählen von vorausschauenden Sensoren für ein Fußgängerschutzsystem eines Kraftfahrzeugs
DE102018124055B4 (de) Verfahren zum Bestimmen eines Abstands eines Objekts in einem Ausschwingbereich eines Ultraschallsensors, Computerprogrammprodukt, elektronische Recheneinrichtung sowie Ultraschallsensor
WO2021185722A1 (de) Verfahren zum überwachen eines schwenkbereichs einer tür während eines schwenkvorgangs, computerprogrammprodukt, computerlesbares speichermedium sowie schwenkbereichsüberwachungssystem
WO2021104805A1 (de) Verfahren zum betreiben einer umgebungserfassungsvorrichtung mit einer gridbasierten auswertung und mit einer fusionierung, sowie umgebungserfassungsvorrichtung
DE102018119371B4 (de) Verfahren zum Erfassen von Objekten in einem Umgebungsbereich eines Kraftfahrzeugs durch Nachverfolgung von Signalanteilen in einem Rohsignal eines Ultraschallsensors, Recheneinrichtung sowie Ultraschallsensorvorrichtung
DE102017126183A1 (de) Verfahren zum Erfassen und zur Klassifizierung eines Objekts mittels zumindest einer Sensorvorrichtung auf Basis einer Belegungskarte, Fahrerassistenzsystem und Kraftfahrzeug
WO2022194746A1 (de) Verfahren zum betreiben einer ultraschallsensorvorrichtung zum überwachen eines unterbodenbereichs eines kraftfahrzeugs, computerprogrammprodukt, computerlesbares speichermedium sowie ultraschallsensorvorrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15801452

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015801452

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20177014953

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2017529714

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15532608

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE