WO2022073694A1 - Verfahren zum klassifizieren von objekten in einer umgebung eines fahrzeugs als unterfahrbare objekte oder als objekte auf der fahrbahn, recheneinrichtung sowie fahrerassistenzsystem - Google Patents

Verfahren zum klassifizieren von objekten in einer umgebung eines fahrzeugs als unterfahrbare objekte oder als objekte auf der fahrbahn, recheneinrichtung sowie fahrerassistenzsystem Download PDF

Info

Publication number
WO2022073694A1
WO2022073694A1 PCT/EP2021/073854 EP2021073854W WO2022073694A1 WO 2022073694 A1 WO2022073694 A1 WO 2022073694A1 EP 2021073854 W EP2021073854 W EP 2021073854W WO 2022073694 A1 WO2022073694 A1 WO 2022073694A1
Authority
WO
WIPO (PCT)
Prior art keywords
roadway
vehicle
height
area
objects
Prior art date
Application number
PCT/EP2021/073854
Other languages
English (en)
French (fr)
Inventor
Georg Tanzmeister
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Priority to CN202180064390.7A priority Critical patent/CN116194795A/zh
Priority to US18/029,134 priority patent/US20230367020A1/en
Publication of WO2022073694A1 publication Critical patent/WO2022073694A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the present invention relates to a method for classifying objects in an environment of a vehicle according to the preamble of patent claim 1.
  • the invention also relates to a computing device for a driver assistance system and a driver assistance system for a vehicle.
  • the present invention relates to a computer program.
  • Modern vehicles include driver assistance systems with which automated driving of the vehicle can be made possible.
  • Driver assistance systems of this type include a plurality of environment sensors, by means of which objects in the environment of the vehicle can be detected.
  • a problem in the perception of automated driving is the classification of measured values or sensor data from the environment sensors.
  • the sensor data provided by lidar sensors or radar sensors can be projected into a camera image.
  • the objects can be classified on the basis of corresponding object recognition algorithms in the camera image.
  • detected objects that can be driven under can be checked for plausibility with moving objects. This is the case, for example, when an object moves through a stationary structure in the sensor data.
  • DE 102017 112 939 A1 describes a radar device for a vehicle, which from probability models in which first and second already known correlations are modeled for each of the detection distances, an indicator based on probability ratios of a stationary vehicle and an upper object, which the derived parameters and detection distances, is determined, the first already known correlations correlating the parameters and the probabilities of the stationary vehicle with one another and the second already known correlations correlating the parameters and probabilities of the upper object with one another.
  • the radar device thresholds the calculated indicators to determine whether the target is the stationary vehicle or the overhead object.
  • a sensor system for a vehicle for detecting bridges or tunnel entrances is known from DE 10 2015213 701 A1.
  • the sensor system includes a lateral lidar sensor arranged on a first side of the vehicle, with a detection range covering a lateral area surrounding the vehicle.
  • the lateral lidar sensor is rotated about a vertical axis, so that a front part of the detection range of the lateral lidar sensor in the direction of travel detects an upper spatial area arranged in front of the vehicle at a predetermined distance.
  • the side lidar sensor is tilted about a transverse axis relative to the horizontal, so that the detection range of the side lidar sensor with its front part in the direction of travel detects the distant upper spatial area at a predetermined height above the vehicle.
  • this object is achieved by a method, by a computing device, by a driver assistance system and by a computer program having the features of the independent claims.
  • Advantageous developments of the present invention are specified in the dependent claims.
  • a method serves to classify objects in an area surrounding a vehicle.
  • the method includes receiving sensor data describing the environment from an environment sensor of the vehicle.
  • the method includes detecting an object in an area of a roadway on which the vehicle is located using the sensor data and determining an object area on the roadway to which the object is assigned.
  • the method also includes assigning a base point to the detected object based on the sensor data and determining a height of the base point based on a Vehicle vertical direction of the vehicle.
  • the method also includes determining a roadway height based on the vertical direction of the vehicle in the object area, the roadway height being determined assuming a predetermined gradient of the roadway between an area in front of the road ahead of the vehicle and the object area.
  • the method also includes classifying the object as an object that can be driven under if a difference between the height of the roadway and the height of the base exceeds a predetermined threshold value.
  • Objects in the area surrounding the vehicle are to be classified using the method.
  • the objects that can be driven under can be, for example, structures or infrastructure facilities that protrude beyond the roadway.
  • Such objects that can be driven under can be, for example, gantries, speedometers, traffic control systems, bridges or tunnel entrances.
  • the relevant objects on the road can be, for example, lost cargo or other road users on the road.
  • Static road users or road users with a low speed are to be regarded as relevant objects on the roadway.
  • a relevant object on the road can be assigned to the end of a traffic jam.
  • the method is particularly suitable for objects whose distance from the vehicle exceeds a certain minimum distance, for example a distance of 50 m.
  • the method can be carried out using a corresponding computing device in the vehicle.
  • This computing device can receive the sensor data from the surroundings sensor of the vehicle.
  • the environment sensor can be a distance sensor, for example a lidar sensor or a radar sensor.
  • the environment sensor can also be designed as a camera.
  • This sensor data can include, for example, a number of measured values or measuring points that describe the environment and the objects in the environment.
  • the object located in the area of the roadway or on the roadway is recognized by the computing device.
  • the object area is assigned to this object on the roadway. This object area describes the area of the roadway that is assigned to the object or in which the object is located.
  • the base point is assigned to the object based on the sensor data.
  • the base point does not necessarily mean that point of the object which also touches the surface of the roadway.
  • the base point is to be understood as that point or measured value of the object which is at the shortest distance from the road surface.
  • the base point of the object is therefore in particular that measured value of the object which is arranged lowest in relation to the vertical direction of the vehicle or the vertical. A height is determined for this base point, this being determined in relation to the vertical direction of the vehicle.
  • the roadway height or ground height in the object area is determined.
  • This roadway height is also determined in relation to the vertical direction of the vehicle or in relation to the installation position of the environment sensor or a reference point of the vehicle.
  • the height of the roadway is determined assuming the predetermined incline of the roadway between the area in front of the vehicle and the object area.
  • the apron area describes an area of the roadway that is in front of the vehicle in the forward direction of travel.
  • the height of this area in relation to the vertical direction of the vehicle can be determined or is known.
  • the term “slope” is to be understood as meaning both an increase in the roadway and a downhill gradient in the roadway.
  • the incline of the road is positive when going up and negative when going down.
  • the slope can also be referred to as a gradient.
  • the roadway height in the object area associated with the object is determined on the assumption that the roadway between the apron area and the object area ascends or descends.
  • the object is classified as an object that can be driven under if a difference between the height of the roadway and the height of the base exceeds the predetermined threshold value. So if the height of the base of the object is significantly above the assumed roadway height in the object area, it is assumed that the object is one that can be driven under. This takes place on the assumption described above that the height of the roadway in the object area is greater than the height of the roadway in the apron area or in the area of the roadway in which the vehicle is currently located. In this way, a real end of a traffic jam or a real static obstacle can actually be classified as such in a reliable manner and, for example, braking can be initiated as a result of the correct classification.
  • the Classification of the object can be carried out in a simple manner and yet safely with regard to the false negative rate or unrecognized real objects on the road.
  • the object is preferably classified as a relevant object on the roadway if the difference between the height of the roadway and the height of the base falls below the predetermined threshold value. If the height of the base of the object is only a small distance from the assumed lane height or if the height of the base falls below the determined lane height, it is assumed that the object is a relevant object on the lane. In particular, it is assumed that it is a static object or obstacle on the road.
  • the roadway height in the object area is higher than the roadway height in the area in front of the vehicle, it can be reliably achieved that a relevant object on the roadway is not incorrectly classified as an object that can be driven under. In the worst case, this could result in the vehicle colliding with the relevant object.
  • the gradient is predetermined assuming a predetermined maximum gradient and/or a predetermined maximum change in curvature for the roadway.
  • a predetermined maximum gradient For example, it can be assumed that the height of the roadway between the apron area and the object area increases linearly and decreases.
  • a maximum incline for the roadway can be assumed here, for example. This maximum gradient can be between +1% and +10%, for example.
  • This maximum incline can be determined as a function of the geographic location of the roadway or the geographic conditions in the area. For example, the incline in an area with mountains can be chosen to be greater than in the flat country.
  • the gradient between the area in front of and the area in front of the object is predetermined on the basis of a predetermined maximum change in curvature. This means, for example, that the course of the roadway in the vertical direction of the vehicle is not extrapolated linearly, starting from the apron area, but with a worst-case curvature assumption. Thus, it can be prevented in a safe manner that an object that can be driven under is incorrectly classified as a relevant object on the road.
  • the incline is predetermined using digital map data, the digital map data describing the incline of the roadway between the apron area and the object area.
  • This digital map data can be used in addition or as an alternative to the assumption of the predetermined maximum gradient and/or the predetermined maximum change in curvature.
  • only the information that describes the incline or curvature of the road can be taken from high-precision three-dimensional map data or sets of maps.
  • the classification can be further improved by taking into account the map data that describe the incline of the roadway.
  • the road surface rises between the apron area and the object area. If the map data are used to extrapolate the incline and these describe that the roadway slopes down between the apron area and the object area, it can be assumed that the roadway slopes down at least in some areas.
  • a linear gradient for example a gradient between ⁇ 1% and ⁇ 10%, or a predetermined change in curvature can be assumed for the gradient of the roadway.
  • the threshold value is determined based on a predetermined maximum height of a lower edge of objects that can be detected based on the sensor data.
  • the base point that is assigned to the object cannot describe the area of the object that is also in contact with the roadway or touches the roadway. If the object is a passenger car or a truck, for example, the wheels or tires of these vehicles cannot be detected on the basis of the measurements with lidar sensors and/or radar sensors. In the case of a truck, for example, the lower loading sill can be recognized on the basis of the sensor data or measured values and can therefore be regarded as the base point of the object.
  • the threshold value is thus determined in such a way that it is greater than a height of such a lower edge.
  • a maximum height of a detectable lower edge of typical road users or objects can be taken as a basis.
  • the threshold value can correspond to this maximum level or can be selected to be greater than this predetermined maximum level.
  • uncertainties in the sensor data and/or tolerances when determining the road height are taken into account.
  • the base point of the object there may be uncertainties or tolerances in the sensor data or measured values.
  • a height of a roadway surface of the roadway in relation to the vertical direction of the vehicle in the area in front of it is determined using the sensor data.
  • the height of the roadway or the roadway surface in the apron area can be determined on the basis of the sensor data.
  • the geometric shape of the floor area or the roadway surface and in particular increases and decreases can be reliably detected using a lidar sensor or radar sensor.
  • the height of the roadway in an area in front of the vehicle which can be up to 50 m away from the front of the vehicle, can be determined using a lidar sensor or radar sensor.
  • the method according to the invention can be used in particular for objects which are at a predetermined minimum distance from the vehicle or the surroundings sensor.
  • the minimum distance can be greater than 50 m, for example.
  • the method can be used for objects outside the apron area.
  • the minimum distance depends on the design of the surroundings sensor, the sensor principle, the installation height of the surroundings sensor and/or the ambient conditions.
  • a computing device for a driver assistance system is set up to carry out a method according to the invention and the advantageous configurations thereof.
  • the computing device can include one or more control units, for example.
  • a driver assistance system for a vehicle is set up to maneuver the vehicle in an at least partially automated manner as a function of a classification of an object in the surroundings.
  • the driver assistance system includes the computing device according to the invention.
  • the driver assistance system can have at least one surroundings sensor.
  • This environment sensor can preferably be used as a lidar Sensor or be designed as a radar sensor. Provision can also be made for the surroundings sensor to be in the form of a camera.
  • corresponding control signals for partially automated maneuvering of the vehicle can be output by the computing device. For example, braking can be performed if the object is classified as a relevant object on the roadway.
  • a vehicle according to the invention includes a driver assistance system according to the invention.
  • the vehicle is designed in particular as a passenger car.
  • a further aspect of the invention relates to a computer program, comprising instructions which, when the program is executed by a computing device, cause the latter to carry out a method according to the invention and the advantageous configurations thereof.
  • the invention relates to a computer-readable (storage) medium, comprising instructions which, when executed by a computing device, cause the computing device to carry out a method according to the invention and the advantageous configurations thereof.
  • 1 shows a schematic representation of a vehicle which includes a driver assistance system for classifying an object as an object that can be driven under or as a relevant object on the roadway; and 2 shows a schematic representation of the vehicle on a roadway, of measured values that describe an object, and an assumption of a course of the roadway.
  • the vehicle 1 shows a schematic representation of a vehicle 1, which is presently designed as a passenger car, in a plan view.
  • the vehicle 1 includes a driver assistance system 2, by means of which the vehicle 1 can be maneuvered at least partially automatically.
  • Driver assistance system 2 includes a computing device 3, which can be formed by at least one control unit of vehicle 1, for example.
  • the driver assistance system 2 includes an environment sensor 4, which can be embodied, for example, as a radar sensor or as a lidar sensor.
  • the environment sensor 4 can be used to provide sensor data which describe an environment 5 of the vehicle. This sensor data can be transmitted from environment sensor 4 to computing device 3 .
  • vehicle 1 is located on a roadway 6.
  • an object 7, which is presently located on roadway 6 in front of vehicle 1 in the direction of travel can be detected.
  • the distance between the vehicle 1 and the object 7 and the relative position between the vehicle 1 and the object 7 can be determined using the sensor data.
  • an object area 8 is defined based on the sensor data, which is assigned to the object 7 on the roadway 6 .
  • the roadway 6 or a roadway surface 9 of the roadway 6 in an apron area 10 in front of the vehicle 1 in the direction of travel can be detected using the sensor data.
  • an uphill or downhill gradient of the roadway 6 can be detected in the apron area 10 .
  • FIG. 2 shows a further representation of the vehicle 1 and of measured values 11 which describe the object 7 .
  • the sensor data which are provided with the environment sensor 4, include these measured values 11.
  • the distance between the vehicle 1 and the object 7 can be 150 m.
  • a base point 12 of the object 7 is determined on the basis of the measured values 11 .
  • the base point 12 describes the point or measured value 11 of the object 7 which has the shortest distance from the roadway surface 9 in relation to a vehicle vertical direction z of the vehicle 1 .
  • the base 12 describes the lowest point of the object 7.
  • the incline of the roadway 6 or roadway surface 9 in the apron area 10 can be detected on the basis of the sensor data. It is provided here that an incline of the roadway 6 is extrapolated in a region 13 . This area 13 of the roadway 6 extends between the apron area 10 and the object area 8 which was assigned to the object 7 .
  • the incline is calculated on the basis of an incline or change in curvature that can be assumed to be the worst for roadway 6 .
  • a gradient or a change in curvature of 2% can be assumed.
  • this can result in a height difference of 2 m over a distance of 100 m.
  • this results in a roadway height h1 in the object area 8 which is 2 m above the measured ground level or a height h0 of the roadway 6 in the apron area 10 .
  • a difference between a height h2 of the base 12 and the roadway height h1 is greater than a predetermined threshold value T. If this is the case, the object 7 is classified as an object that can be driven under. Otherwise, object 7 is classified as a relevant object on roadway 6 .
  • This threshold value T can be determined as a function of a predetermined maximum height of a lower edge of objects that can be detected using the sensor data. This height of the lower edge can, for example, correspond to a typical height of a loading sill of a truck.
  • uncertainties in the sensor values and/or tolerances when determining the roadway height h1 can be included. Overall, the classification of objects 7 in the surroundings 5 of the vehicle 1 or on the roadway 6 can be carried out in a simple and yet reliable manner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Klassifizieren von Objekten in einer Umgebung eines Fahrzeugs mit den Schritten: Empfangen von Sensordaten, welche die Umgebung beschreiben, von einem Umfeldsensor des Fahrzeugs, Erkennen eines Objekts in einem Bereich einer Fahrbahn, auf welcher sich das Fahrzeug befindet, anhand der Sensordaten, Bestimmen eines Objektbereichs auf der Fahrbahn, welchem das Objekt zugeordnet ist, Zuordnen eines Fußpunkts zu dem erkannten Objekt anhand der Sensordaten, Bestimmen einer Höhe des Fußpunkt bezogen auf eine Fahrzeughochrichtung des Fahrzeugs, Bestimmen einer Fahrbahnhöhe bezogen auf die Fahrzeughochrichtung in dem Objektbereich, wobei die Fahrbahnhöhe unter Annahme einer vorbestimmten Steigung der Fahrbahn zwischen einem Vorfeldbereich der Fahrbahn vor dem Fahrzeug und dem Objektbereich bestimmt wird, und Klassifizieren des Objekts als unterfahrbares Objekt, falls ein Unterschied zwischen der Fahrbahnhöhe und der Höhe des Fußpunkts einen vorbestimmten Schwellwert überschreitet.

Description

Verfahren zum Klassifizieren von Objekten in einer Umgebung eines Fahrzeugs als unterfahrbare Objekte oder als Objekte auf der Fahrbahn, Recheneinrichtung sowie Fahrerassistenzsystem
Die vorliegende Erfindung betrifft ein Verfahren zum Klassifizieren von Objekten in einer Umgebung eines Fahrzeugs gemäß dem Oberbegriff des Patentanspruchs 1. Zudem betrifft die Erfindung eine Recheneinrichtung für ein Fahrerassistenzsystem sowie ein Fahrerassistenzsystem für ein Fahrzeug. Schließlich betrifft die vorliegende Erfindung ein Computerprogramm.
Moderne Fahrzeuge umfassen Fahrerassistenzsysteme, mit denen ein automatisiertes Fahren des Fahrzeugs ermöglicht werden kann. Derartige Fahrerassistenzsystems umfassen eine Mehrzahl von Umfeldsensoren, mittels welchen Objekte in der Umgebung des Fahrzeugs erfasst werden können. Ein Problem in der Perzeption für das automatisierte Fahren stellt die Klassifikation von Messwerten bzw. Sensordaten der Umfeldsensoren dar. Insbesondere ist es schwierig, ein statisches Hindernis, beispielsweise verlorene Ladung auf der Fahrbahn oder ein Stauende, von unterfahrbaren horizontalen Strukturen, wie beispielsweise Schilderbrücken, Geschwindigkeitsanzeigen, Verkehrsleitsystemen oder dergleichen, zu unterscheiden.
Aus dem Stand der Technik sind unterschiedliche Methoden bekannt, um diesem Problem zu entgegnen. Beispielsweise können die Sensordaten, die von Lidar-Sensoren oder Radarsensoren bereitgestellt werden, in ein Kamerabild projiziert werden. Dabei kann die Klassifizierung der Objekte auf Grundlage von entsprechenden Objekterkennungsalgorithmen in dem Kamerabild durchgeführt werden. Des Weiteren können erkannte unterfahrbare Objekte mit bewegten Objekten plausibilisiert werden. Dies ist beispielsweise der Fall, wenn ein Objekt sich durch eine stehende Struktur in den Sensordaten quasi hindurch bewegt.
Die DE 102017 112 939 A1 beschreibt eine Radarvorrichtung für ein Fahrzeug, welche aus Wahrscheinlichkeitsmodellen, in welchen für jede der Erfassungsentfernungen erste und zweite bereits bekannte Korrelationen modelliert werden, einen Indikator auf der Basis von Wahrscheinlichkeitsverhältnissen eines stationären Fahrzeugs und eines oberen Objekts, welche den abgeleiteten Parameter und den Erfassungsentfernungen entsprechen, bestimmt, wobei die ersten bereits bekannten Korrelationen die Parameter und die Wahrscheinlichkeiten des stationären Fahrzeugs miteinander korrelieren und die zweiten bereits bekannten Korrelationen die Parameter und Wahrscheinlichkeiten des oberen Objekts miteinander korrelieren. Die Radarvorrichtung führt eine Schwellwertbestimmung für die berechneten Indikatoren durch, um zu bestimmen, ob das Ziel das stationäre Fahrzeug oder das obere Objekt ist.
Des Weiteren ist aus der DE 10 2015213 701 A1 ein Sensorsystem für ein Fahrzeug zum Erkennen von Brücken oder Tunneleinfahrten bekannt. Das Sensorsystem umfasst einen an einer ersten Seite des Fahrzeugs angeordneten seitlichen Lidar-Sensor mit einem eine seitliche Umgebung des Fahrzeugs abdeckenden Erfassungsbereich. Der seitliche Lidar- Sensor ist dabei um eine Hochachse gedreht angeordnet, sodass ein in Fahrtrichtung vorderer Teil des Erfassungsbereichs des seitlichen Lidar-Sensors einen vor dem Fahrzeug in einer vorgegebenen Entfernung angeordneten oberen Raumbereich erfasst. Ferner ist der seitliche Lidar-Sensor um eine Querachse gegenüber der Horizontalen gekippt, sodass der Erfassungsbereich des seitlichen Lidar-Sensors mit seinem in Fahrtrichtung vorderen Teil den entfernten oberen Raumbereich in einer vorgegebenen Höhe oberhalb des Fahrzeugs erfasst.
Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie die Klassifizierung von Objekten und insbesondere die Unterscheidung zwischen unterfahrbaren Objekten und relevanten Objekten auf der Fahrbahn auf einfache Weise und dennoch sicher durchgeführt werden kann.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Recheneinrichtung, durch ein Fahrerassistenzsystem sowie durch ein Computerprogramm mit den Merkmalen der unabhängigen Ansprüche gelöst. Vorteilhaften Weiterbildungen der vorliegenden Erfindung sind in den abhängigen Ansprüchen angegeben.
Ein erfindungsgemäßes Verfahren dient zum Klassifizieren von Objekten in einer Umgebung eines Fahrzeugs. Das Verfahren umfasst das Empfangen von Sensordaten, welche die Umgebung beschreiben, von einem Umfeldsensor des Fahrzeugs. Darüber hinaus umfasst das Verfahren das Erkennen eines Objekts in einem Bereich einer Fahrbahn, auf welcher sich das Fahrzeug befindet, anhand der Sensordaten sowie das Bestimmen eines Objektbereichs auf der Fahrbahn, welchem das Objekt zugeordnet ist. Außerdem umfasst das Verfahren das Zuordnen eines Fußpunkts zu dem erkannten Objekt anhand der Sensordaten sowie das Bestimmen einer Höhe des Fußpunkts bezogen auf eine Fahrzeughochrichtung des Fahrzeugs. Darüber hinaus umfasst das Verfahren das Bestimmen einer Fahrbahnhöhe bezogen auf die Fahrzeughochrichtung in dem Objektbereich, wobei die Fahrbahnhöhe unter Annahme einer vorbestimmten Steigung der Fahrbahn zwischen einem Vorfeldbereich der Fahrbahn vor dem Fahrzeug und dem Objektbereich bestimmt wird. Zudem umfasst das Verfahren das Klassifizieren des Objekts als unterfahrbares Objekt, falls ein Unterschied zwischen der Fahrbahnhöhe und der Höhe des Fußpunkts einen vorbestimmten Schwellwert überschreitet.
Mit dem Verfahren sollen Objekte in der Umgebung des Fahrzeugs klassifiziert werden. Insbesondere soll zwischen Objekten, welche von dem Fahrzeug unterfahren werden können, und relevanten Objekten auf der Fahrbahn unterschieden werden. Bei den unterfahrbaren Objekten kann es sich beispielsweise um Strukturen bzw. Infrastruktureinrichtungen handeln, welche die Fahrbahn überragen. Solche unterfahrbaren Objekte können beispielsweise Schilderbrücken, Geschwindigkeitsanzeigen, Verkehrsleitsysteme, Brücken oder Tunneleinfahrten sein. Bei den relevanten Objekten auf der Fahrbahn kann es sich beispielsweise um verlorene Ladung oder weitere Verkehrsteilnehmer auf der Fahrbahn handeln. Als relevante Objekte auf der Fahrbahn sind insbesondere statische Verkehrsteilnehmer oder Verkehrsteilnehmer mit einer geringen Geschwindigkeit anzusehen. Beispielsweise kann ein solches relevantes Objekt auf der Fahrbahn einem Stauende zugeordnet sein. Das Verfahren eignet sich insbesondere für Objekte, deren Abstand zu dem Fahrzeug einen bestimmten Mindestabstand, beispielsweise einen Abstand von 50 m, überschreitet.
Das Verfahren kann mit einer entsprechenden Recheneinrichtung des Fahrzeugs durchgeführt werden. Diese Recheneinrichtung kann die Sensordaten von dem Umfeldsensor des Fahrzeugs empfangen. Bei dem Umfeldsensor kann es sich um einen Abstandssensor, beispielsweise einen Lidar-Sensor oder einen Radarsensor, handeln. Der Umfeldsensor kann auch als Kamera ausgebildet sein. Diese Sensordaten können beispielsweise eine Mehrzahl von Messwerten oder Messpunkten umfassen, welche die Umgebung und die Objekte in der Umgebung beschreiben. Auf Grundlage dieser Sensordaten bzw. der Messwerte wird mittels der Recheneinrichtung das Objekt erkannt, welches sich im Bereich der Fahrbahn bzw. auf der Fahrbahn befindet. Des Weiteren wird diesem Objekt auf der Fahrbahn der Objektbereich zugeordnet. Dieser Objektbereich beschreibt den Bereich der Fahrbahn, welcher dem Objekt zugeordnet ist bzw. in welchem sich das Objekt befindet. Darüber hinaus wird dem Objekt auf Grundlage der Sensordaten der Fußpunkt zugeordnet. Unter dem Fußpunkt ist vorliegend nicht zwingend derjenige Punkt des Objekts zu verstehen, welcher auch die Oberfläche der Fahrbahn berührt. Vorliegend ist unter dem Fußpunkt derjenige Punkt bzw. Messwert des Objekts zu verstehen, welcher zu der Fahrbahnoberfläche den geringsten Abstand aufweist. Der Fußpunkt des Objekts ist also insbesondere derjenige Messwert des Objekts, welcher bezogen auf die Fahrzeughochrichtung des Fahrzeugs bzw. die Vertikale am niedrigsten angeordnet ist. Zu diesem Fußpunkt wird eine Höhe bestimmt, wobei diese bezogen auf die Fahrzeughochrichtung des Fahrzeugs ermittelt wird.
Ferner wird gemäß der vorliegenden Erfindung die Fahrbahnhöhe bzw. Bodenhöhe in dem Objektbereich bestimmt. Auch diese Fahrbahnhöhe wird bezogen auf die Fahrzeughochrichtung bzw. bezogen auf die Einbauposition des Umfeldsensors oder einem Referenzpunkt des Fahrzeugs ermittelt. Dabei wird die Fahrbahnhöhe unter Annahme der vorbestimmten Steigung der Fahrbahn zwischen dem Vorfeldbereich vor dem Fahrzeug und dem Objektbereich bestimmt. Dabei beschreibt der Vorfeldbereich einen Bereich der Fahrbahn, welcher sich in Vorwärtsfahrtrichtung vor dem Fahrzeug befindet. Von diesem Vorfeldbereich kann die Höhe bezogen auf die Fahrzeughochrichtung bestimmt werden oder ist bekannt. Unter dem Begriff „Steigung“ ist im Rahmen der vorliegenden Erfindung sowohl ein Anstieg der Fahrbahn als auch ein Gefälle der Fahrbahn zu verstehen. Die Steigung der Fahrbahn ist bei einem Anstieg positiv und bei einem Gefälle negativ. Die Steigung kann auch als Gradiente bezeichnet werden. Die Fahrbahnhöhe in dem Objektbereich, der dem Objekt zugeordnet ist, wird unter der Annahme bestimmt, dass die Fahrbahn zwischen dem Vorfeldbereich und dem Objektbereich ansteigt oder eben abfällt.
Des Weiteren wird das Objekt als unterfahrbares Objekt klassifiziert, falls ein Unterschied zwischen der Fahrbahnhöhe und der Höhe des Fußpunkts den vorbestimmten Schwellwert überschreitet. Wenn also die Höhe des Fußpunkts des Objekts deutlich oberhalb der angenommenen Fahrbahnhöhe in dem Objektbereich liegt, wird davon ausgegangen, dass es sich um ein unterfahrbares Objekt handelt. Dies erfolgt unter der zuvor beschriebenen Annahme, dass die Höhe der Fahrbahn in dem Objektbereich größer ist als die Höhe der Fahrbahn in dem Vorfeldbereich bzw. in dem Bereich der Fahrbahn, in dem sich das Fahrzeug aktuell befindet. Somit kann auf zuverlässige Weise ein reales Stauende oder ein reales statisches Hindernis tatsächlich als solches klassifiziert werden und infolge der richtigen Klassifizierung beispielsweise eine Bremsung eingeleitet werden. Auf diese Weise kann die Falsch-Positiv-Rate bezüglich der Klassifizierung von relevanten Objekten auf der Fahrbahn und damit eine Falschbremsrate reduziert werden. Insgesamt kann somit die Klassifizierung des Objekts auf einfache Weise und dennoch sicher hinsichtlich der Falsch- Negativ-Rate bzw. nicht erkannter realer Objekte auf der Fahrbahn durchgeführt werden.
Bevorzugt wird das Objekt als relevantes Objekt auf der Fahrbahn klassifiziert, falls der Unterschied zwischen der Fahrbahnhöhe und der Höhe des Fußpunkts den vorbestimmten Schwellwert unterschreitet. Falls die Höhe des Fußpunkts des Objekts nur einen geringen Abstand zu der angenommenen Fahrbahnhöhe aufweist oder falls die Höhe des Fußpunkts die bestimmte Fahrbahnhöhe unterschreitet, wird davon ausgegangen, dass es sich bei dem Objekt um ein relevantes Objekt auf der Fahrbahn handelt. Insbesondere wird davon ausgegangen, dass es sich um ein statisches Objekt oder Hindernis auf der Fahrbahn handelt. Auch hier kann durch die Annahme, dass die Fahrbahnhöhe in dem Objektbereich höher als die Fahrbahnhöhe in dem Vorfeldbereich des Fahrzeugs ist, auf sichere Weise erreicht werden, dass ein relevantes Objekt auf der Fahrbahn nicht fälschlicherweise als unterfahrbares Objekt eingestuft wird. Dies könnte im schlimmsten Fall zur Folge haben, dass das Fahrzeug mit dem relevanten Objekt kollidiert.
In einer Ausführungsform wird die Steigung unter Annahme einer vorbestimmten maximalen Steigung und/oder einer vorbestimmten maximalen Krümmungsänderung für die Fahrbahn vorbestimmt. Beispielsweise kann angenommen werden, dass die Höhe der Fahrbahn zwischen dem Vorfeldbereich und dem Objektbereich linear ansteigt abfällt. Hier kann beispielsweise eine maximale Steigung für die Fahrbahn angenommen werden. Diese maximale Steigung kann beispielsweise zwischen +1 % und +10 % betragen. Diese maximale Steigung kann in Abhängigkeit von der geografischen Lage der Fahrbahn bzw. den geografischen Gegebenheiten in der Umgebung bestimmt werden. Beispielsweise kann die Steigung in einem Gebiet mit Bergen größer gewählt werden als im Flachland.
Es kann aber auch vorgesehen sein, dass die Steigung zwischen dem Vorfeldbereich und dem Objektbereich auf Grundlage einer vorbestimmten maximalen Krümmungsänderung vorbestimmt wird. Dies bedeutet beispielsweise, dass der Verlauf der Fahrbahn in Fahrzeughochrichtung ausgehend von dem Vorfeldbereich nicht linear extrapoliert wird, sondern mit einer worst-case-Krümmungsannahme. Somit kann auf sichere Weise verhindert werden, dass ein unterfahrbares Objekt falsch als relevantes Objekt auf der Fahrbahn klassifiziert wird.
Gemäß einer weiteren Ausführungsform wird die Steigung anhand von digitalen Kartendaten vorbestimmt, wobei die digitalen Kartendaten die Steigung der Fahrbahn zwischen dem Vorfeldbereich und dem Objektbereich beschreiben. Diese digitalen Kartendaten können zusätzlich oder alternativ zu der Annahme der vorbestimmten maximalen Steigung und/oder der vorbestimmten maximalen Krümmungsänderung verwendet werden. Beispielsweise können aus hochgenauen dreidimensionalen Kartendaten bzw. Kartensätzen lediglich die Informationen entnommen werden, welche die Steigung bzw. Krümmung der Fahrbahn beschreiben. Somit ist es insbesondere nicht vorgesehen, die hochgenauen dreidimensionalen Kartendaten bzw. Geometrien der einzelnen Fahrspuren auszuwerten. Damit kann die Datenmenge, welche für die Bestimmung der Fahrbahnsteigung bzw. der Fahrbahnhöhe erforderlich sind, reduziert werden. Durch die Berücksichtigung der Kartendaten, welche die Steigung der Fahrbahn beschreiben, kann die Klassifizierung weiter verbessert werden.
Grundsätzlich kann angenommen werden, dass die Fahrbahn zwischen dem Vorfeldbereich und dem Objektbereich ansteigt. Wenn die Kartendaten zur Extrapolation der Steigung genutzt werden und diese beschreiben, dass die Fahrbahn zwischen dem Vorfeldbereich und dem Objektbereich abfällt, kann zumindest bereichsweise ein Gefälle der Fahrbahn angenommen werden. Für das Gefälle der Fahrbahn kann eine lineare Steigung, beispielsweise eine Steigung zwischen -1 % und -10 %, oder eine vorbestimmte Krümmungsänderung angenommen werden.
Weiterhin ist vorteilhaft, wenn der Schwellwert anhand einer vorbestimmten maximalen Höhe einer Unterkante von Objekten, welche anhand der Sensordaten erfassbar sind, bestimmt wird. Wie bereits erläutert, kann der Fußpunkt, der dem Objekt zugeordnet wird, nicht den Bereich des Objekts beschreiben, welcher auch mit der Fahrbahn in Kontakt ist bzw. die Fahrbahn berührt. Wenn es sich bei dem Objekt beispielsweise um einen Personenkraftwagen oder einen Lastkraftwagen handelt, können die Räder bzw. Reifen dieser Fahrzeuge auf Grundlage der Messungen mit Lidar-Sensoren und/oder Radarsensoren nicht erfasst werden. Bei einem Lastkraftwagen kann beispielsweise die untere Ladekante auf Grundlage der Sensordaten oder Messwerte erkannt werden und somit als Fußpunkt des Objekts betrachtet werden. Der Schwellwert wird somit derart bestimmt, dass dieser größer ist als eine Höhe einer derartigen Unterkante. Hierbei kann eine maximale Höhe einer erfassbaren Unterkante von typischen Verkehrsteilnehmern bzw. Objekten zugrunde gelegt werden. Dabei kann der Schwellwert dieser maximalen Höhe entsprechen oder größer als diese vorbestimmte maximale Höhe gewählt werden. Somit kann auf zuverlässige Weise eine fehlerhafte Klassifizierung verhindert werden.
Zudem ist insbesondere vorgesehen, dass bei der Bestimmung des Schwellwerts zudem Unsicherheiten in den Sensordaten und/oder Toleranzen bei der Bestimmung der Fahrbahnhöhe berücksichtigt werden. Bei der Erfassung des Fußpunkts des Objekts können Unsicherheiten bzw. Toleranzen in den Sensordaten bzw. Messwerten vorliegen. Ferner können bei der Bestimmung der Fahrbahnhöhe auf Grundlage der vorbestimmten Steigung Toleranzen vorhanden sein. Diese Unsicherheiten bzw. Toleranzen können bei der Bestimmung des Schwellwerts berücksichtigt werden. Es kann beispielsweise vorgesehen sein, dass der Schwellwert anhand der zuvor beschriebenen maximalen Höhe einer Unterkante von Objekten sowie eines Höhenwerts, welcher die Unsicherheiten und Toleranzen ausgleicht, bestimmt wird.
In einer weiteren Ausführungsform wird zum Bestimmen der Fahrbahnhöhe eine Höhe einer Fahrbahnoberfläche der Fahrbahn bezogen auf die Fahrzeughochrichtung im Vorfeldbereich anhand der Sensordaten bestimmt. Mit anderen Worten kann die Höhe der Fahrbahn bzw. der Fahrbahnoberfläche in dem Vorfeldbereich auf Grundlage der Sensordaten bestimmt werden. In dem bestimmten Vorfeldbereich vor dem Fahrzeug kann die geometrische Form der Bodenfläche bzw. der Fahrbahnoberfläche und insbesondere Anstiege und Senkungen mit einem Lidar-Sensor oder Radarsensor auf zuverlässige Weise erfasst werden. Beispielsweise kann die Fahrbahnhöhe in einem Vorfeldbereich, welcher einen Abstand bis zu 50 m von der Vorderseite des Fahrzeugs aufweisen kann, mit einem Lidar-Sensor oder Radarsensor bestimmt werden.
Das erfindungsgemäße Verfahren kann insbesondere für Objekte verwendet werden, welche einen vorbestimmten Mindestabstand zu dem Fahrzeug bzw. dem Umfeldsensor aufweisen. Der Mindestabstand kann beispielsweise größer als 50 m sein. Insbesondere kann das Verfahren für Objekte außerhalb des Vorfeldbereichs eingesetzt werden. Der Mindestabstand ist abhängig von der Ausgestaltung des Umfeldsensors, des Sensorprinzips, der Einbauhöhe des Umfeldsensors und/oder den Umgebungsbedingungen.
Eine erfindungsgemäße Recheneinrichtung für ein Fahrerassistenzsystem ist zum Durchführen eines erfindungsgemäßen Verfahrens und der vorteilhaften Ausgestaltungen davon eingerichtet. Die Recheneinrichtung kann beispielsweise ein oder mehrere Steuergeräte umfassen.
Ein erfindungsgemäßes Fahrerassistenzsystem für ein Fahrzeug ist dazu eingerichtet, das Fahrzeug in Abhängigkeit von einer Klassifizierung eines Objekts in der Umgebung zumindest teilautomatisiert zu manövrieren. Das Fahrerassistenzsystem umfasst die erfindungsgemäße Recheneinrichtung. Des Weiteren kann das Fahrerassistenzsystem zumindest einen Umfeldsensor aufweisen. Dieser Umfeldsensor kann bevorzugt als Lidar- Sensor oder als Radarsensor ausgebildet sein. Es kann auch vorgesehen sein, dass der Umfeldsensor als Kamera ausgebildet ist. Mittels der Klassifizierung des Objekts als unterfahrbares Objekt oder als relevantes Objekt auf der Fahrbahn können mittels der Recheneinrichtung entsprechende Steuersignale zum teilautomatisierten Manövrieren des Fahrzeugs ausgegeben werden. Beispielsweise kann eine Bremsung durchgeführt werden, falls das Objekt als relevantes Objekt auf der Fahrbahn klassifiziert wird.
Ein erfindungsgemäßes Fahrzeug umfasst ein erfindungsgemäßes Fahrerassistenzsystem. Das Fahrzeug ist insbesondere als Personenkraftwagen ausgebildet.
Ein weiterer Aspekt der Erfindung betrifft ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinrichtung diese veranlassen, ein erfindungsgemäßes Verfahren und die vorteilhaften Ausgestaltungen davon auszuführen. Darüber hinaus betrifft die Erfindung ein computerlesbares (Speicher-)medium, umfassend Befehle, die bei der Ausführung durch eine Recheneinrichtung diese veranlassen, ein erfindungsgemäßes Verfahren und die vorteilhaften Ausgestaltungen davon auszuführen.
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für die erfindungsgemäße Recheneinrichtung, für das erfindungsgemäße Fahrerassistenzsystem, für das erfindungsgemäße Fahrzeug, für das erfindungsgemäße Computerprogramm sowie für das erfindungsgemäße computerlesbare (Speicher-)medium.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht an die jeweils angegebene Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Dabei zeigen:
Fig. 1 eine schematische Darstellung eines Fahrzeugs, welches ein Fahrerassistenzsystem zum Klassifizieren eines Objekts als unterfahrbares Objekt oder als relevantes Objekt auf der Fahrbahn umfasst; und Fig. 2 eine schematische Darstellung des Fahrzeugs auf einer Fahrbahn, von Messwerten, welche ein Objekt beschreiben, sowie einer Annahme eines Verlaufs der Fahrbahn.
In den Figuren werden gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.
Fig. 1 zeigt in einer schematischen Darstellung ein Fahrzeug 1 , welches vorliegend als Personenkraftwagen ausgebildet ist, in einer Draufsicht. Das Fahrzeug 1 umfasst ein Fahrerassistenzsystem 2, mittels welchem das Fahrzeug 1 zumindest teilautomatisiert manövriert werden kann. Das Fahrerassistenzsystem 2 umfasst eine Recheneinrichtung 3, welche beispielsweise durch zumindest ein Steuergerät des Fahrzeugs 1 gebildet sein kann. Darüber hinaus umfasst das Fahrerassistenzsystem 2 einen Umfeldsensor 4, welcher beispielsweise als Radarsensor oder als Lidar-Sensor ausgebildet sein kann. Mit dem Umfeldsensor 4 können Sensordaten bereitgestellt werden, welche eine Umgebung 5 des Fahrzeugs beschreiben. Diese Sensordaten können von dem Umfeldsensor 4 an die Recheneinrichtung 3 übertragen werden.
Vorliegend befindet sich das Fahrzeug 1 auf einer Fahrbahn 6. Anhand der Sensordaten, die mit dem Umfeldsensor 4 bereitgestellt werden, kann ein Objekt 7, welches sich vorliegend in Fahrtrichtung vor dem Fahrzeug 1 auf der Fahrbahn 6 befindet, erkannt werden. Anhand der Sensordaten kann beispielsweise der Abstand zwischen dem Fahrzeug 1 und dem Objekt 7 sowie die relative Lage zwischen dem Fahrzeug 1 und dem Objekt 7 ermittelt werden. Darüber hinaus wird anhand der Sensordaten ein Objektbereich 8 definiert, welcher dem Objekt 7 auf der Fahrbahn 6 zugeordnet wird. Darüber hinaus kann anhand der Sensordaten die Fahrbahn 6 bzw. eine Fahrbahnoberfläche 9 der Fahrbahn 6 in einem Vorfeldbereich 10 in Fahrtrichtung vor dem Fahrzeug 1 erfasst werden. Auf Grundlage der Sensordaten des Umfeldsensors 4 kann in dem Vorfeldbereich 10 insbesondere ein Anstieg oder ein Gefälle der Fahrbahn 6 erfasst werden.
Fig. 2 zeigt eine weitere Darstellung des Fahrzeugs 1 sowie von Messwerten 11, welche das Objekt 7 beschreiben. Dabei umfassen die Sensordaten, welche mit dem Umfeldsensor 4 bereitgestellt werden, diese Messwerte 11. Vorliegend sind der Übersichtlichkeit halber nur drei Messwerte 11 dargestellt. Die vorliegende Zeichnung zeigt den Abstand zwischen dem Fahrzeug 1 und dem Objekt 7 nicht maßstabsgetreu. Beispielsweise kann der Abstand zwischen dem Fahrzeug 1 und dem Objekt 7 150 m betragen. Bei derartigen Abständen ist es bei Messungen von Umfeldsensoren 4, beispielsweise Lidar-Sensoren oder Radarsensoren, schwierig, ein statisches Objekt, wie beispielsweise verlorene Ladung auf der Fahrbahn 6 oder ein stehendes Stauende, von unterfahrbaren horizontalen Strukturen, beispielsweise Schilderbrücken oder Geschwindigkeitsanzeigen, zu unterscheiden.
Auf Grundlage der Messwerte 11 wird ein Fußpunkt 12 des Objekts 7 bestimmt. Dabei beschreibt der Fußpunkt 12 den Punkt bzw. Messwert 11 des Objekts 7, welcher den geringsten Abstand zu der Fahrbahnoberfläche 9 bezogen auf eine Fahrzeughochrichtung z des Fahrzeugs 1 aufweist. Mit anderen Worten beschreibt der Fußpunkt 12 den niedrigsten Punkt des Objekts 7. Wie bereits erläutert, kann auf Grundlage der Sensordaten die Steigung der Fahrbahn 6 bzw. Fahrbahnoberfläche 9 in dem Vorfeldbereich 10 erfasst werden. Dabei ist es vorliegend vorgesehen, dass eine Steigung der Fahrbahn 6 in einem Bereich 13 extrapoliert wird. Dieser Bereich 13 der Fahrbahn 6 erstreckt sich zwischen dem Vorfeldbereich 10 und dem Objektbereich 8, welche dem Objekt 7 zugeordnet wurde. Dabei wird die Steigung auf Grundlage einer schlechtest anzunehmenden Steigung oder Krümmungsänderung für die Fahrbahn 6 berechnet. Beispielsweise kann eine Steigung oder eine Krümmungsänderung von 2 % angenommen werden. Hieraus kann sich beispielsweise ein Höhenunterschied von 2 m auf eine Distanz von 100 m Entfernung ergeben. Hierdurch ergibt sich in dem Beispiel in dem Objektbereich 8 eine Fahrbahnhöhe h1, welche 2 m über der gemessenen Bodenhöhe bzw. einer Höhe hO der Fahrbahn 6 in dem Vorfeldbereich 10 liegt.
Es wird nun überprüft, ob ein Unterschied zwischen einer Höhe h2 des Fußpunkts 12 und der Fahrbahnhöhe h1 größer als ein vorbestimmter Schwellwert T ist. Ist dies der Fall, wird das Objekt 7 als unterfahrbares Objekt klassifiziert. Andernfalls wird das Objekt 7 als relevantes Objekt auf der Fahrbahn 6 klassifiziert. Dieser Schwellwert T kann in Abhängigkeit von einer vorbestimmten maximalen Höhe einer Unterkante von Objekten, welche anhand der Sensordaten erfassbar ist, bestimmt werden. Diese Höhe der Unterkante kann beispielsweise einer typischen Höhe einer Ladekante eines Lastkraftwagens entsprechen. Zudem können bei der Bestimmung des Schwellwerts Unsicherheiten bei den Sensorwerten und/oder Toleranzen bei der Bestimmung der Fahrbahnhöhe h1 einbezogen werden. Insgesamt kann somit die Klassifizierung von Objekten 7 in der Umgebung 5 des Fahrzeugs 1 bzw. auf der Fahrbahn 6 auf einfache Weise und dennoch zuverlässig durchgeführt werden.

Claims

Ansprüche
1. Verfahren zum Klassifizieren von Objekten (7) in einer Umgebung (5) eines Fahrzeugs (1) mit den Schritten:
- Empfangen von Sensordaten, welche die Umgebung (5) beschreiben, von einem Umfeldsensor (4) des Fahrzeugs (1),
- Erkennen eines Objekts (7) in einem Bereich einer Fahrbahn (6), auf welcher sich das Fahrzeug (1) befindet, anhand der Sensordaten,
- Bestimmen eines Objektbereichs (8) auf der Fahrbahn (6), welchem das Objekt (7) zugeordnet ist,
- Zuordnen eines Fußpunkts (12) zu dem erkannten Objekt (7) anhand der Sensordaten und
- Bestimmen einer Höhe (h2) des Fußpunkts (12) bezogen auf eine Fahrzeughochrichtung (z) des Fahrzeugs (1), gekennzeichnet durch
- Bestimmen einer Fahrbahnhöhe (h1) bezogen auf die Fahrzeughochrichtung (z) in dem Objektbereich (8),
- wobei die Fahrbahnhöhe (h 1 ) unter Annahme einer vorbestimmten Steigung der Fahrbahn (6) zwischen einem Vorfeldbereich (10) der Fahrbahn (6) vor dem Fahrzeug (1) und dem Objektbereich (8) bestimmt wird, und
- Klassifizieren des Objekts (7) als unterfahrbares Objekt, falls ein Unterschied zwischen der Fahrbahnhöhe (h1) und der Höhe (h2) des Fußpunkts (12) einen vorbestimmten Schwellwert (T) überschreitet.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass das Objekt (7) als relevantes Objekt auf der Fahrbahn (6) klassifiziert wird, falls der Unterschied zwischen der Fahrbahnhöhe (h1) und der Höhe (h2) des Fußpunkts (12) den vorbestimmten Schwellwert (T) unterschreitet.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Steigung unter Annahme einer vorbestimmten maximalen Steigung und/oder einer vorbestimmten maximalen Krümmungsänderung für die Fahrbahn (6) vorbestimmt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steigung anhand von digitalen Kartendaten vorbestimmt wird, wobei die digitalen Kartendaten die Steigung der Fahrbahn (6) zwischen dem Vorfeldbereich (10) und dem Objektbereich (8) beschreiben.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schwellwert (T) anhand einer vorbestimmten maximalen Höhe einer Unterkante von Objekten, welche anhand der Sensordaten erfassbar ist, bestimmt wird.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei der Bestimmung des Schwellwerts (T) zudem Unsicherheiten in den Sensordaten und/oder Toleranzen bei der Bestimmung der Fahrbahnhöhe (h1) berücksichtigt werden.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Bestimmen der Fahrbahnhöhe (h1) eine Höhe (hO) einer Fahrbahnoberfläche (9) der Fahrbahn (6) bezogen auf die Fahrzeughochrichtung (z) in dem Vorfeldbereich (10) anhand der Sensordaten bestimmt wird.
8. Recheneinrichtung (3) für ein Fahrerassistenzsystem (2) eines Fahrzeugs (1), wobei die Recheneinrichtung (3) zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche eingerichtet ist.
9. Fahrerassistenzsystem (2) für ein Fahrzeug (1) mit einer Recheneinrichtung (3) nach Anspruch 8, wobei das Fahrerassistenzsystem (2) dazu eingerichtet ist, das Fahrzeug (1) in Abhängigkeit von einer Klassifizierung eines Objekts (7) in einer Umgebung (5) des Fahrzeugs (1) zumindest teilautomatisiert zu manövrieren.
10. Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinrichtung (3) diese veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 7 auszuführen.
PCT/EP2021/073854 2020-10-05 2021-08-30 Verfahren zum klassifizieren von objekten in einer umgebung eines fahrzeugs als unterfahrbare objekte oder als objekte auf der fahrbahn, recheneinrichtung sowie fahrerassistenzsystem WO2022073694A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202180064390.7A CN116194795A (zh) 2020-10-05 2021-08-30 将车辆环境中的对象分类为可在下方行驶的对象或车道上的对象的方法、计算装置以及驾驶员辅助系统
US18/029,134 US20230367020A1 (en) 2020-10-05 2021-08-30 Method for Classifying Objects in an Environment of a Vehicle as Objects That Can Be Driven Under or as Objects on the Roadway, Computing Device and Driver Assistance System

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020125977.8 2020-10-05
DE102020125977.8A DE102020125977A1 (de) 2020-10-05 2020-10-05 Verfahren zum Klassifizieren von Objekten in einer Umgebung eines Fahrzeugs als unterfahrbare Objekte oder als Objekte auf der Fahrbahn, Recheneinrichtung sowie Fahrerassistenzsystem

Publications (1)

Publication Number Publication Date
WO2022073694A1 true WO2022073694A1 (de) 2022-04-14

Family

ID=77710759

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/073854 WO2022073694A1 (de) 2020-10-05 2021-08-30 Verfahren zum klassifizieren von objekten in einer umgebung eines fahrzeugs als unterfahrbare objekte oder als objekte auf der fahrbahn, recheneinrichtung sowie fahrerassistenzsystem

Country Status (4)

Country Link
US (1) US20230367020A1 (de)
CN (1) CN116194795A (de)
DE (1) DE102020125977A1 (de)
WO (1) WO2022073694A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050012603A1 (en) * 2003-05-08 2005-01-20 Frank Ewerhart Device for determining the passability of a vehicle
EP1736797A1 (de) * 2005-06-15 2006-12-27 Robert Bosch Gmbh Fahrerassistenzsystem mit Navigationssystemschnittstelle
US20150336546A1 (en) * 2014-05-19 2015-11-26 Umm Al-Qura University Method and system for vehicle to sense roadblock
DE102015213701A1 (de) 2015-07-21 2017-01-26 Robert Bosch Gmbh Sensorsystem für ein Fahrzeug zum Erkennen von Brücken oder Tunneleinfahrten
DE102017112939A1 (de) 2016-06-17 2017-12-21 Fujitsu Ten Limited Radarvorrichtung und steuerungsverfahren einer radarvorrichtung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013222846A1 (de) 2013-11-11 2015-05-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung der Durchfahrtsmöglichkeit eines Fahrzeugs
DE102016213377B4 (de) 2016-07-21 2023-11-16 Volkswagen Aktiengesellschaft Verfahren zur Durchfahrtshöhenerkennung
DE102017205513B4 (de) 2017-03-31 2019-08-29 Zf Friedrichshafen Ag Verfahren und Vorrichtung zum Einstellen einer Betriebsstrategie für ein Fahrzeug

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050012603A1 (en) * 2003-05-08 2005-01-20 Frank Ewerhart Device for determining the passability of a vehicle
EP1736797A1 (de) * 2005-06-15 2006-12-27 Robert Bosch Gmbh Fahrerassistenzsystem mit Navigationssystemschnittstelle
US20150336546A1 (en) * 2014-05-19 2015-11-26 Umm Al-Qura University Method and system for vehicle to sense roadblock
DE102015213701A1 (de) 2015-07-21 2017-01-26 Robert Bosch Gmbh Sensorsystem für ein Fahrzeug zum Erkennen von Brücken oder Tunneleinfahrten
DE102017112939A1 (de) 2016-06-17 2017-12-21 Fujitsu Ten Limited Radarvorrichtung und steuerungsverfahren einer radarvorrichtung

Also Published As

Publication number Publication date
DE102020125977A1 (de) 2022-04-07
US20230367020A1 (en) 2023-11-16
CN116194795A (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
EP1736797B1 (de) Fahrerassistenzsystem mit Navigationssystemschnittstelle
EP1844373B1 (de) Verfahren zur kursprädiktion in fahrerassistenzsystemen für kraftfahrzeuge
DE102013012324A1 (de) Verfahren und Vorrichtung zur Fahrwegfindung
DE102008062708A1 (de) Verfahren zur Bestimmung der Fahrbahnebene einer Parklücke
EP2676857A2 (de) Verfahren und Vorrichtung zum Erzeugen eines Steuerparameters für ein Abstandsassistenzsystem eines Fahrzeugs
DE102019206875B3 (de) Erkennen einer Bankettfahrt eines Kraftfahrzeugs
WO2019053013A1 (de) Verfahren zum ermitteln einer position eines kraftfahrzeugs in einer umgebung sowie steuervorrichtung für ein kraftfahrzeug und recheneinrichtung zum betreiben an einem datennetzwerk
DE102015223481A1 (de) Verfahren zur Anpassung einer Lenkunterstützung eines Fahrzeugs
DE102013217486A1 (de) Verfahren zur Repräsentation eines Umfelds eines Fahrzeugs in einem Belegungsgitter
WO2017125369A1 (de) Verfahren zum erkennen von fahrspuren auf einer fahrbahn anhand einer häufigkeitsverteilung von abstandswerten, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
DE102020003073B3 (de) Verfahren und Vorrichtung zum automatisierten Fahrbetrieb eines Fahrzeuges und Fahrzeug
DE102017106349A1 (de) Fahrerassistenzsystem für ein Fahrzeug zum Prognostizieren eines dem Fahrzeug vorausliegenden Fahrspurbereichs, Fahrzeug und Verfahren
DE102015111925A1 (de) Spurhalteassistenzsystem
DE102011113325A1 (de) Verfahren zur Objekterkennung mittels Bilddaten
DE19828160B4 (de) Verfahren zum automatischen Erkennen der Hauptrichtungsfahrbahn bei einer mehrspurigen Strecke
EP4165375A1 (de) Verfahren zur bestimmung einer nutzungsart eines landmarkenmusters für eine eigenlokalisierung eines fahrzeugs, sowie elektronisches eigenlokalisierungssystem für ein fahrzeug
WO2022073694A1 (de) Verfahren zum klassifizieren von objekten in einer umgebung eines fahrzeugs als unterfahrbare objekte oder als objekte auf der fahrbahn, recheneinrichtung sowie fahrerassistenzsystem
DE102016109850B4 (de) Verfahren zum Erkennen einer Neigung in einer Fahrbahn eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102011083610A1 (de) Geschwindigkeitssteuerung für ein Kraftfahrzeug
DE102019206847A1 (de) Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs
WO2019211293A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines egofahrzeugs mit wenigstens einem umfeldsensor zum erfassen eines umfelds des egofahrzeugs, computer-lesbares medium, system, und fahrzeug
DE102006004020B3 (de) Verfahren zur Vermeidung eines Umkippens eines Fahrzeugs
DE102020206239B4 (de) Verfahren und System zum Bestimmen einer Eigenposition eines Kraftfahrzeugs sowie ein mit einem solchen System ausgerüstetes Kraftfahrzeug
DE102019115788A1 (de) Automatische Identifizierung einer Ego-Fahrspur und Anpassung einer Fahrtrajektorie für eine Ego-Fahrzeug in Abhängigkeit von der Ego-Fahrspur
DE102014004418A1 (de) Verfahren und Umfeld-Erfassungssystem zum Ermitteln einer Fahrbahn

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21769138

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21769138

Country of ref document: EP

Kind code of ref document: A1