DE102020007057A1 - Vehicle and method for determining a headroom - Google Patents

Vehicle and method for determining a headroom Download PDF

Info

Publication number
DE102020007057A1
DE102020007057A1 DE102020007057.4A DE102020007057A DE102020007057A1 DE 102020007057 A1 DE102020007057 A1 DE 102020007057A1 DE 102020007057 A DE102020007057 A DE 102020007057A DE 102020007057 A1 DE102020007057 A1 DE 102020007057A1
Authority
DE
Germany
Prior art keywords
camera
radar
vehicle
determined
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020007057.4A
Other languages
German (de)
Inventor
Alexander Rössler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler Truck Holding AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102020007057.4A priority Critical patent/DE102020007057A1/en
Publication of DE102020007057A1 publication Critical patent/DE102020007057A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Bestimmung einer Durchfahrhöhe für ein Fahrzeug (5) mittels einer Kamera (6), wobei mit der Kamera (6) ein Bild von einer vor dem Fahrzeug liegenden Umgebung aufgenommen wird, wobei aus Bilddaten der Kamera (6) ermittelt wird, ob ein Objekt (2.1 bis 2.6) in der Umgebung vorliegt und eine Durchfahrt des Objekts (2.1 bis 2.6) möglich ist, wobei zusätzlich ein Long-Range-Radar sowie zwei Short-Range-Radars mit unterschiedlichen Positionen und/oder Ausrichtungen am Fahrzeug (5) verwendet werden, um Objekte (2.1 bis 2.6) in der Umgebung zu erkennen, wobei Sichtbereiche (LRR, MPC, SRR) der Radarsensoren (1.1 bis 1.3) und der Kamera (6) einander überlappen, wobei anhand der Daten jedes der Radarsensoren (1.1 bis 1.3) und der Kamera (6) jeweils eine L-Shape-Berechnung vorgenommen wird, bei der neben einem erkannten Reflexionspunkt (3) nach zwei weiteren danebenliegenden Reflexionspunkten (3) gesucht wird, wobei die anhand der Daten der Radarsensoren (1.1 bis 1.3) und der Kamera (6) bestimmten L-Shapes (4) miteinander verglichen werden um ein fusioniertes Bild mit fusionierten L-Shapes (4F) zu erzeugen, wobei zur Erkennung der Durchfahrthöhe eine Höhe (h) zwischen fusionierten L-Shapes (4F) eines als Brücke (11) oder Durchfahrt erkannten Objekts (2.1 bis 2.6) bestimmt wird.The invention relates to a method for determining a drive-through height for a vehicle (5) by means of a camera (6), the camera (6) recording an image of the surroundings in front of the vehicle, the camera (6) determining from image data whether there is an object (2.1 to 2.6) in the vicinity and it is possible to drive through the object (2.1 to 2.6), with a long-range radar and two short-range radars with different positions and / or orientations on the Vehicle (5) can be used to detect objects (2.1 to 2.6) in the environment, with fields of view (LRR, MPC, SRR) of the radar sensors (1.1 to 1.3) and the camera (6) overlapping each other of the radar sensors (1.1 to 1.3) and the camera (6) an L-shape calculation is carried out in which, in addition to a recognized reflection point (3), a search is made for two other adjacent reflection points (3), the data from the radar sensors (1. 1 to 1.3) and the L-Shapes (4) determined by the camera (6) are compared with one another in order to generate a fused image with fused L-Shapes (4F), with a height (h) between fused L-Shapes to identify the passage height (4F) of an object (2.1 to 2.6) recognized as a bridge (11) or passage is determined.

Description

Die Erfindung betrifft ein Verfahren zur Bestimmung einer Durchfahrtshöhe gemäß Anspruch 1 sowie ein Fahrzeug, in dem das Verfahren implementiert ist, gemäß Anspruch 7.The invention relates to a method for determining a clearance height according to claim 1 and to a vehicle in which the method is implemented according to claim 7.

Aus der DE 10 2011 113 077 A1 ist ein Verfahren zur Bestimmung einer Durchfahrbarkeit eines Objekts für ein Fahrzeug mittels einer 3D-Kamera bekannt, wobei mit der 3D-Kamera ein Bild von einer vor dem Fahrzeug liegenden Umgebung aufgenommen wird. Es wird eine Trajektorie ermittelt, auf der sich das Fahrzeug wahrscheinlich bewegen wird und aus Bilddaten der 3D-Kamera wird ermittelt, ob ein über der Trajektorie befindliches Objekt vorliegt und ob dieses eine oder mehrere Verbindung(en) zum Boden aufweist. Daraus wird ermittelt, ob eine Durchfahrt des Objekts möglich ist, wobei Abmessungen und Form einer Eintrittsfläche zwischen Objekt und Fahrbahn aus den Bilddaten ermittelt werden.From the DE 10 2011 113 077 A1 a method for determining whether an object can be driven through by a vehicle by means of a 3D camera is known, with the 3D camera being used to record an image of the surroundings in front of the vehicle. A trajectory is determined on which the vehicle is likely to move, and image data from the 3D camera is used to determine whether there is an object located above the trajectory and whether it has one or more connections to the ground. This is used to determine whether it is possible to drive through the object, the dimensions and shape of an entry area between the object and the roadway being determined from the image data.

Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Bestimmung einer Durchfahrtshöhe anzugeben.The invention is based on the object of specifying a method for determining a clearance height which is improved over the prior art.

Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.

Bei einem erfindungsgemäßen Verfahren zur Bestimmung einer Durchfahrhöhe für ein Fahrzeug mittels einer Kamera wird mit der Kamera ein Bild von einer vor dem Fahrzeug liegenden Umgebung aufgenommen, wobei aus Bilddaten der Kamera ermittelt wird, ob ein Objekt in der Umgebung vorliegt und eine Durchfahrt des Objekts möglich ist. Erfindungsgemäß werden zusätzlich ein als Long-Range-Radar ausgebildeter Radarsensor sowie zwei als Short-Range-Radar ausgebildete Radarsensoren mit unterschiedlichen Positionen und/oder Ausrichtungen am Fahrzeug verwendet, um Objekte in der Umgebung zu erkennen, wobei Sichtbereiche der Radarsensoren und der Kamera einander überlappen, wobei anhand der Daten jedes der Radarsensoren und der Kamera jeweils eine L-Shape-Berechnung vorgenommen wird, bei der neben einem erkannten Reflexionspunkt nach zwei weiteren danebenliegenden Reflexionspunkten gesucht wird, wobei die drei Reflexionspunkte in Relation zueinander und in ein Koordinatensystem gesetzt werden, so dass eine Verbindung dieser drei Punkte mittels Linien ein L-Shape ergibt, wobei ein nächstliegende Punkt zwischen Radarsensor oder Kamera und Objekt als Referenzpunkt definiert und danebenliegende zum gleichen Objekt gehörende Reflexionspunkte virtuell mittels einer Linie verbunden werden, wobei an erkannten Enden des Objekts liegende Reflexionspunkte als linkes Extremum oder rechtes Extremum definiert werden, wobei dann, wenn kein Reflexionspunkt erkannt wird, der eine Tiefe des Objekts erkennen lässt, ein extrapolierter Reflexionspunkt bestimmt wird, wobei die anhand der Daten der Radarsensoren und der Kamera bestimmten L-Shapes miteinander verglichen werden um ein fusioniertes Bild mit fusionierten L-Shapes zu erzeugen, wobei zur Erkennung der Durchfahrthöhe eine Höhe zwischen fusionierten L-Shapes eines als Brücke oder Durchfahrt erkannten Objekts bestimmt wird.In a method according to the invention for determining a clearance height for a vehicle by means of a camera, the camera records an image of the surroundings in front of the vehicle, with image data from the camera being used to determine whether an object is in the surroundings and whether the object is possible is. According to the invention, a radar sensor designed as a long-range radar and two radar sensors designed as short-range radar with different positions and / or orientations on the vehicle are used in order to detect objects in the vicinity, with the fields of view of the radar sensors and the camera overlapping one another , with the data from each of the radar sensors and the camera being used to perform an L-shape calculation in which, in addition to a recognized reflection point, a search is made for two other adjacent reflection points, the three reflection points being set in relation to one another and in a coordinate system, see above that a connection of these three points by means of lines results in an L-shape, whereby a closest point between the radar sensor or camera and object is defined as a reference point and adjacent reflection points belonging to the same object are virtually connected by means of a line, being at recognized ends of the object End reflection points are defined as the left extremum or right extremum, with an extrapolated reflection point being determined if no reflection point is detected that reveals a depth of the object, the L-shapes determined on the basis of the data from the radar sensors and the camera being compared with one another are used to generate a fused image with fused L-shapes, with a height between fused L-shapes of an object recognized as a bridge or a passage being determined in order to identify the passage height.

Fahrzeuge, beispielsweise Nutzfahrzeuge, können mit einem Radar und Kamerasystemen ausgestattet werden. Diese Technik bietet den Grundstein für eine Reihe von neuen innovativen Einsatzmöglichkeiten, welche den Komfort und die Sicherheit von Fahrzeugen wesentlich verbessern können. Dabei wird anstelle der bekannten Punktabtastung der Objekte eine L-Shape Abtastung durchgeführt. Dies hat zur Folge, dass Objekte 3-dimensional erkannt werden. Darüber hinaus erfolgt eine Fusion der optischen Objekt-Daten zusammen mit den Radardaten. Über diese Technik ist eine besonders zuverlässige Erkennung von Objekten möglich. Insbesondere kann mit dieser Technik eine Durchfahrtkontrolle für Fahrzeuge realisiert werden.Vehicles, for example commercial vehicles, can be equipped with a radar and camera systems. This technology provides the foundation for a number of new innovative uses that can significantly improve the comfort and safety of vehicles. Instead of the known point scanning of the objects, an L-shape scanning is carried out. As a result, objects are recognized 3-dimensionally. In addition, the optical object data is merged with the radar data. This technology enables particularly reliable detection of objects. In particular, this technology can be used to implement a passage control for vehicles.

Mittels der erfindungsgemäßen Lösung kann durch sichere Erkennung von möglichen Unfallgefahren die Unfallgefahr reduziert und eine Grundlage für autonomes Fahren geschaffen werden.By means of the solution according to the invention, the risk of accidents can be reduced through reliable detection of possible accident risks and a basis can be created for autonomous driving.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Embodiments of the invention are explained in more detail below with reference to drawings.

Dabei zeigen:

  • 1 eine schematische Ansicht eines Szenarios mit einem Radarsensor eines Fahrzeugs und einer Anzahl von Objekten im Sichtfeld des Radarsensors,
  • 2 schematische Ansichten eines Szenarios mit einem Radarsensor eines Fahrzeugs und einem Objekt im Sichtfeld des Radarsensors zur Verdeutlichung einer L-Shape-Berechnung,
  • 3 schematische Ansichten eines Szenarios mit einem Radarsensor eines Fahrzeugs und einem Objekt im Sichtfeld des Radarsensors zur Verdeutlichung der L-Shape-Berechnung,
  • 4 eine schematische Ansicht eines Szenarios mit einem Radarsensor eines Fahrzeugs und einer Anzahl von Objekten im Sichtfeld des Radarsensors sowie mit erkannten L-Shapes,
  • 5 eine schematische Ansicht eines Fahrzeugs, an dem drei Radarsensoren und eine Kamera angeordnet sind,
  • 6 eine schematische Ansicht einer elektronischen Architektur des Fahrzeugs,
  • 7 eine schematische Ansicht von drei Objekten, von jeweils dazugehörigen L-Shapes, die jeweils anhand der Daten der Radarsensoren und der Kamera zu jedem Objekt ermittelt wurden, sowie durch Sensorfusionierung ermittelter fusionierter L-Shapes, und
  • 8 eine schematische Ansicht der Brücke aus 5, wobei mittels des beschriebenen Verfahrens erkannte L-Shapes dargestellt sind, anhand deren eine Höhe der Durchfahrt bestimmt werden kann.
Show:
  • 1 a schematic view of a scenario with a radar sensor of a vehicle and a number of objects in the field of view of the radar sensor,
  • 2 schematic views of a scenario with a radar sensor of a vehicle and an object in the field of view of the radar sensor to illustrate an L-shape calculation,
  • 3 schematic views of a scenario with a radar sensor of a vehicle and an object in the field of view of the radar sensor to illustrate the L-shape calculation,
  • 4th a schematic view of a scenario with a radar sensor of a vehicle and a number of objects in the field of view of the radar sensor and with recognized L-shapes,
  • 5 a schematic view of a vehicle on which three radar sensors and a camera are arranged,
  • 6th a schematic view of an electronic architecture of the vehicle,
  • 7th a schematic view of three objects, of associated L-shapes, which were each determined on the basis of the data from the radar sensors and the camera for each object, as well as fused L-shapes determined by sensor fusion, and
  • 8th a schematic view of the bridge 5 , L-shapes recognized by means of the described method are shown, based on which a height of the passage can be determined.

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference symbols in all figures.

Immer wieder entstehen Unfälle, deren Ursache darin liegt, dass die Höhe von Durchfahrten und Brücken falsch eingeschätzt wird und Fahrzeuge, beispielsweise LKWs, daran verunfallen.Accidents occur again and again, the cause of which is that the height of passageways and bridges is incorrectly estimated and vehicles, for example trucks, have an accident.

Manchmal vergisst der Fahrer, besonders bei häufigen Fahrzeugwechseln, dass er die Durchfahrtshöhe beachten muss. In manchen Fällen ragt der Aufbau über die eigentliche zulässige Höhenbeschränkung heraus, besonders bei Spezialtransporten.Sometimes the driver forgets, especially when changing vehicles frequently, that he has to pay attention to the clearance height. In some cases the superstructure protrudes beyond the actual permissible height restriction, especially for special transports.

Bekannte Radartechnologie und damit mögliche Objekterkennung basiert auf Einstufung eines sogenannten RCS-Wertes. RCS steht für Radar Cross Section und gibt die Reflektionsstärke einer Radarwelle an. Diese ist abhängig von der elektrischen Leitfähigkeit, Form, Distanz und Material eines Objektes. Durch Klassifizierung des RCS-Wertes wird unterschieden, wie reagiert wird. So wird beispielsweise beim Überschreiten des RCS-Wertes einer festgelegten Grenze eine Bremsung durchgeführt.Known radar technology and thus possible object detection is based on the classification of a so-called RCS value. RCS stands for Radar Cross Section and indicates the reflection strength of a radar wave. This depends on the electrical conductivity, shape, distance and material of an object. Classification of the RCS value distinguishes how it reacts. For example, if the RCS value exceeds a specified limit, braking is carried out.

Bei Unterschreitung des RCS-Wertes wird eine Kamera veranlasst, die festgestellte Situation zu überprüfen und zu bestätigen (Sensorfusion), um was für ein Objekt es sich handelt und erst daraufhin wird eine Reaktion, beispielsweise eine Warnmeldung und/oder eine Bremsung ausgelöst.If the RCS value is not reached, a camera is prompted to check the established situation and to confirm (sensor fusion) what kind of object it is and only then is a reaction triggered, for example a warning message and / or braking.

Darüber hinaus wird das Bewegungsprofil analysiert und klassifiziert und eine Objektklassifizierung vorgenommen, beispielsweise über die Feststellung eines MicroDoppler-Effekts. Auf diese Weise kann festgestellt werden, ob es sich bei dem Objekt um eine Person, ein Fahrzeug oder etwas Anderes handelt.In addition, the movement profile is analyzed and classified and an object classification is carried out, for example by determining a MicroDoppler effect. In this way it can be determined whether the object is a person, a vehicle or something else.

Während sich Distanzen und Geschwindigkeiten von beweglichen Objekten aufgrund von Doppler und Microdoppler-Effekten sehr gut feststellen lassen ist dies bei stehenden Objekten schwer.While distances and speeds of moving objects can be determined very well due to Doppler and Microdoppler effects, this is difficult for stationary objects.

Es ist es daher mit der bekannten Technik möglich, festzustellen, wo sich Objekte mit einem bestimmten RCS-Wert ungefähr befinden. Eine Distanzmessung der Objekte selbst oder eine Distanzmessung der Objekte zueinander ist jedoch in zuverlässiger Form bisher nicht möglich. Folge ist, dass eine zweifelsfreie Erkennung von Brücken und Durchfahrten, also eine Höhenkontrolle oder auch Weitenkontrolle, bislang nicht möglich ist.It is therefore possible with the known technique to determine approximately where objects with a certain RCS value are located. However, a distance measurement of the objects themselves or a distance measurement of the objects to one another has not been possible so far in a reliable manner. The result is that an unequivocal detection of bridges and passages, i.e. a height control or a distance control, has not been possible so far.

1 ist eine schematische Ansicht eines Szenarios mit einem Radarsensor 1 eines Fahrzeugs und einer Anzahl von Objekten 2.1 bis 2.6 im Sichtfeld des Radarsensors 1. Der Radarsensor 1 erkennt Reflexionspunkte 3 an einigen der Objekte 2.1 bis 2.6. Das Objekt 2.4 ist vom Objekt 2.3 verdeckt und für den Radarsensor 1 nicht sichtbar und erhält daher beispielsweise den RCS-Wert 1. Das Objekt 2.2 ist für den Radarsensor 1 mit drei Reflexionspunkten 3 sichtbar und erhält beispielsweise den RCS-Wert 2. Die Objekte 2.1 und 2.6 sind beispielsweise Begrenzungen, insbesondere Leitplanken. 1 Figure 3 is a schematic view of a scenario with a radar sensor 1 a vehicle and a number of objects 2.1 to 2.6 in the field of view of the radar sensor 1 . The radar sensor 1 recognizes reflection points 3 on some of the objects 2.1 to 2.6 . The object 2.4 is from the object 2.3 concealed and for the radar sensor 1 not visible and therefore receives the RCS value, for example 1 . The object 2.2 is for the radar sensor 1 with three reflection points 3 visible and receives, for example, the RCS value 2. The objects 2.1 and 2.6 are, for example, boundaries, especially guard rails.

Durch die limitierte Abtastgenauigkeit und Begrenzung der Anzahl von stehenden Objekten 2.1 bis 2.6 können diese zwar identifiziert und ihre ungefähre Position bestimmt werden. Eine exakte Distanzmessung der Objekte 2.1 bis 2.6 zueinander ist jedoch nicht möglich.Due to the limited scanning accuracy and limitation of the number of stationary objects 2.1 to 2.6 these can be identified and their approximate position determined. An exact distance measurement of the objects 2.1 to 2.6 each other is not possible.

Durch den Einsatz von verbesserten Sensoren mit feinerer Abtastung kombiniert mit einer verbesserten Objekterkennung durch mehrere Sensoren, beispielsweise drei Radarsensoren 1 mit unterschiedlichen Positionen am Fahrzeug und einer hochauflösenden Kamera, sowie einer beispielsweise um das fünfzehnfache erhöhten Rechenleistung, wird dieses Problem gelöst und eröffnet damit neue Anwendungsmöglichkeiten.Through the use of improved sensors with finer scanning combined with improved object recognition through several sensors, for example three radar sensors 1 With different positions on the vehicle and a high-resolution camera, as well as computing power increased by, for example, fifteen times, this problem is solved and thus opens up new application possibilities.

Einer der Radarsensoren 1 ist als ein Long-Range-Radar ausgebildet, beispielsweise mit einem Messbereich bis etwa 250m. Die Sichtweite der Kamera kann je nach Lichtverhältnissen bis zu 180m betragen. Zwei weitere der Radarsensoren sind jeweils als ein Short-Range-Radar ausgebildet, beispielsweise mit einem Messbereich bis etwa 85m.One of the radar sensors 1 is designed as a long-range radar, for example with a measuring range of up to about 250m. The range of vision of the camera can be up to 180m depending on the lighting conditions. Two more of the radar sensors are each designed as a short-range radar, for example with a measuring range of up to about 85 m.

Damit werden eine höhere Sichtweite, eine bessere Objekterkennung durch höhere Abtastgenauigkeit und verbesserte Auflösung der Kamera und ein größerer Erfassungswinkel erreicht. Somit kann eine höhere Anzahl an Objekten erkannt und verfolgt werden. Durch die zwei zusätzlichen als Short-Range-Radar ausgebildeten Radarsensoren, insbesondere mit extrem feiner Abtastung und überlagernden Messbereich, kann eine zusätzliche Objektprüfung und -bestätigung (Sensorfusion) erfolgen. Somit werden eine verbesserte Kantenerkennung und damit die Distanzmessung durch den Einsatz der L-Shape-Technologie erreicht.This results in a greater range of vision, better object recognition through higher scanning accuracy and improved camera resolution, and a larger angle of detection. This means that a higher number of objects can be recognized and tracked. The two additional radar sensors designed as short-range radar, In particular with extremely fine scanning and overlapping measuring range, an additional object inspection and confirmation (sensor fusion) can be carried out. Thus, improved edge detection and thus distance measurement are achieved through the use of L-shape technology.

2 zeigt schematische Ansichten eines Szenarios mit einem Radarsensor 1 eines Fahrzeugs und einem Objekt 2.1 im Sichtfeld des Radarsensors 1 zur Verdeutlichung der L-Shape-Berechnung. 2 shows schematic views of a scenario with a radar sensor 1 a vehicle and an object 2.1 in the field of view of the radar sensor 1 to clarify the L-shape calculation.

Die L-Shape-Berechnung bei der Radarerfassung hilft hier insbesondere eine verbessere Distanzmessung zu realisieren. Bei der L-Shape-Berechnung wird stets nach zwei weiteren Reflexionspunkten 3 neben einem erkannten Reflexionspunkt 3 gesucht. Anschließend wird versucht, die drei Punkte in Relation zu setzen und in ein Koordinatensystem zu setzen. Die Verbindung dieser drei Punkte mittels Linien ergibt die Form eines L. Insbesondere wird so vorgegangen, dass der nächstliegende Punkt zwischen Radarsensor 1 und Objekt 2.1 genutzt und als Referenzpunkt 3Ref definiert wird. Dann wird überprüft, ob nebenliegende Reflexionspunkte 3 zum Objekt 2.1 gehören und diese virtuell mittels einer Linie verbunden sind. Es wird überprüft, ob eine Beziehung zwischen diesen Reflexionspunkten 3 besteht. Endet das Objekt 2.1, dann wird der Reflexionspunkt 3 davor als linkes Extremum 3L bzw. rechtes Extremum 3R definiert. Sollten die drei Reflexionspunkte 3 nicht exakt auf einer Linie liegen, kann eine Kante bestimmt werden auf welche der Knick des L gelegt wird.The L-shape calculation for radar detection helps in particular to achieve improved distance measurement. The L-shape calculation always looks for two further reflection points 3 next to a recognized reflection point 3 searched. Then an attempt is made to relate the three points and put them in a coordinate system. The connection of these three points with lines results in the shape of an L. In particular, the procedure is that the closest point between the radar sensor 1 and object 2.1 and used as a reference point 3 Ref is defined. It is then checked whether there are adjacent reflection points 3 to the object 2.1 and these are virtually connected by a line. It is checked whether there is a relationship between these reflection points 3 consists. Ends the object 2.1 , then becomes the reflection point 3 before that as the left extremum 3L or right extremum 3R Are defined. Should be the three points of reflection 3 are not exactly on one line, an edge can be determined on which the kink of the L is placed.

3 zeigt schematische Ansichten eines Szenarios mit einem Radarsensor 1 eines Fahrzeugs und einem Objekt 2.1 im Sichtfeld des Radarsensors 1 zur Verdeutlichung der L -Shape-Berechnung. 3 shows schematic views of a scenario with a radar sensor 1 a vehicle and an object 2.1 in the field of view of the radar sensor 1 to clarify the L-shape calculation.

Wird kein Reflexionspunkt 3 erkannt, der die Tiefe des Objekts 2.1 erkennen lässt, so wird ein Reflexionspunkt 3Le oder 3Re extrapoliert. Die Distanz dazu beträgt beispielsweise 0,3m. Sollte also, was in der Praxis nicht vorkommt, lediglich ein einzelner Reflexionspunkt 3 sichtbar sein, so hat das extrapolierte L eine Schenkellänge von jeweils 0,3m.Will not be a reflection point 3 recognized the depth of the object 2.1 can be seen, it becomes a point of reflection 3L e or 3R e extrapolated. The distance to this is 0.3 m, for example. So should, which does not happen in practice, just a single point of reflection 3 be visible, the extrapolated L has a leg length of 0.3 m.

In dem in 1 gezeigten Szenario werden daher L-Shapes 4 ermittelt wie in 3 dargestellt. 4 ist eine schematische Ansicht eines Szenarios mit einem Radarsensor 1 eines Fahrzeugs und einer Anzahl von Objekten 2.1 bis 2.6 im Sichtfeld des Radarsensors 1 sowie mit erkannten L-Shapes 4.In the in 1 The scenario shown are therefore L-shapes 4th determined as in 3 shown. 4th Figure 3 is a schematic view of a scenario with a radar sensor 1 a vehicle and a number of objects 2.1 to 2.6 in the field of view of the radar sensor 1 as well as recognized L-shapes 4th .

Mithilfe des L-Shape-Algorithmus kann die Breite und Höhe eines Objekts 2.1 bis 2.6 und je nach Position auch seine Tiefe wesentlich genauer festgestellt werden.Using the L-shape algorithm, the width and height of an object 2.1 to 2.6 and depending on the position, its depth can also be determined much more precisely.

Entsprechend kann auf diese Weise kann auch die Distanz der Objekte 2.1 bis 2.6 untereinander festgestellt werden.In this way, the distance between the objects can also be adjusted accordingly 2.1 to 2.6 can be established among each other.

5 ist eine schematische Ansicht eines Fahrzeugs 5, insbesondere eines Nutzfahrzeugs, an dem drei Radarsensoren 1, 1.2, 1.3 und eine Kamera 6 angeordnet sind, wobei der Radarsensor 1 als ein Long-Range-Radar ausgebildet ist, das einen Sichtbereich LRR abdeckt und wobei die Radarsensoren 1, 1.3 als Short-Range-Radar ausgebildet sind, die jeweils einen Sichtbereich SRR abdecken. Die Kamera 6 deckt einen Sichtbereich MPC ab. Vor dem Fahrzeug 5 in Fahrtrichtung befindet sich eine Brücke 11 mit einer Kante 12. Da am Fahrzeug nicht nur ein Radarsensor 1 sondern drei Radarsensoren 1, 1.2, 1.3 eingesetzt werden, die unterschiedlich positioniert und/oder ausgerichtet sind, verbessert sich die Dimensions- und Distanzerkennung erheblich. Darüber erkennt die Kamera 6 die Kanten von Objekten 2.1 bis 2.6 und führt darüber ebenfalls mittels der L-Shape-Berechnung eine Distanzmessung durch. 5 Fig. 3 is a schematic view of a vehicle 5 , in particular a commercial vehicle, on which three radar sensors 1 , 1.2 , 1.3 and a camera 6th are arranged, the radar sensor 1 is designed as a long-range radar that has a field of view LRR covering and being the radar sensors 1 , 1.3 are designed as short-range radar, each with a field of view SRR cover. The camera 6th covers a viewing area MPC from. In front of the vehicle 5 There is a bridge in the direction of travel 11 with an edge 12 . Not just a radar sensor on the vehicle 1 but three radar sensors 1 , 1.2 , 1.3 are used, which are positioned and / or aligned differently, the dimension and distance detection improves considerably. The camera recognizes this 6th the edges of objects 2.1 to 2.6 and also carries out a distance measurement using the L-shape calculation.

Somit werden von drei Radarsensoren 1, 1.2, 1.3, dem Long-Range-Radar und den beiden Short-Range-Radaren, sowie der Kamera 6 mit überdeckenden Sichtbereichen Daten geliefert.Thus, three radar sensors 1 , 1.2 , 1.3 , the long-range radar and the two short-range radars, as well as the camera 6th data supplied with overlapping viewing areas.

6 ist eine schematische Ansicht einer elektronischen Architektur des Fahrzeugs 5, umfassend die Radarsensoren 1, 1.2 und die Kamera 6, eine Video-Radar-Entscheidungs-Einheit 7, ein zentrales Gateway 8, einen Instrument Cluster 9 zur visuellen und akustischen Warnung eines Fahrers sowie eine Steuereinheit 10 des Fahrzeugs 5, die Warnungen an andere Verkehrsteilnehmer ausgeben kann, beispielsweise über eine Warnblinkanlage oder eine Hupe. 6th Figure 3 is a schematic view of an electronic architecture of the vehicle 5 , including the radar sensors 1 , 1.2 and the camera 6th , a video radar decision-making unit 7th , a central gateway 8th , an instrument cluster 9 for visual and acoustic warning of a driver as well as a control unit 10 of the vehicle 5 that can issue warnings to other road users, for example via a hazard warning light system or a horn.

Eine Video-Radar-Entscheidungs-Einheit 7 sammelt die Daten der Sensoren, das heißt der drei Radarsensoren 1, 1.2, 1.3 und der Kamera 6, und vergleicht sie miteinander. Werden von einem Sensor extrapolierte Punkte geliefert, so werden diese mit den Daten eines anderen Sensors verglichen und entsprechend niedriger priorisiert. Auf diese Weise wird aus den gelieferten Daten ein fusioniertes Bild erzeugt. 7 ist eine schematische Ansicht von drei Objekten 2.1 bis 2.3, von jeweils dazugehörigen L-Shapes 4L, 4S und 4M, die jeweils anhand der Daten der Radarsensoren 1, 1.2 und der Kamera 6 zu jedem Objekt 2.1 bis 2.3 ermittelt wurden sowie durch die Sensorfusionierung ermittelter fusionierter L-Shapes 4F. Bei dem in 7 gezeigten Objekt 2.1 würden beispielsweise die Daten des als Short-Range-Radar ausgebildeten Radarsensors 1 verwendet, da dieser mehr zusammenhängende Reflektionen erkennt, während die Kamera 6 und der als Long-Range-Radar ausgebildete Radarsensor 1 im rechten Teil des Objekts 2.1 nur extrapolierte Daten liefern. Bei den Objekten 2.2 und 2.3 ist es umgekehrt.A video radar decision-making unit 7th collects the data from the sensors, i.e. the three radar sensors 1 , 1.2 , 1.3 and the camera 6th , and compare them with each other. If extrapolated points are supplied by a sensor, they are compared with the data from another sensor and prioritized accordingly. In this way, a merged image is generated from the data supplied. 7th is a schematic view of three objects 2.1 to 2.3 , of the corresponding L-shapes 4L , 4S and 4M based on the data from the radar sensors 1 , 1.2 and the camera 6th to every object 2.1 to 2.3 as well as fused L-shapes determined by the sensor fusion 4F . The in 7th shown object 2.1 For example, the data from the radar sensor designed as a short-range radar would be 1 used because this detects more coherent reflections while the camera is 6th and the radar sensor designed as a long-range radar 1 in the right part of the Object 2.1 only provide extrapolated data. With the objects 2.2 and 2.3 it is the other way around.

Die höhere Abtastleistung, die höhere Anzahl an Sensoren, die erhöhte Anzahl der zu verfolgenden Objekte 2.1 bis 2.6, die Sensorfusion als Ergebnis von vier unterschiedlichen Messsensoren als auch die Anwendung der beschriebenen L-Shape-Berechnung ermöglicht eine verbesserte Höhen- und Breitenkontrolle von Durchfahrten zur akustischen und/oder optischen Warnung des Fahrers.The higher scanning performance, the higher number of sensors, the increased number of objects to be tracked 2.1 to 2.6 , the sensor fusion as a result of four different measuring sensors as well as the application of the described L-shape calculation enables an improved height and width control of passages for acoustic and / or optical warning of the driver.

In einer Ausführungsform kann ein aktiver Eingriff, beispielsweise Bremsen, vorgesehen sein, wenn eine zu geringe Höhe und/oder breite Höhe erkannt wurde.In one embodiment, active intervention, for example braking, can be provided if a height that is too low and / or too wide has been detected.

8 ist eine schematische Ansicht der Brücke 11 aus 5, wobei mittels des beschriebenen Verfahrens erkannte L-Shapes 4 dargestellt sind, anhand deren eine Höhe h der Durchfahrt bestimmt werden kann. 8th is a schematic view of the bridge 11 out 5 , L-shapes recognized by means of the method described 4th are shown, based on which a height H the passage can be determined.

In einer Ausführungsform ist ein Abgleich mit einer Verkehrszeichenerkennung möglich, sofern diese beispielsweise eine Baustellensituation oder eine markierte Situation (insbesondere beschränkte Durchfahrtshöhe) anzeigt.In one embodiment, a comparison with a traffic sign recognition is possible, provided that this indicates, for example, a construction site situation or a marked situation (in particular restricted clearance height).

BezugszeichenlisteList of reference symbols

11
RadarsensorRadar sensor
1.1 bis 1.31.1 to 1.3
RadarsensorRadar sensor
2.1 bis 2.62.1 to 2.6
Objektobject
33
ReflexionspunktReflection point
3L3L
linkes Extremumleft extremum
3Le 3L e
extrapolierter Reflexionspunkt, extrapoliertes linkes Extremumextrapolated reflection point, extrapolated left extremum
3R3R
rechtes Extremumright extremum
3Ref 3 Ref
ReferenzpunktReference point
44th
L-ShapeL-shape
4F4F
fusioniertes L-Shapefused L-shape
4L, 4M, 4S4L, 4M, 4S
L-ShapeL-shape
55
Fahrzeugvehicle
66th
Kameracamera
77th
Video-Radar-Entscheidungs-EinheitVideo radar decision unit
88th
zentrales Gatewaycentral gateway
99
Instrument ClusterInstrument cluster
1010
SteuereinheitControl unit
1111
Brückebridge
1212
KanteEdge
hH
Höheheight
LRRLRR
SichtbereichViewing area
MPCMPC
SichtbereichViewing area
SRRSRR
SichtbereichViewing area

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102011113077 A1 [0002]DE 102011113077 A1 [0002]

Claims (7)

Verfahren zur Bestimmung einer Durchfahrhöhe für ein Fahrzeug (5) mittels einer Kamera (6), wobei mit der Kamera (6) ein Bild von einer vor dem Fahrzeug liegenden Umgebung aufgenommen wird, wobei aus Bilddaten der Kamera (6) ermittelt wird, ob ein Objekt (2.1 bis 2.6) in der Umgebung vorliegt und eine Durchfahrt des Objekts (2.1 bis 2.6) möglich ist, dadurch gekennzeichnet, dass zusätzlich ein als Long-Range-Radar ausgebildeter Radarsensor (1.1) sowie zwei als Short-Range-Radar ausgebildete Radarsensoren (1.2, 1.3) mit unterschiedlichen Positionen und/oder Ausrichtungen am Fahrzeug (5) verwendet werden, um Objekte (2.1 bis 2.6) in der Umgebung zu erkennen, wobei Sichtbereiche (LRR, MPC, SRR) der Radarsensoren (1.1 bis 1.3) und der Kamera (6) einander überlappen, wobei anhand der Daten jedes der Radarsensoren (1.1 bis 1.3) und der Kamera (6) jeweils eine L-Shape-Berechnung vorgenommen wird, bei der neben einem erkannten Reflexionspunkt (3) nach zwei weiteren danebenliegenden Reflexionspunkten (3) gesucht wird, wobei die drei Reflexionspunkte (3) in Relation zueinander und in ein Koordinatensystem gesetzt werden, so dass eine Verbindung dieser drei Punkte mittels Linien ein L-Shape (4) ergibt, wobei ein nächstliegender Punkt zwischen Radarsensor (1.1 bis 1.3) oder Kamera (6) und Objekt (2.1 bis 2.6) als Referenzpunkt (3Ref) definiert und danebenliegende zum gleichen Objekt (2.1) gehörende Reflexionspunkte (3) virtuell mittels einer Linie verbunden werden, wobei an erkannten Enden des Objekts (2.1 bis 2.6) liegende Reflexionspunkte (3) als linkes Extremum (3L) oder rechtes Extremum (3R) definiert werden, wobei dann, wenn kein Reflexionspunkt (3) erkannt wird, der eine Tiefe des Objekts (2.1 bis 2.6) erkennen lässt, ein extrapolierter Reflexionspunkt (3Le, 3Re) bestimmt wird, wobei die anhand der Daten der Radarsensoren (1.1 bis 1.3) und der Kamera (6) bestimmten L-Shapes (4) miteinander verglichen werden um ein fusioniertes Bild mit fusionierten L-Shapes (4F) zu erzeugen, wobei zur Erkennung der Durchfahrthöhe eine Höhe (h) zwischen fusionierten L-Shapes (4F) eines als Brücke (11) oder Durchfahrt erkannten Objekts (2.1 bis 2.6) bestimmt wird.Method for determining a clearance height for a vehicle (5) by means of a camera (6), the camera (6) taking an image of the surroundings in front of the vehicle, with image data from the camera (6) being used to determine whether a Object (2.1 to 2.6) is in the vicinity and it is possible to drive through the object (2.1 to 2.6), characterized in that, in addition, a radar sensor (1.1) designed as a long-range radar and two radar sensors designed as short-range radar (1.2, 1.3) can be used with different positions and / or orientations on the vehicle (5) in order to detect objects (2.1 to 2.6) in the environment, with areas of view (LRR, MPC, SRR) of the radar sensors (1.1 to 1.3) and of the camera (6) overlap each other, with the data from each of the radar sensors (1.1 to 1.3) and the camera (6) being used to make an L-shape calculation in which, in addition to a recognized reflection point (3), after two other adjacent reflection points (3) is sought, the three reflection points (3) being set in relation to each other and in a coordinate system so that a connection of these three points by means of lines results in an L-shape (4), with a closest point between the radar sensor (1.1 to 1.3) or camera (6) and object (2.1 to 2.6) are defined as reference point (3 Ref ) and adjacent reflection points (3) belonging to the same object (2.1) are virtually connected by means of a line, with recognized ends of the object (2.1 to 2.6) lying reflection points (3) can be defined as left extremum (3L) or right extremum (3R), whereby if no reflection point (3) is recognized that shows a depth of the object (2.1 to 2.6), an extrapolated one Reflection point (3L e , 3R e ) is determined, the L-shapes (4) determined on the basis of the data from the radar sensors (1.1 to 1.3) and the camera (6) being compared with one another to form a fused image with fused L-shapes (4F ) to generate, with a height (h) between fused L-shapes (4F) of an object (2.1 to 2.6) recognized as a bridge (11) or passage being determined to detect the passage height. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass dann, wenn die drei Reflexionspunkte (3) nicht exakt auf einer Linie liegen, eine Kante bestimmt wird, auf welche ein Knick des L-Shape (4) gelegt wird.Procedure according to Claim 1 , characterized in that when the three reflection points (3) do not lie exactly on one line, an edge is determined on which a kink of the L-shape (4) is placed. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass auf gleiche Weise eine Durchfahrbreite bestimmt wird.Procedure according to Claim 1 or 2 , characterized in that a drive-through width is determined in the same way. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei einer für das Fahrzeug (5) zu geringen erkannten Durchfahrhöhe und/oder Durchfahrbreite eine akustische und/oder optische Warnung ausgegeben wird.Method according to one of the preceding claims, characterized in that an acoustic and / or visual warning is output if the passage height and / or passage width detected is too low for the vehicle (5). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei einer für das Fahrzeug (5) zu geringen erkannten Durchfahrhöhe und/oder Durchfahrbreite ein aktiver Fahreingriff erfolgt.Method according to one of the preceding claims, characterized in that if the passage height and / or passage width detected are too low for the vehicle (5), an active driving intervention takes place. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zusätzlich ein Abgleich mit einer Verkehrszeichenerkennung erfolgt.Method according to one of the preceding claims, characterized in that a comparison with a traffic sign recognition also takes place. Fahrzeug (5), umfassend eine elektronische Architektur, umfassend eine Kamera (6), ein zentrales Gateway (8), einen Instrument Cluster (9) zur visuellen und akustischen Warnung eines Fahrers sowie eine Steuereinheit (10) des Fahrzeugs (5), die zur Ausgabe von Warnungen an andere Verkehrsteilnehmer ausgebildet ist, dadurch gekennzeichnet, dass zusätzlich ein als Long-Range-Radar ausgebildeter Radarsensor (1.1) sowie zwei als Short-Range-Radar ausgebildete Radarsensoren (1.2, 1.3) mit unterschiedlichen Positionen und/oder Ausrichtungen am Fahrzeug (5) angeordnet sind, wobei Sichtbereiche (LRR, MPC, SRR) der Radarsensoren (1.1 bis 1.3) und der Kamera (6) einander überlappen, wobei ferner eine Video-Radar-Entscheidungs-Einheit (7) vorgesehen ist, die zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche konfiguriert ist.Vehicle (5), comprising an electronic architecture, comprising a camera (6), a central gateway (8), an instrument cluster (9) for the visual and acoustic warning of a driver and a control unit (10) of the vehicle (5), which is designed to issue warnings to other road users, characterized in that, in addition, a long-range radar designed as a radar sensor (1.1) and two short-range radar designed radar sensors (1.2, 1.3) with different positions and / or orientations on Vehicle (5) are arranged, with fields of view (LRR, MPC, SRR) of the radar sensors (1.1 to 1.3) and the camera (6) overlap each other, with a video radar decision unit (7) also being provided which is used for Implementation of the method according to one of the preceding claims is configured.
DE102020007057.4A 2020-11-19 2020-11-19 Vehicle and method for determining a headroom Pending DE102020007057A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020007057.4A DE102020007057A1 (en) 2020-11-19 2020-11-19 Vehicle and method for determining a headroom

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020007057.4A DE102020007057A1 (en) 2020-11-19 2020-11-19 Vehicle and method for determining a headroom

Publications (1)

Publication Number Publication Date
DE102020007057A1 true DE102020007057A1 (en) 2021-01-14

Family

ID=74091974

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020007057.4A Pending DE102020007057A1 (en) 2020-11-19 2020-11-19 Vehicle and method for determining a headroom

Country Status (1)

Country Link
DE (1) DE102020007057A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022179669A1 (en) * 2021-02-24 2022-09-01 Continental Autonomous Mobility Germany GmbH Method and device for the detection and determination of the height of objects
US11840241B1 (en) 2022-07-18 2023-12-12 Ford Global Technologies, Llc Adjusting driver assist technology based on vehicle ride height

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022179669A1 (en) * 2021-02-24 2022-09-01 Continental Autonomous Mobility Germany GmbH Method and device for the detection and determination of the height of objects
US11840241B1 (en) 2022-07-18 2023-12-12 Ford Global Technologies, Llc Adjusting driver assist technology based on vehicle ride height

Similar Documents

Publication Publication Date Title
DE102009006113B4 (en) Device and method for sensor fusion with dynamic objects
EP2464992B1 (en) Collision monitoring for vehicle
DE102011018159A1 (en) Device and method for driver assistance
WO2003015053A1 (en) Method for determining a model travel path
EP3488607B1 (en) Camera device for recording an environmental area of a vehicle, and method for providing a driver assistance function
DE102018122374A1 (en) Method for determining a free space surrounding a motor vehicle, computer program product, free space determination device and motor vehicle
DE102020007057A1 (en) Vehicle and method for determining a headroom
DE102018217746A1 (en) Method for operating a driver assistance system of a motor vehicle and motor vehicle
DE102007025147B4 (en) Lane departure warning and / or lane departure warning system
DE102013214632A1 (en) Efficient provision of occupancy information for the environment of a vehicle
DE102018209959A1 (en) Method and driver assistance system for avoiding a collision of a vehicle with an obstacle
DE10140802A1 (en) Management of motor vehicles
WO2015010902A1 (en) Efficiently providing occupancy information on the surroundings of a vehicle
DE102017007958A1 (en) Driver assistance system for a vehicle and vehicle with such a driver assistance system
DE102015119658A1 (en) Method for detecting an environmental region of a motor vehicle with object classification, control device, driver assistance system and motor vehicle
DE102017205245A1 (en) Free range fusion for driver assistance systems
EP3109663A1 (en) Method for operating a driver assistance system of a motor vehicle and motor vehicle
DE102018121158A1 (en) Ground sensing point method and driver support system configured to perform such a method
WO2021156269A1 (en) Sensor system for a vehicle for monitoring a horizontal monitoring area of at least 180°
DE102021001176A1 (en) Method for the detection of an impending head-on collision between two vehicles
DE102017105721A1 (en) Method for identifying at least one parking space for a vehicle and parking assistance system of a vehicle
DE102016119592A1 (en) Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle
DE102021003432A1 (en) Method for displaying information from the surroundings of a vehicle and vehicle
DE102020001532A1 (en) Method for reducing incorrect detection of objects in the vicinity of a vehicle, device for carrying out such a method, and vehicle with such a device
WO2021104805A1 (en) Method for operating a surroundings sensing device with grid-based evaluation and with fusion, and surroundings sensing device

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: DAIMLER TRUCK AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE