DE102020007057A1 - Vehicle and method for determining a headroom - Google Patents
Vehicle and method for determining a headroom Download PDFInfo
- Publication number
- DE102020007057A1 DE102020007057A1 DE102020007057.4A DE102020007057A DE102020007057A1 DE 102020007057 A1 DE102020007057 A1 DE 102020007057A1 DE 102020007057 A DE102020007057 A DE 102020007057A DE 102020007057 A1 DE102020007057 A1 DE 102020007057A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- radar
- vehicle
- determined
- height
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Bestimmung einer Durchfahrhöhe für ein Fahrzeug (5) mittels einer Kamera (6), wobei mit der Kamera (6) ein Bild von einer vor dem Fahrzeug liegenden Umgebung aufgenommen wird, wobei aus Bilddaten der Kamera (6) ermittelt wird, ob ein Objekt (2.1 bis 2.6) in der Umgebung vorliegt und eine Durchfahrt des Objekts (2.1 bis 2.6) möglich ist, wobei zusätzlich ein Long-Range-Radar sowie zwei Short-Range-Radars mit unterschiedlichen Positionen und/oder Ausrichtungen am Fahrzeug (5) verwendet werden, um Objekte (2.1 bis 2.6) in der Umgebung zu erkennen, wobei Sichtbereiche (LRR, MPC, SRR) der Radarsensoren (1.1 bis 1.3) und der Kamera (6) einander überlappen, wobei anhand der Daten jedes der Radarsensoren (1.1 bis 1.3) und der Kamera (6) jeweils eine L-Shape-Berechnung vorgenommen wird, bei der neben einem erkannten Reflexionspunkt (3) nach zwei weiteren danebenliegenden Reflexionspunkten (3) gesucht wird, wobei die anhand der Daten der Radarsensoren (1.1 bis 1.3) und der Kamera (6) bestimmten L-Shapes (4) miteinander verglichen werden um ein fusioniertes Bild mit fusionierten L-Shapes (4F) zu erzeugen, wobei zur Erkennung der Durchfahrthöhe eine Höhe (h) zwischen fusionierten L-Shapes (4F) eines als Brücke (11) oder Durchfahrt erkannten Objekts (2.1 bis 2.6) bestimmt wird.The invention relates to a method for determining a drive-through height for a vehicle (5) by means of a camera (6), the camera (6) recording an image of the surroundings in front of the vehicle, the camera (6) determining from image data whether there is an object (2.1 to 2.6) in the vicinity and it is possible to drive through the object (2.1 to 2.6), with a long-range radar and two short-range radars with different positions and / or orientations on the Vehicle (5) can be used to detect objects (2.1 to 2.6) in the environment, with fields of view (LRR, MPC, SRR) of the radar sensors (1.1 to 1.3) and the camera (6) overlapping each other of the radar sensors (1.1 to 1.3) and the camera (6) an L-shape calculation is carried out in which, in addition to a recognized reflection point (3), a search is made for two other adjacent reflection points (3), the data from the radar sensors (1. 1 to 1.3) and the L-Shapes (4) determined by the camera (6) are compared with one another in order to generate a fused image with fused L-Shapes (4F), with a height (h) between fused L-Shapes to identify the passage height (4F) of an object (2.1 to 2.6) recognized as a bridge (11) or passage is determined.
Description
Die Erfindung betrifft ein Verfahren zur Bestimmung einer Durchfahrtshöhe gemäß Anspruch 1 sowie ein Fahrzeug, in dem das Verfahren implementiert ist, gemäß Anspruch 7.The invention relates to a method for determining a clearance height according to
Aus der
Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Bestimmung einer Durchfahrtshöhe anzugeben.The invention is based on the object of specifying a method for determining a clearance height which is improved over the prior art.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.
Bei einem erfindungsgemäßen Verfahren zur Bestimmung einer Durchfahrhöhe für ein Fahrzeug mittels einer Kamera wird mit der Kamera ein Bild von einer vor dem Fahrzeug liegenden Umgebung aufgenommen, wobei aus Bilddaten der Kamera ermittelt wird, ob ein Objekt in der Umgebung vorliegt und eine Durchfahrt des Objekts möglich ist. Erfindungsgemäß werden zusätzlich ein als Long-Range-Radar ausgebildeter Radarsensor sowie zwei als Short-Range-Radar ausgebildete Radarsensoren mit unterschiedlichen Positionen und/oder Ausrichtungen am Fahrzeug verwendet, um Objekte in der Umgebung zu erkennen, wobei Sichtbereiche der Radarsensoren und der Kamera einander überlappen, wobei anhand der Daten jedes der Radarsensoren und der Kamera jeweils eine L-Shape-Berechnung vorgenommen wird, bei der neben einem erkannten Reflexionspunkt nach zwei weiteren danebenliegenden Reflexionspunkten gesucht wird, wobei die drei Reflexionspunkte in Relation zueinander und in ein Koordinatensystem gesetzt werden, so dass eine Verbindung dieser drei Punkte mittels Linien ein L-Shape ergibt, wobei ein nächstliegende Punkt zwischen Radarsensor oder Kamera und Objekt als Referenzpunkt definiert und danebenliegende zum gleichen Objekt gehörende Reflexionspunkte virtuell mittels einer Linie verbunden werden, wobei an erkannten Enden des Objekts liegende Reflexionspunkte als linkes Extremum oder rechtes Extremum definiert werden, wobei dann, wenn kein Reflexionspunkt erkannt wird, der eine Tiefe des Objekts erkennen lässt, ein extrapolierter Reflexionspunkt bestimmt wird, wobei die anhand der Daten der Radarsensoren und der Kamera bestimmten L-Shapes miteinander verglichen werden um ein fusioniertes Bild mit fusionierten L-Shapes zu erzeugen, wobei zur Erkennung der Durchfahrthöhe eine Höhe zwischen fusionierten L-Shapes eines als Brücke oder Durchfahrt erkannten Objekts bestimmt wird.In a method according to the invention for determining a clearance height for a vehicle by means of a camera, the camera records an image of the surroundings in front of the vehicle, with image data from the camera being used to determine whether an object is in the surroundings and whether the object is possible is. According to the invention, a radar sensor designed as a long-range radar and two radar sensors designed as short-range radar with different positions and / or orientations on the vehicle are used in order to detect objects in the vicinity, with the fields of view of the radar sensors and the camera overlapping one another , with the data from each of the radar sensors and the camera being used to perform an L-shape calculation in which, in addition to a recognized reflection point, a search is made for two other adjacent reflection points, the three reflection points being set in relation to one another and in a coordinate system, see above that a connection of these three points by means of lines results in an L-shape, whereby a closest point between the radar sensor or camera and object is defined as a reference point and adjacent reflection points belonging to the same object are virtually connected by means of a line, being at recognized ends of the object End reflection points are defined as the left extremum or right extremum, with an extrapolated reflection point being determined if no reflection point is detected that reveals a depth of the object, the L-shapes determined on the basis of the data from the radar sensors and the camera being compared with one another are used to generate a fused image with fused L-shapes, with a height between fused L-shapes of an object recognized as a bridge or a passage being determined in order to identify the passage height.
Fahrzeuge, beispielsweise Nutzfahrzeuge, können mit einem Radar und Kamerasystemen ausgestattet werden. Diese Technik bietet den Grundstein für eine Reihe von neuen innovativen Einsatzmöglichkeiten, welche den Komfort und die Sicherheit von Fahrzeugen wesentlich verbessern können. Dabei wird anstelle der bekannten Punktabtastung der Objekte eine L-Shape Abtastung durchgeführt. Dies hat zur Folge, dass Objekte 3-dimensional erkannt werden. Darüber hinaus erfolgt eine Fusion der optischen Objekt-Daten zusammen mit den Radardaten. Über diese Technik ist eine besonders zuverlässige Erkennung von Objekten möglich. Insbesondere kann mit dieser Technik eine Durchfahrtkontrolle für Fahrzeuge realisiert werden.Vehicles, for example commercial vehicles, can be equipped with a radar and camera systems. This technology provides the foundation for a number of new innovative uses that can significantly improve the comfort and safety of vehicles. Instead of the known point scanning of the objects, an L-shape scanning is carried out. As a result, objects are recognized 3-dimensionally. In addition, the optical object data is merged with the radar data. This technology enables particularly reliable detection of objects. In particular, this technology can be used to implement a passage control for vehicles.
Mittels der erfindungsgemäßen Lösung kann durch sichere Erkennung von möglichen Unfallgefahren die Unfallgefahr reduziert und eine Grundlage für autonomes Fahren geschaffen werden.By means of the solution according to the invention, the risk of accidents can be reduced through reliable detection of possible accident risks and a basis can be created for autonomous driving.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Embodiments of the invention are explained in more detail below with reference to drawings.
Dabei zeigen:
-
1 eine schematische Ansicht eines Szenarios mit einem Radarsensor eines Fahrzeugs und einer Anzahl von Objekten im Sichtfeld des Radarsensors, -
2 schematische Ansichten eines Szenarios mit einem Radarsensor eines Fahrzeugs und einem Objekt im Sichtfeld des Radarsensors zur Verdeutlichung einer L-Shape-Berechnung, -
3 schematische Ansichten eines Szenarios mit einem Radarsensor eines Fahrzeugs und einem Objekt im Sichtfeld des Radarsensors zur Verdeutlichung der L-Shape-Berechnung, -
4 eine schematische Ansicht eines Szenarios mit einem Radarsensor eines Fahrzeugs und einer Anzahl von Objekten im Sichtfeld des Radarsensors sowie mit erkannten L-Shapes, -
5 eine schematische Ansicht eines Fahrzeugs, an dem drei Radarsensoren und eine Kamera angeordnet sind, -
6 eine schematische Ansicht einer elektronischen Architektur des Fahrzeugs, -
7 eine schematische Ansicht von drei Objekten, von jeweils dazugehörigen L-Shapes, die jeweils anhand der Daten der Radarsensoren und der Kamera zu jedem Objekt ermittelt wurden, sowie durch Sensorfusionierung ermittelter fusionierter L-Shapes, und -
8 eine schematische Ansicht der Brücke aus5 , wobei mittels des beschriebenen Verfahrens erkannte L-Shapes dargestellt sind, anhand deren eine Höhe der Durchfahrt bestimmt werden kann.
-
1 a schematic view of a scenario with a radar sensor of a vehicle and a number of objects in the field of view of the radar sensor, -
2 schematic views of a scenario with a radar sensor of a vehicle and an object in the field of view of the radar sensor to illustrate an L-shape calculation, -
3 schematic views of a scenario with a radar sensor of a vehicle and an object in the field of view of the radar sensor to illustrate the L-shape calculation, -
4th a schematic view of a scenario with a radar sensor of a vehicle and a number of objects in the field of view of the radar sensor and with recognized L-shapes, -
5 a schematic view of a vehicle on which three radar sensors and a camera are arranged, -
6th a schematic view of an electronic architecture of the vehicle, -
7th a schematic view of three objects, of associated L-shapes, which were each determined on the basis of the data from the radar sensors and the camera for each object, as well as fused L-shapes determined by sensor fusion, and -
8th a schematic view of thebridge 5 , L-shapes recognized by means of the described method are shown, based on which a height of the passage can be determined.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference symbols in all figures.
Immer wieder entstehen Unfälle, deren Ursache darin liegt, dass die Höhe von Durchfahrten und Brücken falsch eingeschätzt wird und Fahrzeuge, beispielsweise LKWs, daran verunfallen.Accidents occur again and again, the cause of which is that the height of passageways and bridges is incorrectly estimated and vehicles, for example trucks, have an accident.
Manchmal vergisst der Fahrer, besonders bei häufigen Fahrzeugwechseln, dass er die Durchfahrtshöhe beachten muss. In manchen Fällen ragt der Aufbau über die eigentliche zulässige Höhenbeschränkung heraus, besonders bei Spezialtransporten.Sometimes the driver forgets, especially when changing vehicles frequently, that he has to pay attention to the clearance height. In some cases the superstructure protrudes beyond the actual permissible height restriction, especially for special transports.
Bekannte Radartechnologie und damit mögliche Objekterkennung basiert auf Einstufung eines sogenannten RCS-Wertes. RCS steht für Radar Cross Section und gibt die Reflektionsstärke einer Radarwelle an. Diese ist abhängig von der elektrischen Leitfähigkeit, Form, Distanz und Material eines Objektes. Durch Klassifizierung des RCS-Wertes wird unterschieden, wie reagiert wird. So wird beispielsweise beim Überschreiten des RCS-Wertes einer festgelegten Grenze eine Bremsung durchgeführt.Known radar technology and thus possible object detection is based on the classification of a so-called RCS value. RCS stands for Radar Cross Section and indicates the reflection strength of a radar wave. This depends on the electrical conductivity, shape, distance and material of an object. Classification of the RCS value distinguishes how it reacts. For example, if the RCS value exceeds a specified limit, braking is carried out.
Bei Unterschreitung des RCS-Wertes wird eine Kamera veranlasst, die festgestellte Situation zu überprüfen und zu bestätigen (Sensorfusion), um was für ein Objekt es sich handelt und erst daraufhin wird eine Reaktion, beispielsweise eine Warnmeldung und/oder eine Bremsung ausgelöst.If the RCS value is not reached, a camera is prompted to check the established situation and to confirm (sensor fusion) what kind of object it is and only then is a reaction triggered, for example a warning message and / or braking.
Darüber hinaus wird das Bewegungsprofil analysiert und klassifiziert und eine Objektklassifizierung vorgenommen, beispielsweise über die Feststellung eines MicroDoppler-Effekts. Auf diese Weise kann festgestellt werden, ob es sich bei dem Objekt um eine Person, ein Fahrzeug oder etwas Anderes handelt.In addition, the movement profile is analyzed and classified and an object classification is carried out, for example by determining a MicroDoppler effect. In this way it can be determined whether the object is a person, a vehicle or something else.
Während sich Distanzen und Geschwindigkeiten von beweglichen Objekten aufgrund von Doppler und Microdoppler-Effekten sehr gut feststellen lassen ist dies bei stehenden Objekten schwer.While distances and speeds of moving objects can be determined very well due to Doppler and Microdoppler effects, this is difficult for stationary objects.
Es ist es daher mit der bekannten Technik möglich, festzustellen, wo sich Objekte mit einem bestimmten RCS-Wert ungefähr befinden. Eine Distanzmessung der Objekte selbst oder eine Distanzmessung der Objekte zueinander ist jedoch in zuverlässiger Form bisher nicht möglich. Folge ist, dass eine zweifelsfreie Erkennung von Brücken und Durchfahrten, also eine Höhenkontrolle oder auch Weitenkontrolle, bislang nicht möglich ist.It is therefore possible with the known technique to determine approximately where objects with a certain RCS value are located. However, a distance measurement of the objects themselves or a distance measurement of the objects to one another has not been possible so far in a reliable manner. The result is that an unequivocal detection of bridges and passages, i.e. a height control or a distance control, has not been possible so far.
Durch die limitierte Abtastgenauigkeit und Begrenzung der Anzahl von stehenden Objekten
Durch den Einsatz von verbesserten Sensoren mit feinerer Abtastung kombiniert mit einer verbesserten Objekterkennung durch mehrere Sensoren, beispielsweise drei Radarsensoren
Einer der Radarsensoren
Damit werden eine höhere Sichtweite, eine bessere Objekterkennung durch höhere Abtastgenauigkeit und verbesserte Auflösung der Kamera und ein größerer Erfassungswinkel erreicht. Somit kann eine höhere Anzahl an Objekten erkannt und verfolgt werden. Durch die zwei zusätzlichen als Short-Range-Radar ausgebildeten Radarsensoren, insbesondere mit extrem feiner Abtastung und überlagernden Messbereich, kann eine zusätzliche Objektprüfung und -bestätigung (Sensorfusion) erfolgen. Somit werden eine verbesserte Kantenerkennung und damit die Distanzmessung durch den Einsatz der L-Shape-Technologie erreicht.This results in a greater range of vision, better object recognition through higher scanning accuracy and improved camera resolution, and a larger angle of detection. This means that a higher number of objects can be recognized and tracked. The two additional radar sensors designed as short-range radar, In particular with extremely fine scanning and overlapping measuring range, an additional object inspection and confirmation (sensor fusion) can be carried out. Thus, improved edge detection and thus distance measurement are achieved through the use of L-shape technology.
Die L-Shape-Berechnung bei der Radarerfassung hilft hier insbesondere eine verbessere Distanzmessung zu realisieren. Bei der L-Shape-Berechnung wird stets nach zwei weiteren Reflexionspunkten
Wird kein Reflexionspunkt
In dem in
Mithilfe des L-Shape-Algorithmus kann die Breite und Höhe eines Objekts
Entsprechend kann auf diese Weise kann auch die Distanz der Objekte
Somit werden von drei Radarsensoren
Eine Video-Radar-Entscheidungs-Einheit
Die höhere Abtastleistung, die höhere Anzahl an Sensoren, die erhöhte Anzahl der zu verfolgenden Objekte
In einer Ausführungsform kann ein aktiver Eingriff, beispielsweise Bremsen, vorgesehen sein, wenn eine zu geringe Höhe und/oder breite Höhe erkannt wurde.In one embodiment, active intervention, for example braking, can be provided if a height that is too low and / or too wide has been detected.
In einer Ausführungsform ist ein Abgleich mit einer Verkehrszeichenerkennung möglich, sofern diese beispielsweise eine Baustellensituation oder eine markierte Situation (insbesondere beschränkte Durchfahrtshöhe) anzeigt.In one embodiment, a comparison with a traffic sign recognition is possible, provided that this indicates, for example, a construction site situation or a marked situation (in particular restricted clearance height).
BezugszeichenlisteList of reference symbols
- 11
- RadarsensorRadar sensor
- 1.1 bis 1.31.1 to 1.3
- RadarsensorRadar sensor
- 2.1 bis 2.62.1 to 2.6
- Objektobject
- 33
- ReflexionspunktReflection point
- 3L3L
- linkes Extremumleft extremum
- 3Le 3L e
- extrapolierter Reflexionspunkt, extrapoliertes linkes Extremumextrapolated reflection point, extrapolated left extremum
- 3R3R
- rechtes Extremumright extremum
- 3Ref 3 Ref
- ReferenzpunktReference point
- 44th
- L-ShapeL-shape
- 4F4F
- fusioniertes L-Shapefused L-shape
- 4L, 4M, 4S4L, 4M, 4S
- L-ShapeL-shape
- 55
- Fahrzeugvehicle
- 66th
- Kameracamera
- 77th
- Video-Radar-Entscheidungs-EinheitVideo radar decision unit
- 88th
- zentrales Gatewaycentral gateway
- 99
- Instrument ClusterInstrument cluster
- 1010
- SteuereinheitControl unit
- 1111
- Brückebridge
- 1212
- KanteEdge
- hH
- Höheheight
- LRRLRR
- SichtbereichViewing area
- MPCMPC
- SichtbereichViewing area
- SRRSRR
- SichtbereichViewing area
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 102011113077 A1 [0002]DE 102011113077 A1 [0002]
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020007057.4A DE102020007057A1 (en) | 2020-11-19 | 2020-11-19 | Vehicle and method for determining a headroom |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020007057.4A DE102020007057A1 (en) | 2020-11-19 | 2020-11-19 | Vehicle and method for determining a headroom |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020007057A1 true DE102020007057A1 (en) | 2021-01-14 |
Family
ID=74091974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020007057.4A Pending DE102020007057A1 (en) | 2020-11-19 | 2020-11-19 | Vehicle and method for determining a headroom |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020007057A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022179669A1 (en) * | 2021-02-24 | 2022-09-01 | Continental Autonomous Mobility Germany GmbH | Method and device for the detection and determination of the height of objects |
US11840241B1 (en) | 2022-07-18 | 2023-12-12 | Ford Global Technologies, Llc | Adjusting driver assist technology based on vehicle ride height |
-
2020
- 2020-11-19 DE DE102020007057.4A patent/DE102020007057A1/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022179669A1 (en) * | 2021-02-24 | 2022-09-01 | Continental Autonomous Mobility Germany GmbH | Method and device for the detection and determination of the height of objects |
US11840241B1 (en) | 2022-07-18 | 2023-12-12 | Ford Global Technologies, Llc | Adjusting driver assist technology based on vehicle ride height |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009006113B4 (en) | Device and method for sensor fusion with dynamic objects | |
EP2464992B1 (en) | Collision monitoring for vehicle | |
DE102011018159A1 (en) | Device and method for driver assistance | |
WO2003015053A1 (en) | Method for determining a model travel path | |
EP3488607B1 (en) | Camera device for recording an environmental area of a vehicle, and method for providing a driver assistance function | |
DE102018122374A1 (en) | Method for determining a free space surrounding a motor vehicle, computer program product, free space determination device and motor vehicle | |
DE102020007057A1 (en) | Vehicle and method for determining a headroom | |
DE102018217746A1 (en) | Method for operating a driver assistance system of a motor vehicle and motor vehicle | |
DE102007025147B4 (en) | Lane departure warning and / or lane departure warning system | |
DE102013214632A1 (en) | Efficient provision of occupancy information for the environment of a vehicle | |
DE102018209959A1 (en) | Method and driver assistance system for avoiding a collision of a vehicle with an obstacle | |
DE10140802A1 (en) | Management of motor vehicles | |
WO2015010902A1 (en) | Efficiently providing occupancy information on the surroundings of a vehicle | |
DE102017007958A1 (en) | Driver assistance system for a vehicle and vehicle with such a driver assistance system | |
DE102015119658A1 (en) | Method for detecting an environmental region of a motor vehicle with object classification, control device, driver assistance system and motor vehicle | |
DE102017205245A1 (en) | Free range fusion for driver assistance systems | |
EP3109663A1 (en) | Method for operating a driver assistance system of a motor vehicle and motor vehicle | |
DE102018121158A1 (en) | Ground sensing point method and driver support system configured to perform such a method | |
WO2021156269A1 (en) | Sensor system for a vehicle for monitoring a horizontal monitoring area of at least 180° | |
DE102021001176A1 (en) | Method for the detection of an impending head-on collision between two vehicles | |
DE102017105721A1 (en) | Method for identifying at least one parking space for a vehicle and parking assistance system of a vehicle | |
DE102016119592A1 (en) | Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle | |
DE102021003432A1 (en) | Method for displaying information from the surroundings of a vehicle and vehicle | |
DE102020001532A1 (en) | Method for reducing incorrect detection of objects in the vicinity of a vehicle, device for carrying out such a method, and vehicle with such a device | |
WO2021104805A1 (en) | Method for operating a surroundings sensing device with grid-based evaluation and with fusion, and surroundings sensing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
R081 | Change of applicant/patentee |
Owner name: DAIMLER TRUCK AG, DE Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE |