DE102008025804A1 - Method for identifying vehicle traveling in front, particularly truck, involves identifying outside positions of tail lamps, and forming threshold value for separating overexposing pixel from background - Google Patents
Method for identifying vehicle traveling in front, particularly truck, involves identifying outside positions of tail lamps, and forming threshold value for separating overexposing pixel from background Download PDFInfo
- Publication number
- DE102008025804A1 DE102008025804A1 DE102008025804A DE102008025804A DE102008025804A1 DE 102008025804 A1 DE102008025804 A1 DE 102008025804A1 DE 102008025804 A DE102008025804 A DE 102008025804A DE 102008025804 A DE102008025804 A DE 102008025804A DE 102008025804 A1 DE102008025804 A1 DE 102008025804A1
- Authority
- DE
- Germany
- Prior art keywords
- preceding vehicles
- vehicles according
- detecting preceding
- detecting
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9321—Velocity regulation, e.g. cruise control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
Mit Hilfe einer Sensorfusion einer Kamera und eines LIDAR-Systems sollen vorausfahrende Fahrzeuge, insbesondere LKW, detektiert werden. Bei Dunkelheit sind Information des vorausfahrenden LKW im Bild auf die Rückleuchten begrenzt bzw. auf die von den Rückleuchten verursachten Überstrahlungen. Wird in der verwendeten Kamera eine Belichtungssteuerung eingesetzt, die nicht auf die LKW-Erkennung optimiert ist, ist die Form der Überstrahlungen abhängig von der Beleuchtungssituation der Szenerie. Dies tritt zum Beispiel auf, wenn mehrere Applikationen gleichzeitig auf der Kamera laufen und sich deren Region of Interest (ROI) unterscheidet, so wie beim Lane Departure Warning (LDW) und der LKW-Erkennung. Die ROI des LDWs ist der Bereich unmittelbar vor dem Fahrzeug, während bei der LKW-Erkennung auch Bereiche in einer größeren Entfernung zum eigenen LKW von Interesse sind. Die Variabilität der Form der von den Rückleuchten verursachten Überstrahlungen macht es schwierig Merkmale zu finden, anhand deren man die vorausfahrenden LKW detektieren kann. Die äußeren Punkte der Rückleuchten stellen hier ein relativ invariantes Merkmal dar, gerade in Kombination mit einer Entfernungsinformation durch das LIDAR-System.With Help a sensor fusion of a camera and a LIDAR system preceding vehicles, especially trucks are detected. at Dark are information of the preceding truck in the picture the taillights limited or on the of the taillights caused glare. If an exposure control is used in the camera used, not on the truck detection Optimized is the form of glare dependent from the lighting situation of the scenery. This occurs, for example when multiple applications are running simultaneously on the camera and their region of interest (ROI) is different, as in the case of Lane Departure Warning (LDW) and truck detection. The ROI of the LDW is the Area just in front of the vehicle, while in the truck detection also areas at a greater distance to your own truck of interest. The variability of the shape the glare caused by the taillights makes it difficult to find characteristics that can help you understand the people who are driving ahead Truck can detect. The outer points the taillights represent here a relatively invariant feature, especially in combination with distance information through the LIDAR system.
Existierende
Verfahren berücksichtigen
nicht die Variabilität
der Form der von den Rückleuchten verursachten Überstrahlungen.
Dies führt
dazu, dass es entweder zu Ungenauigkeiten in der Berechnung der
Objekt-Hypothese kommt, vergleiche
Der Erfindung liegt die Aufgabe zugrunde die Nachteile der bekannten Verfahren auszuräumen und eine zuverlässige, einfache Erkennung zu ermöglichen.Of the Invention is based on the object the disadvantages of the known Clear up procedures and a reliable, to allow easy detection.
Die Aufgabe wird durch die Merkmale des Anspruchs 1 und des Anspruchs 11 gelöst.The The object is achieved by the features of claim 1 and claim 11 solved.
Das hier beschrieben Verfahren zur Erkennung von vorausfahrenden LKW kann gleichzeitig mit weiteren Applikationen auf einer Kamera betrieben werden und benötigt keine extra auf die LKW-Erkennung optimierte Belichtungssteuerung der Kamera.The here described method for detecting preceding trucks can be operated simultaneously with other applications on a camera and needed No extra control optimized for truck detection the camera.
Des Weiteren hat die Variabilität der Form der von den Rückleuchten verursachten Überstrahlungen einen geringen Einfluss auf die Positionsschätzung des vorausfahrenden LKW, da eine Vergrößerung bzw. Verkleinerung der Überstrahlungen der Rückleuchten symmetrisch ist.Of Others have the variability the shape of the taillights caused glare little influence on the position estimate of the preceding truck, because an enlargement or Reduction of the radiations of the tail lights is symmetrical.
Vorteilhafte
Ausgestaltungen der Erfindung ergeben sich aus den folgenden Merkmalen:
Die
Erkennung vorausfahrender Fahrzeuge, insbesondere LKW, mit mindestens
einem Bild gebenden Sensor, einer Bildverarbeitungseinrichtung und
mindestens einem Steuergerät
in dem Fahrzeug, die untereinander über Schnittstellen verbunden
sind erfolgt anhand der äußeren Positionen
der Heckleuchten.Advantageous embodiments of the invention will become apparent from the following features:
The detection of vehicles in front, in particular trucks, with at least one image-forming sensor, an image processing device and at least one control unit in the vehicle, which are interconnected via interfaces takes place on the basis of the outer positions of the taillights.
Ausgehend von den vor dem Fahrzeug aufgenommenen Bildern, bei denen die Heckleuchten des vorausfahrenden Fahrzeugs Überstrahlungen aufweisen, werden die folgenden Verfahrensschritte durchgeführt:
- – Schwellwertbildung zur Trennung der überstrahlter Pixel vom Hintergrund
- – Bereichssegmentierung zur Gruppierung der Pixel einer Überstrahlung
- – Filterung zur Extrahierung der jeweils äußeren Pixel einer Überstrahlung
- – Merkmalsextrahierung zur Ermittlung der vertikalen äußeren Kanten
- – Bestimmung der äußeren Positionen der Heckleuchten mittels Hypothesenbildung auf Basis der ermittelten äußeren Kanten.
- - Threshold to separate the outshone pixels from the background
- - Segment segmentation for grouping the pixels of an overshoot
- - Filtering to extract the respective outer pixels of an over-radiation
- Feature extraction to determine the vertical outer edges
- - Determination of the outer positions of the taillights by hypothesis based on the determined outer edges.
Die Hypothesenbildung erfolgt in Abhängigkeit von dem Grad der Überstimmung der ermittelten Merkmale mit erkannten wahren Merkmalen.The Hypothesis is dependent from the degree of agreement the determined characteristics with recognized true features.
Es wird eine Plausibilisierung der Hypothesenbildung auf Grund von geometrischen Größen durchgeführt.It is a plausibility of hypothesis formation on the basis of performed geometric sizes.
Als geometrische Größen werden die Höhe und/oder die Symmetrie der erfassten Merkmale genutzt.When become geometric sizes the height and / or used the symmetry of the detected features.
Es wird ein Entfernungssignal eines die Entfernung messenden Sensors zur Erkennung vorausfahrender Fahrzeuge genutzt.It becomes a distance signal of a distance measuring sensor used to detect vehicles ahead.
Der die Entfernung messende Sensor ist ein Radar- oder ein LIDAR-System.Of the the distance measuring sensor is a radar or LIDAR system.
Die Signale der Kamera und des LIDAR-Systems werden aufbereitet über Schnittstellen dem Steuergerät zugeführt.The Signals from the camera and the LIDAR system are processed via interfaces the control unit fed.
Das Steuergerät verknüpft die Signale und steuert Einrichtungen des Fahrzeugs, wodurch eine Fusion der messenden Sensoren realisiert wird.The control unit connected the signals and controls facilities of the vehicle, creating a merger the measuring sensors is realized.
Das Steuergerät steuert zumindest die Funktion Lane Departure Warning und die Beleuchtung des Fahrzeugs. Als weitere Funktionen können ACC (Advanced Cruise Control), TSR (Traffic Sign Recognition) und weiter Fahrerassistenzsysteme gesteuert werden.The control unit controls at least the function Lane Departure Warning and the lighting of the Vehicle. Other functions include ACC (Advanced Cruise Control), TSR (Traffic Sign Recognition) and further driver assistance systems to be controlled.
Die Erfindung betrifft zudem eine Einrichtung zur Erkennung vorausfahrender Fahrzeuge, insbesondere LKW, mit mindestens einem Bild gebenden Sensor, einer Bildverarbeitungseinrichtung und mindestens einem Steuergerät in dem Fahrzeug, die untereinander über Schnittstellen verbunden sind und die Einrichtung neben dem Bild gebenden Sensor, der eine Kamera ist, ein LIDAR-System auf weist, das als ein die Entfernung messender Sensor ausgebildet ist und bei der die Signale der Kamera und des LIDAR-Systems über Schnittstellen dem Steuergerät zur Erkennung der äußeren Positionen der Heckleuchten zugeführt werden.The The invention also relates to a device for detecting preceding vehicles Vehicles, especially trucks, with at least one image sensor, an image processing device and at least one control device in the Vehicle passing each other over Interfaces are connected and the facility next to the picture giving sensor that is a camera, has a LIDAR system on it, which is designed as a distance-measuring sensor and in which the signals of the camera and the LIDAR system via interfaces the control unit for Detection of the outer positions supplied to the tail lights become.
Die
Erfindung ist in den Figuren dargestellt und wird im Folgenden anhand
der Figuren beschrieben. Diese zeigen:
Anhand der beigefügten Zeichnungen
wird die Erfindung nachfolgend näher
erläutert.
Dabei zeigt:The invention is illustrated in the figures and will be described below with reference to the figures. These show:
Reference to the accompanying drawings, the invention is explained in more detail below. Showing:
Die
Merkmale anhand derer das Verfahren Hypothesen für die weitere Verarbeitung
innerhalb der Objekterkennung generiert sind die, in horizontaler
Richtung gesehenen, äußeren Punkte
der Rückleuchten.
Um die äußeren Punkte
zu ermitteln werden die in
Die
Verarbeitung beginnt mit einem Schwellwertverfahren, um die Pixel,
die zu den Überstrahlungen
gehören,
vom Hintergrund zu trennen. Hierbei wird die Formel angewendet, wobei P(x, y)
dem Grauwert eines Pixel im Bild entspricht (siehe
T
ist ein Schwellwert, der in diesem Fall so gewählt wird, dass nur die Pixel
in der Sättigung
die Bedingung P(x, y) >=
T erfüllen.
Das Ergebnis des Schwellwertverfahren ist das binarisierte Bild
O(x, y) von P(x, y), in dem nur noch die Pixel der Überstrahlungen
ungleich 0 sind (siehe
Der
nächste
Schritt in der Verarbeitung ist die Pixel, die eine Überstrahlung
bilden, zusammen zu gruppieren. Hierfür wird eine Bereichssegmentierung durchgeführt. Das
Ergebnis B(x, y) der Bereichssegmentierung ist, dass alle Pixel
einer Überstrahlung die
gleiche Marke, in diesem Fall eine natürliche Zahl, besitzen (siehe
Daran
anschließend
werden die äußeren Pixel
einer jeden Überstrahlung
extrahiert, in dem das Filter
Mit
Hilfe eines einfachen Suchalgorithmus, werden aus den vertikalen
Kanten der Überstrahlungen
die jeweils äußeren Punkte
ermittelt. Dies sind die vom Verfahren extrahierten Merkmale. Ein
Beispiel hierfür
ist in
Aus
den Merkmalen werden dann die Hypothesen gebildet. Es treten aber
auch Störquellen,
wie entgegenkommende Fahrzeuge, Reflektionen auf der Straße usw.
auf. Das Verfahren kann nicht zwischen Rückleuchten und Störquellen
unterscheiden, da sich in beiden Fällen im Bild Überstrahlungen
bilden. Aufgrund dessen ist eine Plausibilisierung der Hypothesen
notwendig. Diese bezieht sich auf die geometrische Lage der linken
und rechten Merkmale zueinander im Bild. So müssen die Merkmale auf gleicher
Höhe liegen,
da sich auch die Rückleuchten auf
gleicher Höhe
befinden. Der Abstand zwischen den beiden äußeren Punkten im Bild muss
plausibel zur Entfernung sein. Wie in
Deshalb wurden die folgenden drei Fälle für die Bildung der Hypothesen eingeführt.Therefore were the following three cases for the Formation of hypotheses introduced.
Fall 1: Ermittelte Merkmale stimmen mit den wahren Merkmalen überein.
- – Hypothese wird aus den ermittelten Merkmalen gebildet
- - Hypothesis is formed from the determined characteristics
Fall 2: Es stimmt nur ein ermitteltes Merkmal mit den wahren Merkmalen übereinstimmen
- – Es wird überprüft, ob zu einem der beiden ermittelten Merkmalen ein passender Randpunkt R(x, y) zu finden ist und daraus eine Hypothese gebildet.
- It is checked whether a matching edge point R (x, y) can be found for one of the two determined features and that a hypothesis is formed from this.
Fall 3: Die ermittelten Merkmale stimmen nicht mit den wahren Merkmalen übereinstimmen
- – Es wird keine Hypothese gebildet, da Plausibilitätskriterien verletzt sind
- - No hypothesis is formed because plausibility criteria are violated
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008025804A DE102008025804A1 (en) | 2008-05-29 | 2008-05-29 | Method for identifying vehicle traveling in front, particularly truck, involves identifying outside positions of tail lamps, and forming threshold value for separating overexposing pixel from background |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008025804A DE102008025804A1 (en) | 2008-05-29 | 2008-05-29 | Method for identifying vehicle traveling in front, particularly truck, involves identifying outside positions of tail lamps, and forming threshold value for separating overexposing pixel from background |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102008025804A1 true DE102008025804A1 (en) | 2009-12-03 |
Family
ID=41253877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102008025804A Withdrawn DE102008025804A1 (en) | 2008-05-29 | 2008-05-29 | Method for identifying vehicle traveling in front, particularly truck, involves identifying outside positions of tail lamps, and forming threshold value for separating overexposing pixel from background |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102008025804A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001061669A1 (en) * | 2000-02-16 | 2001-08-23 | Hrl Laboratories, Llc | Collision avoidance system utilizing machine vision taillight tracking |
EP1513103A2 (en) * | 2003-08-11 | 2005-03-09 | Hitachi, Ltd. | Image processing system and vehicle control system |
WO2006089498A1 (en) * | 2005-02-22 | 2006-08-31 | Adc Automotive Distance Control Systems Gmbh | Method for identifying the activation of the brake lights of preceding vehicles |
EP1837803A2 (en) * | 2006-03-24 | 2007-09-26 | MobilEye Technologies, Ltd. | Headlight, taillight and streetlight detection |
-
2008
- 2008-05-29 DE DE102008025804A patent/DE102008025804A1/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001061669A1 (en) * | 2000-02-16 | 2001-08-23 | Hrl Laboratories, Llc | Collision avoidance system utilizing machine vision taillight tracking |
EP1513103A2 (en) * | 2003-08-11 | 2005-03-09 | Hitachi, Ltd. | Image processing system and vehicle control system |
WO2006089498A1 (en) * | 2005-02-22 | 2006-08-31 | Adc Automotive Distance Control Systems Gmbh | Method for identifying the activation of the brake lights of preceding vehicles |
EP1837803A2 (en) * | 2006-03-24 | 2007-09-26 | MobilEye Technologies, Ltd. | Headlight, taillight and streetlight detection |
Non-Patent Citations (3)
Title |
---|
NAGUMO,S.,et.al.:Extraction of forwand vehicles by front-mounted camera using brightness information.In:Electrical and Computer Engineering,2003,IEEE CCECE 2003,Canadian Conference on,Vol.2,2003,S.1243-1246 * |
NAGUMO,S.,et.al.:Extraction of forwand vehicles by front-mounted camera using brightness information.In:Electrical and Computer Engineering,2003,IEEE CCECE 2003,Canadian Conference on,Vol.2,2003,S.1243-1246 YEN LIN CHEN,et.al.:Nighttime Vehicle Detection for Driver Assistane and Autonomous Vehicles.In:Pattern Recognition,2006,ICPR 2006,18th International Conference on,Vol.1,2006,S.687-690 |
YEN LIN CHEN,et.al.:Nighttime Vehicle Detection for Driver Assistane and Autonomous Vehicles.In:Pattern Recognition,2006,ICPR 2006,18th International Conference on,Vol.1,2006,S.687-690 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2414990B1 (en) | Method and apparatus for lane recognition | |
WO2019174682A1 (en) | Method and device for detecting and evaluating roadway conditions and weather-related environmental influences | |
DE102013101639A1 (en) | Method and device for determining a road condition | |
WO2009141092A1 (en) | Driver assistance system for preventing a vehicle colliding with pedestrians | |
EP2710573B1 (en) | Method and apparatus for identifying a possible collision object | |
DE102015111907B4 (en) | Algorithm to extend the detection range for an AVM stop line detection | |
DE102005054972A1 (en) | Motor vehicle`s dead angle monitoring method, involves accomplishing checking of whether lanes change is accomplished based on infrastructure of traffic before warning, where driver warning is omitted if result of checking is not possible | |
DE112013001424T5 (en) | Object detection device | |
DE102015212786A1 (en) | Lane boundary line recognizer and computer readable storage medium storing a program for recognizing lane boundary lines on a road | |
EP2116958B1 (en) | Method and device for calculating the drive path in the area in front of a vehicle | |
DE102013008451A1 (en) | Vehicle parking control system and vehicle parking control method using this | |
EP3044727B1 (en) | Method and device for detecting objects from depth-resolved image data | |
DE102016215115A1 (en) | Device and method for detecting road users in an environment of an ego vehicle | |
EP2023265A1 (en) | Method for recognising an object | |
DE102008020007A1 (en) | Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients | |
DE102014201158A1 (en) | Method and device for checking a relevant object detected by an object recognition | |
DE102014217877A1 (en) | Device and method for recognizing traffic signs | |
DE102018211368A1 (en) | A method of describing an environment of a vehicle through the topology of the busy road | |
DE102013022076A1 (en) | Method for determining a width of a target vehicle by means of a camera system of a motor vehicle, camera system and motor vehicle | |
DE102007021580B4 (en) | Method and device for determining vehicle-relevant traffic signs | |
DE102011055441A1 (en) | Method for determining spacing between preceding and forthcoming motor cars by using mono camera in e.g. adaptive cruise control system, involves determining spacing between cars based on information about license plate number | |
DE102011005969A1 (en) | Device for detecting line mark on roads, for attachment to car, has safety calculating unit reducing safety if two conditions are met, where one of conditions is defined such that distance between candidates is smaller than reference value | |
EP1944212B1 (en) | Method and device for recognising potentially dangerous objects for a vehicle | |
DE102017211887A1 (en) | Method and device for locating and automated operation of a vehicle | |
EP3520020B1 (en) | Road sign classification in a surrounding area of a motor vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
R005 | Application deemed withdrawn due to failure to request examination |