DE102008025804A1 - Method for identifying vehicle traveling in front, particularly truck, involves identifying outside positions of tail lamps, and forming threshold value for separating overexposing pixel from background - Google Patents

Method for identifying vehicle traveling in front, particularly truck, involves identifying outside positions of tail lamps, and forming threshold value for separating overexposing pixel from background Download PDF

Info

Publication number
DE102008025804A1
DE102008025804A1 DE102008025804A DE102008025804A DE102008025804A1 DE 102008025804 A1 DE102008025804 A1 DE 102008025804A1 DE 102008025804 A DE102008025804 A DE 102008025804A DE 102008025804 A DE102008025804 A DE 102008025804A DE 102008025804 A1 DE102008025804 A1 DE 102008025804A1
Authority
DE
Germany
Prior art keywords
preceding vehicles
vehicles according
detecting preceding
detecting
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008025804A
Other languages
German (de)
Inventor
Tristan Eickhoff
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hella GmbH and Co KGaA
Original Assignee
Hella KGaA Huek and Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hella KGaA Huek and Co filed Critical Hella KGaA Huek and Co
Priority to DE102008025804A priority Critical patent/DE102008025804A1/en
Publication of DE102008025804A1 publication Critical patent/DE102008025804A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9321Velocity regulation, e.g. cruise control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

The method involves identifying the outside positions of the tail lamps. The threshold value is formed for separating the overexposing pixel from background, and segmenting an area for grouping the pixel of an overexposure. The characteristics are extracted for determining the vertical external edges, and determining the outside positions of the tail lamps by hypothesis formation from the determined external edges. An independent claim is included for a device for identifying a vehicle traveling in front, particularly truck.

Description

Mit Hilfe einer Sensorfusion einer Kamera und eines LIDAR-Systems sollen vorausfahrende Fahrzeuge, insbesondere LKW, detektiert werden. Bei Dunkelheit sind Information des vorausfahrenden LKW im Bild auf die Rückleuchten begrenzt bzw. auf die von den Rückleuchten verursachten Überstrahlungen. Wird in der verwendeten Kamera eine Belichtungssteuerung eingesetzt, die nicht auf die LKW-Erkennung optimiert ist, ist die Form der Überstrahlungen abhängig von der Beleuchtungssituation der Szenerie. Dies tritt zum Beispiel auf, wenn mehrere Applikationen gleichzeitig auf der Kamera laufen und sich deren Region of Interest (ROI) unterscheidet, so wie beim Lane Departure Warning (LDW) und der LKW-Erkennung. Die ROI des LDWs ist der Bereich unmittelbar vor dem Fahrzeug, während bei der LKW-Erkennung auch Bereiche in einer größeren Entfernung zum eigenen LKW von Interesse sind. Die Variabilität der Form der von den Rückleuchten verursachten Überstrahlungen macht es schwierig Merkmale zu finden, anhand deren man die vorausfahrenden LKW detektieren kann. Die äußeren Punkte der Rückleuchten stellen hier ein relativ invariantes Merkmal dar, gerade in Kombination mit einer Entfernungsinformation durch das LIDAR-System.With Help a sensor fusion of a camera and a LIDAR system preceding vehicles, especially trucks are detected. at Dark are information of the preceding truck in the picture the taillights limited or on the of the taillights caused glare. If an exposure control is used in the camera used, not on the truck detection Optimized is the form of glare dependent from the lighting situation of the scenery. This occurs, for example when multiple applications are running simultaneously on the camera and their region of interest (ROI) is different, as in the case of Lane Departure Warning (LDW) and truck detection. The ROI of the LDW is the Area just in front of the vehicle, while in the truck detection also areas at a greater distance to your own truck of interest. The variability of the shape the glare caused by the taillights makes it difficult to find characteristics that can help you understand the people who are driving ahead Truck can detect. The outer points the taillights represent here a relatively invariant feature, especially in combination with distance information through the LIDAR system.

Existierende Verfahren berücksichtigen nicht die Variabilität der Form der von den Rückleuchten verursachten Überstrahlungen. Dies führt dazu, dass es entweder zu Ungenauigkeiten in der Berechnung der Objekt-Hypothese kommt, vergleiche 1 oder eine Vielzahl an verschiedenen Merkmalen berechnet werden muss, um den vorausfahrenden LKW in den verschieden Beleuchtungssituationen zu detektieren.Existing methods do not take into account the variability of the shape of the radiations caused by the taillights. This leads to either inaccuracies in the calculation of the object hypothesis, cf. 1 or a variety of different features must be calculated to detect the preceding truck in the different lighting situations.

Der Erfindung liegt die Aufgabe zugrunde die Nachteile der bekannten Verfahren auszuräumen und eine zuverlässige, einfache Erkennung zu ermöglichen.Of the Invention is based on the object the disadvantages of the known Clear up procedures and a reliable, to allow easy detection.

Die Aufgabe wird durch die Merkmale des Anspruchs 1 und des Anspruchs 11 gelöst.The The object is achieved by the features of claim 1 and claim 11 solved.

Das hier beschrieben Verfahren zur Erkennung von vorausfahrenden LKW kann gleichzeitig mit weiteren Applikationen auf einer Kamera betrieben werden und benötigt keine extra auf die LKW-Erkennung optimierte Belichtungssteuerung der Kamera.The here described method for detecting preceding trucks can be operated simultaneously with other applications on a camera and needed No extra control optimized for truck detection the camera.

Des Weiteren hat die Variabilität der Form der von den Rückleuchten verursachten Überstrahlungen einen geringen Einfluss auf die Positionsschätzung des vorausfahrenden LKW, da eine Vergrößerung bzw. Verkleinerung der Überstrahlungen der Rückleuchten symmetrisch ist.Of Others have the variability the shape of the taillights caused glare little influence on the position estimate of the preceding truck, because an enlargement or Reduction of the radiations of the tail lights is symmetrical.

Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den folgenden Merkmalen:
Die Erkennung vorausfahrender Fahrzeuge, insbesondere LKW, mit mindestens einem Bild gebenden Sensor, einer Bildverarbeitungseinrichtung und mindestens einem Steuergerät in dem Fahrzeug, die untereinander über Schnittstellen verbunden sind erfolgt anhand der äußeren Positionen der Heckleuchten.
Advantageous embodiments of the invention will become apparent from the following features:
The detection of vehicles in front, in particular trucks, with at least one image-forming sensor, an image processing device and at least one control unit in the vehicle, which are interconnected via interfaces takes place on the basis of the outer positions of the taillights.

Ausgehend von den vor dem Fahrzeug aufgenommenen Bildern, bei denen die Heckleuchten des vorausfahrenden Fahrzeugs Überstrahlungen aufweisen, werden die folgenden Verfahrensschritte durchgeführt:

  • – Schwellwertbildung zur Trennung der überstrahlter Pixel vom Hintergrund
  • – Bereichssegmentierung zur Gruppierung der Pixel einer Überstrahlung
  • – Filterung zur Extrahierung der jeweils äußeren Pixel einer Überstrahlung
  • – Merkmalsextrahierung zur Ermittlung der vertikalen äußeren Kanten
  • – Bestimmung der äußeren Positionen der Heckleuchten mittels Hypothesenbildung auf Basis der ermittelten äußeren Kanten.
Based on the images taken in front of the vehicle, in which the tail lights of the vehicle ahead have glare, the following process steps are carried out:
  • - Threshold to separate the outshone pixels from the background
  • - Segment segmentation for grouping the pixels of an overshoot
  • - Filtering to extract the respective outer pixels of an over-radiation
  • Feature extraction to determine the vertical outer edges
  • - Determination of the outer positions of the taillights by hypothesis based on the determined outer edges.

Die Hypothesenbildung erfolgt in Abhängigkeit von dem Grad der Überstimmung der ermittelten Merkmale mit erkannten wahren Merkmalen.The Hypothesis is dependent from the degree of agreement the determined characteristics with recognized true features.

Es wird eine Plausibilisierung der Hypothesenbildung auf Grund von geometrischen Größen durchgeführt.It is a plausibility of hypothesis formation on the basis of performed geometric sizes.

Als geometrische Größen werden die Höhe und/oder die Symmetrie der erfassten Merkmale genutzt.When become geometric sizes the height and / or used the symmetry of the detected features.

Es wird ein Entfernungssignal eines die Entfernung messenden Sensors zur Erkennung vorausfahrender Fahrzeuge genutzt.It becomes a distance signal of a distance measuring sensor used to detect vehicles ahead.

Der die Entfernung messende Sensor ist ein Radar- oder ein LIDAR-System.Of the the distance measuring sensor is a radar or LIDAR system.

Die Signale der Kamera und des LIDAR-Systems werden aufbereitet über Schnittstellen dem Steuergerät zugeführt.The Signals from the camera and the LIDAR system are processed via interfaces the control unit fed.

Das Steuergerät verknüpft die Signale und steuert Einrichtungen des Fahrzeugs, wodurch eine Fusion der messenden Sensoren realisiert wird.The control unit connected the signals and controls facilities of the vehicle, creating a merger the measuring sensors is realized.

Das Steuergerät steuert zumindest die Funktion Lane Departure Warning und die Beleuchtung des Fahrzeugs. Als weitere Funktionen können ACC (Advanced Cruise Control), TSR (Traffic Sign Recognition) und weiter Fahrerassistenzsysteme gesteuert werden.The control unit controls at least the function Lane Departure Warning and the lighting of the Vehicle. Other functions include ACC (Advanced Cruise Control), TSR (Traffic Sign Recognition) and further driver assistance systems to be controlled.

Die Erfindung betrifft zudem eine Einrichtung zur Erkennung vorausfahrender Fahrzeuge, insbesondere LKW, mit mindestens einem Bild gebenden Sensor, einer Bildverarbeitungseinrichtung und mindestens einem Steuergerät in dem Fahrzeug, die untereinander über Schnittstellen verbunden sind und die Einrichtung neben dem Bild gebenden Sensor, der eine Kamera ist, ein LIDAR-System auf weist, das als ein die Entfernung messender Sensor ausgebildet ist und bei der die Signale der Kamera und des LIDAR-Systems über Schnittstellen dem Steuergerät zur Erkennung der äußeren Positionen der Heckleuchten zugeführt werden.The The invention also relates to a device for detecting preceding vehicles Vehicles, especially trucks, with at least one image sensor, an image processing device and at least one control device in the Vehicle passing each other over Interfaces are connected and the facility next to the picture giving sensor that is a camera, has a LIDAR system on it, which is designed as a distance-measuring sensor and in which the signals of the camera and the LIDAR system via interfaces the control unit for Detection of the outer positions supplied to the tail lights become.

Die Erfindung ist in den Figuren dargestellt und wird im Folgenden anhand der Figuren beschrieben. Diese zeigen:
Anhand der beigefügten Zeichnungen wird die Erfindung nachfolgend näher erläutert. Dabei zeigt:
The invention is illustrated in the figures and will be described below with reference to the figures. These show:
Reference to the accompanying drawings, the invention is explained in more detail below. Showing:

1 Berechnete Position der Rückleuchte (mittleres Kreuz) und wahren Positionen der Rückleuchten 1 Calculated position of the tail light (middle cross) and true positions of the taillights

2 Ablauf des Modells Rückleuchten der Rückleuchtenerkennung 2 Sequence of the model Tail lights of the taillight recognition

3 Beispiel für P(x, y) 3 Example of P (x, y)

4 Beispiel O(x, y) 4 Example O (x, y)

5 Beispiel B(x, y) 5 Example B (x, y)

6 Beispiel R(x, y) 6 Example R (x, y)

7 Vom Verfahren extrahierte Merkmale 7 Features extracted from the procedure

8 Verschmelzung mehrerer Überstrahlungen 8th Merging of several radiations

Die Merkmale anhand derer das Verfahren Hypothesen für die weitere Verarbeitung innerhalb der Objekterkennung generiert sind die, in horizontaler Richtung gesehenen, äußeren Punkte der Rückleuchten. Um die äußeren Punkte zu ermitteln werden die in 2 dargestellten Schritte durchgeführt.The features by means of which the method generates hypotheses for further processing within the object recognition are the outer points of the taillights seen in the horizontal direction. To determine the outer points, the in 2 performed steps.

Die Verarbeitung beginnt mit einem Schwellwertverfahren, um die Pixel, die zu den Überstrahlungen gehören, vom Hintergrund zu trennen. Hierbei wird die Formel

Figure 00030001
angewendet, wobei P(x, y) dem Grauwert eines Pixel im Bild entspricht (siehe 3).Processing begins with a thresholding process to separate the pixels associated with the glare from the background. Here is the formula
Figure 00030001
applied, where P (x, y) corresponds to the gray value of a pixel in the image (see 3 ).

T ist ein Schwellwert, der in diesem Fall so gewählt wird, dass nur die Pixel in der Sättigung die Bedingung P(x, y) >= T erfüllen. Das Ergebnis des Schwellwertverfahren ist das binarisierte Bild O(x, y) von P(x, y), in dem nur noch die Pixel der Überstrahlungen ungleich 0 sind (siehe 4).T is a threshold, which in this case is chosen such that only the pixels in the saturation satisfy the condition P (x, y)> = T. The result of the threshold value method is the binarized image O (x, y) of P (x, y), in which only the pixels of the radiations are not equal to 0 (see 4 ).

Der nächste Schritt in der Verarbeitung ist die Pixel, die eine Überstrahlung bilden, zusammen zu gruppieren. Hierfür wird eine Bereichssegmentierung durchgeführt. Das Ergebnis B(x, y) der Bereichssegmentierung ist, dass alle Pixel einer Überstrahlung die gleiche Marke, in diesem Fall eine natürliche Zahl, besitzen (siehe 5).The next step in the processing is to group together the pixels that form an overshoot. For this a range segmentation is carried out. The result B (x, y) of the range segmentation is that all the pixels of an overshoot have the same mark, in this case a natural number (see 5 ).

Daran anschließend werden die äußeren Pixel einer jeden Überstrahlung extrahiert, in dem das Filter R(x, y) = B(x, y) – B(x – 1, y)in horizontaler Richtung auf B(x, y) angewendet wird. Man erhält R(x, y), in dem nur noch die vertikalen Kanten einer jeden Überstrahlung ungleich Null sind (siehe 6).Subsequently, the outer pixels of each over-radiation are extracted, in which the filter R (x, y) = B (x, y) -B (x - 1, y) is applied to B (x, y) in the horizontal direction. One obtains R (x, y), in which only the vertical edges of each overradiation are not equal to zero (see 6 ).

Mit Hilfe eines einfachen Suchalgorithmus, werden aus den vertikalen Kanten der Überstrahlungen die jeweils äußeren Punkte ermittelt. Dies sind die vom Verfahren extrahierten Merkmale. Ein Beispiel hierfür ist in 7 dargestellt. Das linke Kreuz markiert dabei das linke Merkmal, während das rechte Kreuz das rechte Merkmal markiert.With the help of a simple search algorithm, the respective outer points are determined from the vertical edges of the radiations. These are the features extracted by the method. An example of this is in 7 shown. The left cross marks the left feature, while the right cross marks the right feature.

Aus den Merkmalen werden dann die Hypothesen gebildet. Es treten aber auch Störquellen, wie entgegenkommende Fahrzeuge, Reflektionen auf der Straße usw. auf. Das Verfahren kann nicht zwischen Rückleuchten und Störquellen unterscheiden, da sich in beiden Fällen im Bild Überstrahlungen bilden. Aufgrund dessen ist eine Plausibilisierung der Hypothesen notwendig. Diese bezieht sich auf die geometrische Lage der linken und rechten Merkmale zueinander im Bild. So müssen die Merkmale auf gleicher Höhe liegen, da sich auch die Rückleuchten auf gleicher Höhe befinden. Der Abstand zwischen den beiden äußeren Punkten im Bild muss plausibel zur Entfernung sein. Wie in 8 gezeigt können aber auch mehrere Überstrahlungen miteinander verschmelzen, was zur Folge hat, dass die ermittelten Merkmale nicht mehr mit den wahren Merkmalen übereinstimmen.The hypotheses are then formed from the features. But there are also sources of interference, such as oncoming vehicles, reflections on the road, etc. on. The method can not differentiate between taillights and sources of interference, as in both cases the image is overshadowed. Because of this, a plausibility of the hypotheses is necessary. This refers to the geometric position of the left and right features to each other in the picture. So the features must be at the same height, as well as the tail lights are at the same height. The distance between the two outer points in the image must be plausible for the distance. As in 8th however, several radiations can also be shown to merge together, with the result that the features determined no longer correspond to the true features.

Deshalb wurden die folgenden drei Fälle für die Bildung der Hypothesen eingeführt.Therefore were the following three cases for the Formation of hypotheses introduced.

Fall 1: Ermittelte Merkmale stimmen mit den wahren Merkmalen überein.

  • – Hypothese wird aus den ermittelten Merkmalen gebildet
Case 1: Identified features are consistent with the true features.
  • - Hypothesis is formed from the determined characteristics

Fall 2: Es stimmt nur ein ermitteltes Merkmal mit den wahren Merkmalen übereinstimmen

  • – Es wird überprüft, ob zu einem der beiden ermittelten Merkmalen ein passender Randpunkt R(x, y) zu finden ist und daraus eine Hypothese gebildet.
Case 2: Only one identified feature is correct to agree with the true characteristics
  • It is checked whether a matching edge point R (x, y) can be found for one of the two determined features and that a hypothesis is formed from this.

Fall 3: Die ermittelten Merkmale stimmen nicht mit den wahren Merkmalen übereinstimmen

  • – Es wird keine Hypothese gebildet, da Plausibilitätskriterien verletzt sind
Case 3: The determined characteristics do not agree with the true characteristics
  • - No hypothesis is formed because plausibility criteria are violated

Claims (11)

Verfahren zur Erkennung vorausfahrender Fahrzeuge, insbesondere LKW, mit mindestens einem Bild gebenden Sensor, einer Bildverarbeitungseinrichtung und mindestens einem Steuergerät in dem Fahrzeug, die untereinander über Schnittstellen verbunden sind, dadurch gekennzeichnet, dass die Erkennung anhand der äußeren Positionen der Heckleuchten erfolgt.Method for detecting preceding vehicles, in particular trucks, with at least one image-forming sensor, an image processing device and at least one control device in the vehicle, which are interconnected via interfaces, characterized in that the detection is based on the outer positions of the tail lights. Verfahren zur Erkennung vorausfahrender Fahrzeuge nach Anspruch 1, dadurch gekennzeichnet, dass ausgehend von den aufgenommenen Bildern, bei denen die Heckleuchten Überstrahlungen aufweisen, die folgenden Verfahrensschritte durchgeführt werden: – Schwellwertbildung zur Trennung überstrahlter Pixel vom Hintergrund – Bereichssegmentierung zur Gruppierung der Pixel einer Überstrahlung – Filterung zur Extrahierung der jeweils äußeren Pixel einer Überstrahlung – Merkmalsextrahierung zur Ermittlung der vertikalen äußeren Kanten – Bestimmung der äußeren Positionen der Heckleuchten mittels Hypothesenbildung auf Basis der ermittelten äußeren Kanten.Method for detecting preceding vehicles according to claim 1, characterized in that starting from the taken pictures in which the tail lights have radiations, the following process steps are carried out: - Threshold for the separation over-radiated Pixel from the background - Segment segmentation for grouping the pixels of an overshoot - Filtering for extracting the respective outer pixels of an over-radiation - Feature extraction to determine the vertical outer edges - Determination the outer positions the taillights by means of hypothesis based on the determined outer edges. Verfahren zur Erkennung vorausfahrender Fahrzeuge nach Anspruch 2, dadurch gekennzeichnet, dass die Hypothesenbildung in Abhängigkeit von dem Grad der Überstimmung der ermittelten Merkmale mit erkannten wahren Merkmalen erfolgt.Method for detecting preceding vehicles according to claim 2, characterized in that the Hypothesenbildung dependent on from the degree of agreement the determined features with recognized true features. Verfahren zur Erkennung vorausfahrender Fahrzeuge nach Anspruch 2 oder Anspruch 3, dadurch gekennzeichnet, dass eine Plausibilisierung der Hypothesenbildung auf Grund von geometrischen Größen durchgeführt wird.Method for detecting preceding vehicles according to claim 2 or claim 3, characterized in that a Plausibility of hypothesis formation on the basis of geometric Sizes is performed. Verfahren zur Erkennung vorausfahrender Fahrzeuge nach Anspruch 4, dadurch gekennzeichnet, dass als geometrische Größen die Höhe und/oder die Symmetrie der erfassten Merkmale genutzt werden.Method for detecting preceding vehicles according to claim 4, characterized in that as geometrical sizes the Height and / or the symmetry of the detected features are used. Verfahren zur Erkennung vorausfahrender Fahrzeuge nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass ein Entfernungssignal eines die Entfernung messenden Sensors zur Erkennung vorausfahrender Fahrzeuge genutzt wird.Method for detecting preceding vehicles according to one of the preceding claims, characterized that a distance signal of a distance measuring sensor is used to detect preceding vehicles. Verfahren zur Erkennung vorausfahrender Fahrzeuge nach Anspruch 6, dadurch gekennzeichnet, dass der die Entfernung messende Sensor ein Radar- oder ein LIDAR-System ist.Method for detecting preceding vehicles according to claim 6, characterized in that the removal measuring sensor is a radar or LIDAR system. Verfahren zur Erkennung vorausfahrender Fahrzeuge nach Anspruch 7, dadurch gekennzeichnet, dass die Signale der Kamera und des LIDAR-Systems aufbereitet über Schnittstellen dem Steuergerät zugeführt werden.Method for detecting preceding vehicles according to claim 7, characterized in that the signals of the camera and the LIDAR system prepared over Interfaces to the controller supplied become. Verfahren zur Erkennung vorausfahrender Fahrzeuge nach Anspruch 8, dadurch gekennzeichnet, dass das Steuergerät die Signale verknüpft und Einrichtungen des Fahrzeugs steuert.Method for detecting preceding vehicles according to claim 8, characterized in that the control device, the signals connected and controls facilities of the vehicle. Verfahren zur Erkennung vorausfahrender Fahrzeuge nach Anspruch 9, dadurch gekennzeichnet, dass das Steuergerät zumindest die Funktion Lane Departure Warning und die Beleuchtung des Fahrzeugs steuert.Method for detecting preceding vehicles according to claim 9, characterized in that the control unit at least the function Lane Departure Warning and the lighting of the vehicle controls. Einrichtung zur Erkennung vorausfahrender Fahrzeuge, insbesondere LKW, mit mindestens einem Bild gebenden Sensor, einer Bildverarbeitungseinrichtung und mindestens einem Steuergerät in dem Fahrzeug, die untereinander über Schnittstellen verbunden sind, dadurch gekennzeichnet, dass die Einrichtung neben dem Bild gebenden Sensor, der eine Kamera ist, ein LIDAR-System aufweist, das als ein die Entfernung messender Sensor ausgebildet ist und die Signale der Kamera und des LIDAR-Systems über Schnittstellen dem Steuergerät zur Erkennung der äußeren Positionen der Heckleuchten zugeführt werden.Device for detecting preceding vehicles, in particular truck, with at least one image-giving sensor, one Image processing device and at least one control device in the Vehicle passing each other over Interfaces are connected, characterized in that the device next to the imaging sensor, which is a camera, a LIDAR system formed as a distance-measuring sensor is and the signals of the camera and the LIDAR system via interfaces the control unit to detect the outer positions the tail lights are supplied.
DE102008025804A 2008-05-29 2008-05-29 Method for identifying vehicle traveling in front, particularly truck, involves identifying outside positions of tail lamps, and forming threshold value for separating overexposing pixel from background Withdrawn DE102008025804A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102008025804A DE102008025804A1 (en) 2008-05-29 2008-05-29 Method for identifying vehicle traveling in front, particularly truck, involves identifying outside positions of tail lamps, and forming threshold value for separating overexposing pixel from background

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008025804A DE102008025804A1 (en) 2008-05-29 2008-05-29 Method for identifying vehicle traveling in front, particularly truck, involves identifying outside positions of tail lamps, and forming threshold value for separating overexposing pixel from background

Publications (1)

Publication Number Publication Date
DE102008025804A1 true DE102008025804A1 (en) 2009-12-03

Family

ID=41253877

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008025804A Withdrawn DE102008025804A1 (en) 2008-05-29 2008-05-29 Method for identifying vehicle traveling in front, particularly truck, involves identifying outside positions of tail lamps, and forming threshold value for separating overexposing pixel from background

Country Status (1)

Country Link
DE (1) DE102008025804A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001061669A1 (en) * 2000-02-16 2001-08-23 Hrl Laboratories, Llc Collision avoidance system utilizing machine vision taillight tracking
EP1513103A2 (en) * 2003-08-11 2005-03-09 Hitachi, Ltd. Image processing system and vehicle control system
WO2006089498A1 (en) * 2005-02-22 2006-08-31 Adc Automotive Distance Control Systems Gmbh Method for identifying the activation of the brake lights of preceding vehicles
EP1837803A2 (en) * 2006-03-24 2007-09-26 MobilEye Technologies, Ltd. Headlight, taillight and streetlight detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001061669A1 (en) * 2000-02-16 2001-08-23 Hrl Laboratories, Llc Collision avoidance system utilizing machine vision taillight tracking
EP1513103A2 (en) * 2003-08-11 2005-03-09 Hitachi, Ltd. Image processing system and vehicle control system
WO2006089498A1 (en) * 2005-02-22 2006-08-31 Adc Automotive Distance Control Systems Gmbh Method for identifying the activation of the brake lights of preceding vehicles
EP1837803A2 (en) * 2006-03-24 2007-09-26 MobilEye Technologies, Ltd. Headlight, taillight and streetlight detection

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
NAGUMO,S.,et.al.:Extraction of forwand vehicles by front-mounted camera using brightness information.In:Electrical and Computer Engineering,2003,IEEE CCECE 2003,Canadian Conference on,Vol.2,2003,S.1243-1246 *
NAGUMO,S.,et.al.:Extraction of forwand vehicles by front-mounted camera using brightness information.In:Electrical and Computer Engineering,2003,IEEE CCECE 2003,Canadian Conference on,Vol.2,2003,S.1243-1246 YEN LIN CHEN,et.al.:Nighttime Vehicle Detection for Driver Assistane and Autonomous Vehicles.In:Pattern Recognition,2006,ICPR 2006,18th International Conference on,Vol.1,2006,S.687-690
YEN LIN CHEN,et.al.:Nighttime Vehicle Detection for Driver Assistane and Autonomous Vehicles.In:Pattern Recognition,2006,ICPR 2006,18th International Conference on,Vol.1,2006,S.687-690 *

Similar Documents

Publication Publication Date Title
EP2414990B1 (en) Method and apparatus for lane recognition
WO2019174682A1 (en) Method and device for detecting and evaluating roadway conditions and weather-related environmental influences
DE102013101639A1 (en) Method and device for determining a road condition
WO2009141092A1 (en) Driver assistance system for preventing a vehicle colliding with pedestrians
EP2710573B1 (en) Method and apparatus for identifying a possible collision object
DE102015111907B4 (en) Algorithm to extend the detection range for an AVM stop line detection
DE102005054972A1 (en) Motor vehicle`s dead angle monitoring method, involves accomplishing checking of whether lanes change is accomplished based on infrastructure of traffic before warning, where driver warning is omitted if result of checking is not possible
DE112013001424T5 (en) Object detection device
DE102015212786A1 (en) Lane boundary line recognizer and computer readable storage medium storing a program for recognizing lane boundary lines on a road
EP2116958B1 (en) Method and device for calculating the drive path in the area in front of a vehicle
DE102013008451A1 (en) Vehicle parking control system and vehicle parking control method using this
EP3044727B1 (en) Method and device for detecting objects from depth-resolved image data
DE102016215115A1 (en) Device and method for detecting road users in an environment of an ego vehicle
EP2023265A1 (en) Method for recognising an object
DE102008020007A1 (en) Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients
DE102014201158A1 (en) Method and device for checking a relevant object detected by an object recognition
DE102014217877A1 (en) Device and method for recognizing traffic signs
DE102018211368A1 (en) A method of describing an environment of a vehicle through the topology of the busy road
DE102013022076A1 (en) Method for determining a width of a target vehicle by means of a camera system of a motor vehicle, camera system and motor vehicle
DE102007021580B4 (en) Method and device for determining vehicle-relevant traffic signs
DE102011055441A1 (en) Method for determining spacing between preceding and forthcoming motor cars by using mono camera in e.g. adaptive cruise control system, involves determining spacing between cars based on information about license plate number
DE102011005969A1 (en) Device for detecting line mark on roads, for attachment to car, has safety calculating unit reducing safety if two conditions are met, where one of conditions is defined such that distance between candidates is smaller than reference value
EP1944212B1 (en) Method and device for recognising potentially dangerous objects for a vehicle
DE102017211887A1 (en) Method and device for locating and automated operation of a vehicle
EP3520020B1 (en) Road sign classification in a surrounding area of a motor vehicle

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R005 Application deemed withdrawn due to failure to request examination