DE102013018561A1 - Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses - Google Patents

Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses Download PDF

Info

Publication number
DE102013018561A1
DE102013018561A1 DE201310018561 DE102013018561A DE102013018561A1 DE 102013018561 A1 DE102013018561 A1 DE 102013018561A1 DE 201310018561 DE201310018561 DE 201310018561 DE 102013018561 A DE102013018561 A DE 102013018561A DE 102013018561 A1 DE102013018561 A1 DE 102013018561A1
Authority
DE
Germany
Prior art keywords
vehicle
image
correspondences
lane
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201310018561
Other languages
German (de)
Inventor
Fridtjof Stein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE201310018561 priority Critical patent/DE102013018561A1/en
Publication of DE102013018561A1 publication Critical patent/DE102013018561A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns

Abstract

The method involves detecting environment of vehicle by using image acquisition unit. An image (B) of the detected environment of vehicle is analyzed and evaluated. Environment characteristics (M1-Mn) lying ahead about lane of the vehicle are recorded. Each environment characteristic assigns position and orientation of the evaluated image. Road course hypotheses are generated on basis of distribution of correspondences. Self-similarities (W) of environment characteristics accounted for non-relevant correspondence are filtered and discarded in generating road shape hypotheses.

Description

Die Erfindung betrifft ein Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs, wobei eine Umgebung des Fahrzeugs mittels zumindest einer Bilderfassungseinheit erfasst wird und mittels der Bilderfassungseinheit erfasste Bilder analysiert und ausgewertet werden.The invention relates to a method for data acquisition and data processing for a lane recognition of a vehicle, wherein an environment of the vehicle is detected by means of at least one image capture unit and images detected by the image capture unit are analyzed and evaluated.

Die Erfindung betrifft weiterhin eine Verwendung eines solchen Verfahrens zum Betrieb einer Vorrichtung zur Fahrspurerkennung für ein Fahrzeug.The invention further relates to a use of such a method for operating a device for lane detection for a vehicle.

Aus dem Stand der Technik sind allgemein Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs bekannt, wobei die Fahrspuren anhand von Hell-Dunkel-Übergängen mittels einer so genannten Kantendetektion an Fahrspurmarkierungen detektiert werden. Um eine Funktion der Fahrspurerkennung sicherzustellen, ist es zwingend erforderlich, dass Fahrspurmarkierungen vorhanden sind und eine definierte Mindestgröße aufweisen.From the prior art methods for data acquisition and data processing for a lane detection of a vehicle are generally known, wherein the lanes are detected by means of so-called edge-to-edge transitions by means of a so-called edge detection on lane markings. To ensure a lane detection function, it is imperative that lane markings are present and have a defined minimum size.

Aus der DE 103 51 778 A1 ist ein Verfahren zur Korrespondenzanalyse in Bilddatensätzen bekannt. Mittels des Verfahrens werden Bilddaten bewegter Szenarien verarbeitet, um darin befindliche Objekte zu erkennen und zu verfolgen. Es werden in zeitlich aufeinander folgenden Bilddatensätzen miteinander korrespondierende Bildpunkte oder Bildbereiche identifiziert. Dabei werden im Rahmen einer Stereobildverarbeitung in zwei im Wesentlichen zum selben Zeitpunkt aus unterschiedlichen Blickwinkeln aufgenommenen Bildern diejenigen Datenbereiche identifiziert, welche miteinander korrespondieren. Um innerhalb von zwei Bilddatensätzen miteinander korrespondierende Bildpunkte, so genannte Pixel, zu identifizieren, wird in einem ersten Schritt ein erster Bilddatensatz mit einem Signaturoperator derart transformiert, dass für jedes Pixel ein Signaturstring berechnet und in einer Signaturtabelle gemeinsam mit Pixelkoordinaten abgelegt wird. In einem nächsten Schritt wird jedes Pixel des zweiten Bilddatensatzes mittels desselben Signaturoperators transformiert, worauf resultierende Signaturstrings gemeinsam mit jeweiligen Pixelkoordinaten in einer weiteren Signaturtabelle abgelegt werden. Die Einträge der beiden Signaturtabellen werden dahingehend untersucht, ob Signaturstrings vorliegen, welche in beiden Tabellen aufzufinden sind. In diesen Fällen wird für die diesen Signaturstrings zugeordneten Koordinaten eine Korrespondenzhypothese generiert und in einer Hypothesenliste zur Weiterverarbeitung gespeichert.From the DE 103 51 778 A1 a method for correspondence analysis in image data sets is known. By means of the method, image data of moving scenarios are processed in order to recognize and track objects therein. Corresponding pixels or image areas are identified in temporally successive image data sets. In this context, in the context of a stereo image processing, the two data areas which correspond to one another are identified in two images taken at different viewing angles essentially at the same time. In order to identify corresponding pixels, so-called pixels, within two image data sets, a first image data set is transformed with a signature operator in such a way that a signature string is calculated for each pixel and stored together with pixel coordinates in a signature table. In a next step, each pixel of the second image data set is transformed by means of the same signature operator, whereupon resulting signature strings are stored together with respective pixel coordinates in a further signature table. The entries of the two signature tables are examined as to whether there are signature strings which can be found in both tables. In these cases, a correspondence hypothesis is generated for the coordinates assigned to these signature strings and stored in a hypothesis list for further processing.

Weiterhin ist aus der DE 10 2012 013 492 A1 ein Verfahren zur Positionsbestimmung eines Fahrzeugs bekannt, wobei mittels zumindest einer an der zu bestimmenden Position angeordneten Bilderfassungseinheit eine Umgebung erfasst wird. Mittels der Bilderfassungseinheit erfasste Bilder werden analysiert und Bildmerkmale dieser Bilder werden in einem Vergleich mit in einer Datenbank hinterlegten Vergleichsmerkmalen verglichen, wobei für jedes Vergleichsmerkmal Positionsdaten hinterlegt sind. In dem Vergleich wird zusätzlich eine ermittelte Anordnung der Bildmerkmale zueinander berücksichtigt und mit einer Anordnung der hinterlegten Vergleichsmerkmale verglichen. Weiterhin wird in dem Vergleich zusätzlich eine Folge nacheinander erfasster Bildmerkmale mit den Vergleichsmerkmalen verglichen, wobei bei einer Übereinstimmung der Bildmerkmale mit den Vergleichsmerkmalen und einer Übereinstimmung der Anordnung der Bildmerkmale zueinander mit der Anordnung der hinterlegten Vergleichsmerkmale und einer Übereinstimmung der Folge nacheinander erfasster Bildmerkmale mit einer Folge hinterlegter Vergleichsmerkmale die Position aus den hinterlegten Positionsdaten des jeweils übereinstimmenden Vergleichsmerkmals und der jeweils übereinstimmenden Folge von Vergleichsmerkmalen ermittelt wird.Furthermore, from the DE 10 2012 013 492 A1 a method for determining the position of a vehicle is known, wherein an environment is detected by means of at least one image acquisition unit arranged at the position to be determined. Images acquired by the image capture unit are analyzed and image features of these images are compared in a comparison with comparison features stored in a database, with position data being stored for each comparison feature. In the comparison, a determined arrangement of the image features is additionally considered and compared with an arrangement of the deposited comparison features. Furthermore, in the comparison, a sequence of successively acquired image features is additionally compared with the comparison features, with a match of the image features with the comparison features and a correspondence of the arrangement of the image features to each other with the arrangement of the deposited comparison features and a match of the sequence of sequentially acquired image features with a sequence stored comparison features, the position of the stored position data of each matching comparison feature and the respectively matching sequence of comparison features is determined.

Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs und eine Verwendung eines solchen Verfahrens anzugeben.The invention is based on the object to provide a comparison with the prior art improved method for data acquisition and data processing for a lane detection of a vehicle and a use of such a method.

Hinsichtlich des Verfahrens wird die Aufgabe erfindungsgemäß durch die im Anspruch 1 angegebenen Merkmale und hinsichtlich der Verwendung durch die im Anspruch 9 angegebenen Merkmale gelöst.With regard to the method, the object is achieved by the features specified in claim 1 and in terms of the use by the features specified in claim 9.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the dependent claims.

In einem Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs wird eine Umgebung des Fahrzeugs mittels zumindest einer Bilderfassungseinheit erfasst und es werden mittels der Bilderfassungseinheit erfasste Bilder analysiert und ausgewertet.In a method for data acquisition and data processing for a lane recognition of a vehicle, an environment of the vehicle is detected by means of at least one image capture unit, and images captured by the image capture unit are analyzed and evaluated.

Erfindungsgemäß werden in der Analyse und Auswertung Umgebungsmerkmale zumindest im Bereich einer vorausliegenden Fahrspur des Fahrzeugs erfasst und jedem Umgebungsmerkmal werden eine Position und Orientierung im Bild zugeordnet, wobei in einem Bild mehrfach vorkommende korrespondierende Umgebungsmerkmale ermittelt werden und anhand einer Verteilung von Korrespondenzen Straßenverlaufshypothesen erzeugt werden, wobei Selbstähnlichkeiten der Umgebungsmerkmale berücksichtigt werden, indem nicht relevante Korrespondenzen mit einer Länge mit dem Wert Null gefiltert und bei der Erzeugung der Straßenverlaufshypothesen verworfen werden.According to the invention, in the analysis and evaluation, environmental features are detected at least in the area of a preceding lane of the vehicle, and each environmental feature is assigned a position and orientation in the image, corresponding image environment features occurring in an image are determined and roadway hypotheses are generated based on a distribution of correspondences Self-similarities of the environmental features are considered by non-relevant correspondences with a length of zero filtered and discarded when generating the roadway hypotheses.

Aufgrund der Verwendung allgemeiner Umgebungsmerkmale zur Fahrspurerkennung ist auch bei nicht vorhandenen Fahrspurmarkierungen eine sichere Fahrspurerkennung realisierbar, so dass eine höhere Verfügbarkeit von auf der Fahrspurerkennung basierenden Fahrerassistenzsystemen des Fahrzeugs erreicht werden kann. Weiterhin ergibt sich aus der Verwendung allgemeiner Umgebungsmerkmale zur Fahrspurerkennung, dass eine Vorausschau mit einem besonders großen Vorausschauhorizont erzeugt werden kann und ferner auch besonders komplexe Verläufe von Fahrspuren und Fahrbahnen erfasst werden können, welche über ein einfaches so genanntes Klothoidenmodell hinausgeht.Due to the use of general environment features for lane detection, a secure lane detection can be realized even if there are no lane markings, so that a higher availability of lane recognition based driver assistance systems of the vehicle can be achieved. Furthermore, it results from the use of general environmental features for lane detection that a forecast with a particularly large forecast horizon can be generated and also particularly complex gradients of lanes and lanes can be detected, which goes beyond a simple so-called clothoid model.

Gemäß einer möglichen Weiterbildung des erfindungsgemäßen Verfahrens werden Selbstähnlichkeiten der Umgebungsmerkmale berücksichtigt, indem nicht relevante Korrespondenzen in Abhängigkeit ihrer Höhe, ihrer Länge, ihrer Entfernung vom Fahrzeug und/oder ihrer Richtung im jeweiligen Bild gefiltert werden und bei der Erzeugung der Straßenverlaufshypothesen verworfen werden. Aufgrund der Filterung der nicht relevanten Korrespondenzen in Abhängigkeit ihrer Höhe, ihrer Länge, ihrer Entfernung vom Fahrzeug und/oder ihrer Richtung im jeweiligen Bild wird in besonders vorteilhafter Weise eine weitere Erhöhung der Robustheit der Fahrspurerkennung und einer Erkennung von auf einer Fahrspur befindlichen Objekten, d. h. eine Minimierung einer Fehlerhäufigkeit, erzielt. Insbesondere ist es im Gegensatz zum so genannten Klothoidenmodell möglich, eine Spurzuordnung für entfernt vom Fahrzeug detektierte Objekte in einer eigenen Fahrspur oder einer Nachbarfahrspur durchzuführen. Dabei ist es mittels der Selbstähnlichkeitsmerkmale insbesondere möglich, nach einem Gruppierungsschritt einer Freiform, beispielsweise in polygonaler Form, zu modellieren.According to a possible development of the method according to the invention, self-similarities of the environmental features are taken into account by filtering non-relevant correspondences as a function of their height, length, distance from the vehicle and / or direction in the respective image and rejecting them in the generation of the roadway hypotheses. Due to the filtering of the non-relevant correspondences as a function of their height, their length, their distance from the vehicle and / or their direction in the respective image is in a particularly advantageous manner, a further increase the robustness of lane detection and detection of objects located on a lane, d , H. minimizing a frequency of errors achieved. In particular, in contrast to the so-called clothoid model, it is possible to carry out a track assignment for objects detected remotely from the vehicle in a separate lane or a neighboring lane. In this case, it is possible in particular, by means of the self-similarity features, to model after a grouping step of a freeform, for example in polygonal form.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Embodiments of the invention are explained in more detail below with reference to drawings.

Dabei zeigen:Showing:

1 schematisch ein erstes Bild einer Umgebung eines Fahrzeugs mit mehreren Umgebungsmerkmalen, 1 schematically a first image of an environment of a vehicle having multiple environmental features,

2 schematisch das erste Bild gemäß 1 in einer weiteren Darstellung, 2 schematically the first picture according to 1 in a further illustration,

3 schematisch ein zweites Bild einer Umgebung eines Fahrzeugs mit mehreren Umgebungsmerkmalen, 3 schematically a second image of an environment of a vehicle having multiple environmental features,

4 schematisch einen Ablauf eines Verfahrens zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs nach dem Stand der Technik, 4 1 schematically shows a sequence of a method for data acquisition and data processing for a lane recognition of a vehicle according to the prior art,

5 schematisch eine Ermittlung eines optischen Flusses anhand von zwei zu unterschiedlichen Zeitpunkten erfassten Bildern nach dem Stand der Technik, 5 1 schematically shows a determination of an optical flow on the basis of two images acquired at different times in accordance with the prior art,

6 schematisch eine Stereobildverarbeitung von zwei an unterschiedlichen Orten erfassten Bildern nach dem Stand der Technik, 6 schematically a stereo image processing of two detected at different locations images according to the prior art,

7 schematisch eine Ermittlung von Symmetrien zwischen zwei Bildern, wobei eines der Bilder ein Spiegelbild des anderen Bilds ist, 7 schematically a determination of symmetries between two images, wherein one of the images is a mirror image of the other image,

8 schematisch eine Ermittlung von Positionen eines Fahrzeugs und anderen Objekten anhand eines erfassten Bilds, 8th schematically a determination of positions of a vehicle and other objects based on a captured image,

9 schematisch eine Ermittlung von Selbstähnlichkeiten von Umgebungsmerkmalen, 9 schematically a determination of self similarities of environmental features,

10 schematisch eine Vorverarbeitung von erfassten Bildern, 10 schematically a preprocessing of captured images,

11 schematisch ein erstes Ausführungsbeispiel eines Ablaufs eines Verfahrens zur Fahrspurerkennung, 11 schematically a first embodiment of a sequence of a method for lane detection,

12 schematisch ein zweites Ausführungsbeispiel eines Ablaufs eines Verfahrens zur Fahrspurerkennung, 12 schematically a second embodiment of a sequence of a method for lane detection,

13 schematisch eine Ermittlung einer dreidimensionalen Position eines Umgebungsmerkmals, 13 schematically a determination of a three-dimensional position of an environmental feature,

14 schematisch eine erste Ansicht eines dritten Bildes einer Umgebung eines Fahrzeugs mit mehreren Umgebungsmerkmalen, 14 2 is a schematic of a first view of a third image of an environment of a vehicle having multiple environmental features;

15 schematisch eine zweite Ansicht des dritten Bildes gemäß 14, 15 schematically a second view of the third image according to 14 .

16 schematisch ein viertes Bild einer Umgebung eines Fahrzeugs mit mehreren Umgebungsmerkmalen, und 16 schematically a fourth image of an environment of a vehicle with multiple environmental features, and

17 schematisch eine anhand des dritten Bildes gemäß 14 durchgeführte Spurzuordnung. 17 schematically a reference to the third image according to 14 performed track assignment.

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided in all figures with the same reference numerals.

In den 1 und 2 ist ein erstes Bild B einer Umgebung eines in 17 gezeigten Fahrzeugs V mit mehreren Umgebungsmerkmalen M1 bis M5 dargestellt.In the 1 and 2 is a first image B of an environment of an in 17 shown Vehicle V with multiple environmental features M1 to M5 shown.

Im Gegensatz zu aus dem Stand der Technik bekannten Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs V, bei welchen die Fahrspuren anhand von Hell-Dunkel-Übergängen mittels einer so genannten Kantendetektion an Fahrspurmarkierungen detektiert werden, sieht das erfindungsgemäße Verfahren vor, dass eine Umgebung des Fahrzeugs V mittels zumindest einer Bilderfassungseinheit erfasst wird und mittels der Bilderfassungseinheit erfasste Bilder B analysiert und ausgewertet werden. Dabei werden in der Analyse und Auswertung die Umgebungsmerkmale M1 bis M5 zumindest im Bereich einer vorausliegenden Fahrspur des Fahrzeugs V erfasst und jedem Umgebungsmerkmal M1 bis M5 wird eine Position und Orientierung im Bild B zugeordnet. In einem Bild B mehrfach vorkommende korrespondierende Umgebungsmerkmale M1 bis M5, im dargestellten Ausführungsbeispiel das Merkmal M4, werden ermittelt und anhand einer Verteilung von Korrespondenzen werden Straßenverlaufshypothesen erzeugt.In contrast to known from the prior art method for data acquisition and data processing for a lane detection of a vehicle V, in which the lanes are detected on the basis of light-dark transitions by means of a so-called edge detection on lane markings, the inventive method provides that a Environment of the vehicle V is detected by means of at least one image capture unit and captured by the image capture unit images B are analyzed and evaluated. In the analysis and evaluation, the environmental features M1 to M5 are detected at least in the region of a preceding lane of the vehicle V, and each environment feature M1 to M5 is assigned a position and orientation in the image B. In a picture B multiple occurring corresponding environmental features M1 to M5, in the illustrated embodiment, the feature M4 are determined and based on a distribution of correspondence roadway hypotheses are generated.

Das heißt, im Gegensatz zur kantenbasierten Markierungsvermessung bisheriger Ansätze werden repetitive lokale Umgebungsmerkmale M1 bis M5 verwendet, welche sowohl einen Ort bzw. eine Position im Bild B besitzen, als auch eine Orientierung. Dabei werden mehrfach vorhandene Umgebungsmerkmale M1 bis M5, hier das Merkmal M4, miteinander verbunden, so dass ein Gesamtumgebungsmerkmal gebildet wird.That is, in contrast to the edge-based marking measurement of previous approaches, repetitive local environmental features M1 to M5 are used, which both have a location or a position in image B, as well as an orientation. Here are several existing environmental features M1 to M5, here the feature M4, connected to each other, so that an overall environment feature is formed.

Dadurch ist es möglich, bei mittels Monokameras erfassten Bildern B unter Verwendung von Annahmen und bei stereoskopisch erfassten Bildern B datengestützt auf eine dreidimensionale Lage eines mittels des entsprechenden Merkmals M1 bis M5 im Bild B repräsentierten und beispielsweise in 17 dargestellten Objekts O im Raum zu schließen.This makes it possible, in the case of images B captured by monocameras, to use data based on assumptions and stereoscopically recorded images B on a three-dimensional position of one represented by the corresponding feature M1 to M5 in image B and, for example, in FIG 17 to close object O shown in the room.

Jede ermittelte Korrespondenz ”voted” in einem mehrdimensionalen Akkumulatorraum, in einem Dualraum und/oder in einem Clusterraum für bestimmte Fahrbahn- und Fahrspurverläufe, d. h. für bestimmte Kombinationen von Krümmungen, Ablagen und Gierwinkeln. Häufungsgruppen im Akkumulatorraum, Dualraum und/oder Clusterraum entsprechen dabei verschiedenen Staßenverlaufshypothesen, wobei eine Breite der Häufungen einer Messungenauigkeit, der so genannten Varianz, entspricht. Die Berechnung der Korrespondenzen erfolgt dabei wie in 9 dargestellt.Each determined correspondence "voted" in a multi-dimensional accumulator space, in a dual space and / or in a cluster room for certain lane and lane courses, ie for certain combinations of curvatures, shelves and yaw angles. Clustering groups in the accumulator space, dual space and / or cluster space correspond to different road course hypotheses, wherein a width of the accumulations corresponds to a measurement inaccuracy, the so-called variance. The correspondence is calculated as in 9 shown.

Hierbei ist das Auftreten von mehrfachen Korrespondenzen zulässig, wie es in 3 am Beispiel des Umgebungsmerkmals M4 dargestellt ist.In this case, the occurrence of multiple correspondences is allowed, as in 3 is shown using the example of the environment feature M4.

4 zeigt einen Ablauf eines Verfahrens zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs V nach dem Stand der Technik. Hierbei wird eine Umgebung des Fahrzeugs V mittels einer Bilderfassungseinheit erfasst und mittels der Bilderfassungseinheit erfasste Bilder B werden analysiert und ausgewertet. 4 1 shows a flow of a method for data acquisition and data processing for a lane recognition of a vehicle V according to the prior art. Here, an environment of the vehicle V is detected by an image capturing unit, and images B captured by the image capturing unit are analyzed and evaluated.

In der Analyse und Auswertung werden Fahrspurmarkierungen FS im Bild B anhand von Hell-Dunkel-Übergängen mittels der so genannten Kantendetektion detektiert und gemeinsam mit Fahrzeugdaten FD, beispielsweise einer Eigengeschwindigkeit und Eigenbewegung des Fahrzeugs V, einer Gierrate, einer Beschleunigung und weiteren Daten, einer Messgleichung eines Straßenmodells SM zugeführt. Anhand dieses Straßenmodells SM und eines dynamisch rekursiven Filters F, beispielsweise eines Kalman-Filters, werden Spurparameter SP ermittelt und zum Betrieb einer Anwendung A, beispielsweise einem Fahrerassistenzsystem zur Spurführung, dieser zugeführt. Die Spurparameter SP umfassen insbesondere eine Ablage, einen Gierwinkel, eine Krümmung, eine Krümmungsänderung, einen Markierungstyp, eine Nachbarspur und weitere Parameter.In the analysis and evaluation, lane markings FS are detected in image B on the basis of light-dark transitions by means of the so-called edge detection and together with vehicle data FD, for example an airspeed and proper motion of the vehicle V, a yaw rate, acceleration and other data, a measurement equation a road model SM supplied. On the basis of this road model SM and a dynamically recursive filter F, for example a Kalman filter, track parameters SP are determined and supplied to the operation of an application A, for example a driver assistance system for tracking, this. In particular, the track parameters SP include a shelf, a yaw angle, a curvature, a curvature change, a mark type, a neighbor track, and other parameters.

In 5 ist eine Ermittlung eines optischen Flusses OF in einer Korrespondenzberechnung KB anhand von zwei zeitlich nacheinander erfassten Bildern B(t1), B(t2) nach dem Stand der Technik dargestellt. Die Korrespondenzberechnung KB erfolgt dabei mittels des aus der DE 103 51 778 A1 bekannten Verfahrens zur Korrespondenzanalyse in Bilddatensätzen, um innerhalb von zwei Bilddatensätzen miteinander korrespondierende Bildpunkte, auch als Pixel bezeichnet, zu identifizieren. Hierbei wird in einem ersten Schritt das Bild B(t1) mit einem Signaturoperator derart transformiert, dass für jedes Pixel ein Signaturstring berechnet und in einer Signaturtabelle gemeinsam mit den zugehörigen Pixelkoordinaten abgelegt wird. In einem nächsten Schritt wird jedes Pixel des anderen Bilds B(t2) mittels desselben Signaturoperators transformiert. Anschließend werden die resultierenden Signaturstrings gemeinsam mit den jeweiligen Pixelkoordinaten in einer weiteren Signaturtabelle abgelegt, wobei die Einträge der beiden Signaturtabellen dahingehend untersucht werden, ob Signaturstrings vorliegen, welche in beiden Tabellen aufzufinden sind. In diesen Fällen wird für die diesen Signaturstrings zugeordneten Koordinaten eine Korrespondenzhypothese generiert und in einer Hypothesenliste zur Weiterverarbeitung gespeichert.In 5 2, a determination of an optical flow OF in a correspondence calculation KB is shown on the basis of two temporally sequentially acquired images B (t1), B (t2) according to the prior art. The correspondence calculation KB is carried out by means of the DE 103 51 778 A1 known method for correspondence analysis in image data sets to identify within two image data sets corresponding pixels, also referred to as pixels. Here, in a first step, the image B (t1) is transformed with a signature operator such that a signature string is calculated for each pixel and stored in a signature table together with the associated pixel coordinates. In a next step, each pixel of the other image B (t2) is transformed by means of the same signature operator. Subsequently, the resulting signature strings are stored together with the respective pixel coordinates in a further signature table, wherein the entries of the two signature tables are examined to see whether there are signature strings which can be found in both tables. In these cases, a correspondence hypothesis is generated for the coordinates assigned to these signature strings and stored in a hypothesis list for further processing.

6 zeigt eine Stereobildverarbeitung von zwei an unterschiedlichen Orten, insbesondere zur gleichen Zeit stereoskopisch erfassten Bildern B(c1), B(c2) nach dem Stand der Technik, wobei die Stereobildverarbeitung analog zu dem oben beschriebenen und aus der DE 103 51 778 A1 bekannten Verfahren zur Korrespondenzanalyse in Bilddatensätzen in der Korrespondenzberechnung KB durchgeführt. Hierbei werden insbesondere Disparitäten D ermittelt. 6 2 shows stereo image processing of two prior art images B (c1), B (c2) stereoscopically acquired at different locations, in particular at the same time, wherein the stereo image processing is analogous to that described above and from FIG DE 103 51 778 A1 known methods for correspondence analysis in image data records in the correspondence calculation KB performed. In particular, disparities D are determined here.

In 7 ist eine Ermittlung von Symmetrien Sym zwischen zwei Bildern B, B', wobei ein Bild B ein Spiegelbild des anderen Bilds B ist. Eine Korrespondenzberechnung KB zur Ermittlung der Symmetrien Sym erfolgt beispielsweise ebenfalls mittels des aus der DE 103 51 778 A1 bekannten Verfahrens zur Korrespondenzanalyse.In 7 is a determination of symmetries Sym between two images B, B ', where one image B is a mirror image of the other image B. A correspondence calculation KB for determining the symmetries Sym, for example, also by means of the DE 103 51 778 A1 known method for correspondence analysis.

8 zeigt eine Ermittlung von Positionen POS des eigenen Fahrzeugs V und anderer Objekte O anhand eines Bilds B. Die dazu verwendete Korrespondenzberechnung KB wird anhand eines Verfahrens zur Selbstlokalisation eines Fahrzeugs V und zur Detektion von Objekten O in der Umgebung des Fahrzeugs V durchgeführt, wobei die Umgebung mittels zumindest einer Bilderfassungseinheit erfasst wird und mittels der Bilderfassungseinheit erfasste Bilder B analysiert werden. Dabei werden Bildmerkmale der Bilder B mit in einer Datenbank DB hinterlegten Vergleichsmerkmalen und/oder ermittelte Anordnungen von Bildmerkmalen zueinander mit Anordnungen hinterlegter Vergleichsmerkmale verglichen. Bei einer Übereinstimmung von Bildmerkmalen mit den Vergleichsmerkmalen und/oder von Anordnungen von Bildmerkmalen mit Anordnungen von Vergleichsmerkmalen wird eine Position POS des Fahrzeugs V aus zu den Vergleichsmerkmalen und/oder Anordnungen von Vergleichsmerkmalen hinterlegten Positionsdaten. Als Bildmerkmale und Vergleichsmerkmale werden hierbei durch Merkmalssignaturen beschriebene pixel-basierte Bereiche in den Bildern verwendet. 8th shows a determination of positions POS of the own vehicle V and other objects O based on an image B. The correspondence calculation KB used for this purpose is carried out on the basis of a method for self-localization of a vehicle V and for detection of objects O in the vicinity of the vehicle V, the environment is detected by at least one image capture unit and images captured by the image capture unit B are analyzed. In this case, image features of the images B are compared with comparison features stored in a database DB and / or determined arrangements of image features relative to one another with arrangements of stored comparison features. In the case of a match of image features with the comparison features and / or arrangements of image features with arrangements of comparison features, a position POS of the vehicle V becomes position data stored relative to the comparison features and / or arrangements of comparison features. As image features and comparison features, pixel-based regions described by feature signatures are used in the images.

Im Gegensatz zu den in 5 und 8 dargestellten Verfahren, mittels welchen versucht wird, alle repetitiven, d. h. mehrfach im Bild B vorkommende Umgebungsmerkmale M1 bis M5 herauszufiltern, werden gerade diese mehrfach im Bild B vorkommenden Merkmale M1 bis M5 beim erfindungsgemäßen Verfahren zur Erzeugung von Straßenverlaufshypothesen verwendet.Unlike the in 5 and 8th The method described by means of which it is attempted to filter out all the repetitive environment features M1 to M5 which occur multiple times in image B, precisely these features M1 to M5 occurring several times in image B are used in the method according to the invention for generating roadway hypotheses.

Dies zeigt 9, wobei in der Analyse und Auswertung die Umgebungsmerkmale M1 bis Mn zumindest im Bereich der vorausliegenden Fahrspur des Fahrzeugs V erfasst werden und jedem Umgebungsmerkmal M1 bis Mn eine Position und Orientierung im Bild B zugeordnet werden. Anschließend werden in dem Bild B mehrfach vorkommende korrespondierende Umgebungsmerkmale M1 bis Mn ermittelt und anhand einer Verteilung von Korrespondenzen zwischen den mehrfach vorkommenden Umgebungsmerkmalen M1 bis Mn Selbstähnlichkeiten W der Umgebungsmerkmale M1 bis Mn ermittelt. Hierbei werden nicht relevante Korrespondenzen mit einer Länge mit dem Wert Null in einem Verfahrensschritt VS gefiltert und verworfen. Die ermittelten Selbstähnlichkeiten W werden dagegen bei der Ermittlung von Straßenverlaufshypothesen berücksichtigt.this shows 9 , wherein in the analysis and evaluation, the environmental features M1 to Mn are detected at least in the area of the preceding lane of the vehicle V and each environment feature M1 to Mn a position and orientation in the image B are assigned. Subsequently, in the image B, mutually occurring corresponding environmental features M1 to Mn are determined and determined on the basis of a distribution of correspondences between the multiple occurring environmental features M1 to Mn self similarities W of the environmental features M1 to Mn. In this case, non-relevant correspondences having a length with the value zero are filtered in a method step VS and discarded. On the other hand, the determined self similarities W are taken into account when determining roadway hypotheses.

In 10 ist ein mögliches Ausführungsbeispiel des erfindungsgemäßen Verfahrens dargestellt, wobei zusätzlich zu dem in 9 dargestellten Ausführungsbeispiel vor der Analyse und Auswertung der Bilder B eine Vorverarbeitung der Bilder B durchgeführt wird. In dieser wird eine geometrische und perspektivische Entzerrung E der Bilder B durchgeführt und es wird ein entzerrtes Bild B'' erzeugt, welches sich dadurch auszeichnet, dass weiter entfernte Umgebungsmerkmale M1 bis Mn auf dem entzerrten Bild B'' vergrößert dargestellt sind.In 10 a possible embodiment of the method according to the invention is shown, wherein in addition to the in 9 illustrated embodiment before the analysis and evaluation of the images B preprocessing of the images B is performed. In this, a geometric and perspective equalization E of the images B is performed and an equalized image B "is generated, which is characterized in that more distant environmental features M1 to Mn on the rectified image B" are enlarged.

Sowohl eine in 9 als auch in 10 dargestellte Korrespondenzberechnung KB1 erfolgt dabei in einem in den 11 und 12 dargestellten mehrdimensionalen Raum R, insbesondere einem so genannten Akkumulatorraum, in einem Dualraum mittels einer Hough-Transformation und/oder in einem Clusterraum.Both an in 9 as well as in 10 illustrated correspondence calculation KB1 takes place in a in the 11 and 12 represented multi-dimensional space R, in particular a so-called accumulator space, in a dual space by means of a Hough transformation and / or in a cluster space.

11 zeigt ein erstes Ausführungsbeispiel eines Ablaufs eines Verfahrens zur Fahrspurerkennung. Dabei wird das in 9 dargestellte Verfahren mit dem in 4 dargestellten Verfahren gekoppelt, um die Spurparameter SP zum Betrieb der beispielsweise als Spurführung ausgebildeten Anwendung A zu verwenden. Die Kopplung der Verfahren findet dabei im dynamischen und rekursiven Filter F statt, wobei die Ermittlung der Korrespondenzen KO mittels des erfindungsgemäßen Verfahrens erfolgt. 11 shows a first embodiment of a procedure of a method for lane detection. In doing so, the in 9 illustrated method with the in 4 coupled method shown in order to use the track parameters SP for operating the trained example, as a tracking application A. The coupling of the methods takes place in the dynamic and recursive filter F, wherein the determination of the correspondences KO by means of the method according to the invention takes place.

Dabei werden die in dem Bild B vorhandenen Umgebungsmerkmale in den mehrdimensionalen Raum R überführt, welcher im dargestellten Ausführungsbeispiel als Dimensionen den Gierwinkel φ, die Ablage AB, die Krümmung KR und die Krümmungsänderung ΔKR aufweist. Korrespondenzen KO von mehrfach im Bild B vorkommenden Umgebungsmerkmalen M1 bis Mn werden unter Berücksichtung eines Schwerpunkts und der Varianz der Messgleichung des Straßenmodells SM zugeführt und anhand des Straßenmodells SM und des dynamisch rekursiven Filters F, beispielsweise eines Kalman-Filters, werden die Spurparameter SP ermittelt und zum Betrieb der Anwendung A dieser zugeführt.In this case, the environmental features present in the image B are transferred into the multidimensional space R, which in the illustrated embodiment has as dimensions the yaw angle φ, the tray AB, the curvature KR and the curvature change ΔKR. Correspondences KO of environment features M1 to Mn occurring several times in image B are supplied with consideration of a center of gravity and the variance of the measurement equation of the road model SM and the lane parameters SP are determined using the road model SM and the dynamically recursive filter F, for example a Kalman filter to operate the application A of these supplied.

So genannte Ausreißer, wie im dargestellten Ausführungsbeispiel das Umgebungsmerkmal M1, werden dabei nicht berücksichtigt.So-called outliers, as in the illustrated embodiment, the surrounding feature M1, are not taken into account.

Ein weiteres Ausführungsbeispiel eines Ablaufs eines Verfahrens zur Fahrspurerkennung ist in 12 dargestellt. Dabei wird das in 9 dargestellte Verfahren mit dem in 4 dargestellten Verfahren gekoppelt, um die Spurparameter SP zum Betrieb der beispielsweise als Spurführung ausgebildeten Anwendung A zu verwenden.A further embodiment of a sequence of a method for lane recognition is in 12 shown. In doing so, the in 9 illustrated method with the in 4 coupled to the track parameters SP for Operation of the example designed as a tracking application to use A.

Hierbei werden Fahrspurmarkierungen FS im Bild B anhand von Hell-Dunkel-Übergängen mittels der so genannten Kantendetektion detektiert und dem Filter F zugeführt. Weiterhin werden die detektierten Fahrspurmarkierungen FS dem mehrdimensionalen Raum R zugeführt, wobei in diesem die Korrespondenzen KO zwischen mehrfach im Bild B vorkommenden Umgebungsmerkmalen M1 bis Mn, hier Fahrspurmarkierungen FS, ermittelt und ebenfalls dem Filter F unter Berücksichtung des Schwerpunkts und der Varianz zugeführt werden.In this case, lane markings FS are detected in image B on the basis of light-dark transitions by means of the so-called edge detection and fed to the filter F. Furthermore, the detected lane markings FS are the multi-dimensional space R supplied, in which the correspondences KO between multiple occurring in the image B environment features M1 to Mn, here lane markings FS, determined and also the filter F, taking into account the center of gravity and the variance are supplied.

Im Filter F werden die Korrespondenzen KO und die mittels Kantendetektion ermittelten Fahrspurmarkierungen FS fusioniert, der Messgleichung des Straßenmodells SM zugeführt und anhand des Straßenmodells SM und des dynamisch rekursiven Filters F werden die Spurparameter SP ermittelt und zum Betrieb der Anwendung A dieser zugeführt.The correspondences KO and the lane markings FS determined by edge detection are fused in the filter F, supplied to the measurement equation of the road model SM, and the lane parameters SP are determined based on the road model SM and the dynamically recursive filter F and supplied to the application A for operation thereof.

13 zeigt eine Ermittlung einer dreidimensionalen Position eines als Selbstähnlichkeitsmerkmal ausgebildeten Umgebungsmerkmals M1 eines Bildes B im Raum R mit den Raumkoordinaten X, Y, Z. Die dreidimensionale Position ist dabei jeweils durch die Raumkoordinaten x1, y1, z1, x2, y2, z2 gekennzeichnet und wird anhand einer aus stereoskopisch erfassten Bildern B ermittelten Tiefeninformation TI bestimmt. 13 1 shows a determination of a three-dimensional position of an environment feature M1 of an image B in space R with spatial coordinates X, Y, Z formed as a self-similarity feature. The three-dimensional position is in each case defined by the spatial coordinates x 1 , y 1 , z 1 , x 2 , y 2 , z 2 and is determined on the basis of a determined from stereoscopic images B depth information TI.

Somit sind vom Umgebungsmerkmal M1 eine Höhe, eine Entfernung zur Bilderfassungseinheit, d. h. zum Fahrzeug V, und eine relative Richtung zum Fahrzeug V ermittelbar. Beim dargestellten, eine Korrespondenz KO und somit ein Selbstähnlichkeitmerkmal bildenden Umgebungsmerkmal M1 liegen somit jeweils zwei Höhenwerte, Entfernungswerte und Richtungswerte vor.Thus, the ambient feature M1 is a height, a distance to the image capture unit, i. H. to the vehicle V, and a relative direction to the vehicle V can be determined. In the case of the illustrated environmental feature M1, which forms a correspondence KO and thus a self-similarity feature, two altitude values, distance values and direction values are thus present in each case.

Hierdurch können Selbstähnlichkeiten W der Umgebungsmerkmale M1 bis Mn berücksichtigt werden, indem nicht relevante Korrespondenzen KO von Umgebungsmerkmalen M1 bis Mn in Abhängigkeit ihrer Höhe, ihrer Länge, ihrer Entfernung vom Fahrzeug V und/oder ihrer Richtung im jeweiligen Bild B gefiltert werden und bei der Erzeugung der Straßenverlaufshypothesen verworfen werden.As a result, self-similarities W of the environmental features M1 to Mn can be taken into account by filtering non-relevant correspondences KO from environmental features M1 to Mn as a function of their height, length, distance from the vehicle V and / or their direction in the respective image B and during generation the roadway hypotheses are discarded.

Dabei werden Korrespondenzen KO bzw. Selbstähnlichkeitsmerkmale, deren Länge eine vorgegebene Minimallänge unterschreitet oder deren Länge eine vorgegebene Maximallänge überschreitet, gefiltert. Durch Vorgabe der Minimallänge und Maximallänge wird eine euklidische Länge der Selbstähnlichkeitsmerkmale begrenzt. Beispielsweise ist eine Aussage eines 2 cm langen Selbstähnlichkeitsmerkmals zur Krümmungsschätzung nicht sinnvoll, ebenso wie ein Selbstähnlichkeitsmerkmal mit der Länge von 300 m.In this case, correspondences KO or self-similarity features, the length of which falls below a predetermined minimum length or whose length exceeds a predetermined maximum length, are filtered. By specifying the minimum length and maximum length, a Euclidean length of the self-similarity features is limited. For example, a statement of a 2 cm long self-similarity feature for curvature estimation does not make sense, as well as a self-similarity feature with the length of 300 m.

In 14 ist eine erste Ansicht eines dritten Bildes B einer Umgebung des Fahrzeugs V dargestellt, wobei die Umgebungsmerkmale M1 bis M12 bzw. Korrespondenzen KO der Umgebungsmerkmale M1 bis M12, d. h. Selbstähnlichkeitsmerkmale, welche oberhalb einer vorgegebenen Sollhöhe über einer vor dem Fahrzeug V befindlichen Fahrbahn erfasst werden, mittels eines Fahrbahnhöhenfilters gefiltert werden.In 14 a first view of a third image B of an environment of the vehicle V is shown, wherein the environmental features M1 to M12 or correspondences KO of the environmental features M1 to M12, ie self-similarity features, which are detected above a predetermined target height above a vehicle V ahead lane, be filtered by means of a roadway height filter.

Das heißt, alle Selbstähnlichkeitsmerkmale, bei denen sich die beiden Enden nicht fahrbahnnah, also in einem bestimmten Höhenbereich über der Fahrbahn befinden, werden ausgefiltert. Damit wird eine Ausreißerzahl signifikant reduziert. Beispielsweise werden dadurch Selbstähnlichkeitsmerkmale, welche auf Leitpfosten oder Baumstämmen detektiert werden, ausgefiltert. Da mit zunehmender Entfernung die Messgenauigkeit von stereoskopischen Bilderfassung und -verarbeitung triangulierungsbedingt nachlässt, wird die Sollhöhe in Abhängigkeit der Entfernung der jeweiligen Korrespondenz KO bzw. des jeweiligen Selbstähnlichkeitsmerkmals variabel vorgegeben.That is, all Selbstähnlichkeitsmerkmale in which the two ends are not close to the road, so in a certain altitude range above the road are filtered out. This significantly reduces an outlier number. For example, self-similarity features detected on guide posts or logs are thereby filtered out. Since with increasing distance the measurement accuracy of stereoscopic image acquisition and processing decreases due to the triangulation, the desired height is variably predetermined as a function of the distance of the respective correspondence KO or of the respective self-similarity feature.

15 zeigt eine zweite Ansicht des dritten Bildes B der Umgebung des Fahrzeugs V, wobei die Umgebungsmerkmale M1 bis M8 bzw. Korrespondenzen KO der Umgebungsmerkmale M1 bis M8, d. h. Selbstähnlichkeitsmerkmale, deren Entfernung zum Fahrzeug V eine vorgegebene Minimalentfernung unterschreitet oder deren Entfernung zum Fahrzeug V eine vorgegebene Maximalentfernung überschreitet, gefiltert werden. 15 shows a second view of the third image B of the surroundings of the vehicle V, wherein the environmental features M1 to M8 or correspondences KO of the environmental features M1 to M8, ie Selbstähnlichkeitsmerkmale whose distance from the vehicle V a predetermined minimum distance below or their distance from the vehicle V a predetermined Maximum distance exceeds filtered.

In 16 ist ein viertes Bild B einer Umgebung des Fahrzeugs V dargestellt, wobei die Umgebungsmerkmale M1 bis M10 bzw. Korrespondenzen KO der Umgebungsmerkmale M1 bis M10, d. h. Selbstähnlichkeitsmerkmale, deren Richtung im Bild B beispielsweise einem Fahrbahnverlauf widerspricht, mittels eines Richtungsfilters ausgefiltert werden. Das heißt, bei der Frage nach möglichen Fahrbahnrichtungen ist nur ein begrenzter Winkelbereich sinnvoll. Diese Information kann auch vom Fahrbahnverlauf im vorherigen Bild B beeinflusst werden. Folgt das Fahrzeug V beispielsweise einem geraden Fahrbahnverlauf, können nahezu horizontal im Bild B verlaufende Selbstähnlichkeitsmerkmale, wie im dargestellten Bild B die Umgebungsmerkmale M1 bis M10 direkt vor dem Fahrzeug V ausgeschlossen werden.In 16 A fourth image B of an environment of the vehicle V is shown, wherein the environmental features M1 to M10 or correspondences KO of the environmental features M1 to M10, ie self-similarity characteristics whose direction in the image B contradicts, for example, a lane course, are filtered out by means of a directional filter. That is, in the question of possible road directions only a limited angular range makes sense. This information can also be influenced by the lane course in the previous image B. If, for example, the vehicle V follows a straight course of the road, self-similarity features running almost horizontally in the image B, as in the image B shown, the environmental features M1 to M10 directly in front of the vehicle V can be excluded.

17 zeigt eine anhand des dritten Bildes B gemäß 14 durchgeführte Spurzuordnung des eigenen Fahrzeugs V und eines dem Fahrzeug V entgegenkommenden Objekts O. 17 shows a reference to the third image B according to 14 performed lane allocation of the own vehicle V and the vehicle V oncoming object O.

Insbesondere dann, wenn der Fahrbahnverlauf nicht mittels einer so genannten Klothoide modellierbar ist, ist mit dem in den vorherigen 1 bis 16 beschriebenen Ansatz nach einer Verbindung von zusammengehörenden Segmenten eine polygonale Spurverlaufsmodellierung möglich, welche eine Spurzuordnung des eigenen Fahrzeugs V und detektierter Objekte O zulässt. Somit ist in besonders vorteilhafter und zuverlässiger Art und Weise ermittelbar, ob ein dem Fahrzeug V entgegenkommendes Objekt O sich auf der gleichen Fahrspur wie das eigene Fahrzeug V befindet oder nicht und somit eine Gefahr darstellt oder nicht. Die Fahrspurerkennung erfolgt dabei insbesondere wie in den 11 und 12 dargestellt. In particular, when the road course is not modeled by means of a so-called clothoid, is with that in the previous 1 to 16 described approach after a connection of related segments, a polygonal lane course modeling possible, which allows a lane allocation of the own vehicle V and detected objects O. Thus, it can be determined in a particularly advantageous and reliable manner whether or not an object O coming towards the vehicle V is located on the same lane as the driver's own vehicle V or not and thus represents a danger or not. The lane recognition takes place in particular as in the 11 and 12 shown.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

  • AA
    Anwendungapplication
    ABFROM
    Ablagefiling
    BB
    Bildimage
    B'B '
    gespiegeltes Bildmirrored image
    B''B '
    entzerrtes Bildrectified image
    B(c1), B(c2)B (c1), B (c2)
    Bildimage
    B(t1), B(t2)B (t1), B (t2)
    Bildimage
    DD
    Disparitätdisparity
    Ee
    Entzerrungequalization
    DBDB
    DatenbankDatabase
    FF
    Filterfilter
    FSFS
    Fahrspurmarkierunglane marker
    FDFD
    Fahrzeugdatenvehicle data
    KB,KB,
    KB1 KorrespondenzberechnungKB1 correspondence calculation
    KOKO
    KorrespondenzCorrespondence
    KRKR
    Krümmungcurvature
    M1M1
    bis Mn Umgebungsmerkmalto Mn environment feature
    OO
    Objektobject
    OFOF
    optischer Flussoptical flow
    POSPOS
    Positionposition
    RR
    Raumroom
    SMSM
    Straßenmodellroad model
    SPSP
    Spurparametertrack parameters
    Symsym
    Symmetriesymmetry
    VV
    Fahrzeugvehicle
    VSVS
    Verfahrensschrittstep
    WW
    Selbstähnlichkeitself-similarity
    XX
    Raumkoordinatespatial coordinate
    YY
    Raumkoordinatespatial coordinate
    ZZ
    Raumkoordinatespatial coordinate
    x1, x2 x 1 , x 2
    Raumkoordinatespatial coordinate
    y1, y2 y 1 , y 2
    Raumkoordinatespatial coordinate
    z1, z2 z 1 , z 2
    Raumkoordinatespatial coordinate
    ΔKRΔKR
    Gierwinkelyaw
    ΦΦ
    Gierwinkelyaw

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 10351778 A1 [0004, 0041, 0042, 0043] DE 10351778 A1 [0004, 0041, 0042, 0043]
  • DE 102012013492 A1 [0005] DE 102012013492 A1 [0005]

Claims (9)

Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs (V), wobei eine Umgebung des Fahrzeugs (V) mittels zumindest einer Bilderfassungseinheit erfasst wird und mittels der Bilderfassungseinheit erfasste Bilder (B) analysiert und ausgewertet werden, dadurch gekennzeichnet, dass in der Analyse und Auswertung Umgebungsmerkmale (M1 bis Mn) zumindest im Bereich einer vorausliegenden Fahrspur des Fahrzeugs (V) erfasst werden und jedem Umgebungsmerkmal (M1 bis Mn) eine Position und Orientierung im Bild (B) zugeordnet werden, wobei in einem Bild (B) mehrfach vorkommende korrespondierende Umgebungsmerkmale (M1 bis Mn) ermittelt werden und anhand einer Verteilung von Korrespondenzen (KO) Straßenverlaufshypothesen erzeugt werden, wobei Selbstähnlichkeiten (W) der Umgebungsmerkmale (M1 bis Mn) berücksichtigt werden, indem nicht relevante Korrespondenzen (KO) mit einer Länge mit dem Wert Null gefiltert und bei der Erzeugung der Straßenverlaufshypothesen verworfen werden.Method for data acquisition and data processing for a lane recognition of a vehicle (V), wherein an environment of the vehicle (V) is detected by means of at least one image acquisition unit and images (B) acquired by the image acquisition unit are analyzed and evaluated, characterized in that in the analysis and Evaluation ambient characteristics (M1 to Mn) are detected at least in the area of a preceding lane of the vehicle (V) and each environment feature (M1 to Mn) are assigned a position and orientation in the image (B), wherein in a picture (B) repeatedly occurring corresponding Environmental characteristics (M1 to Mn) are determined and generated by a distribution of correspondences (KO) roadway hypotheses, with self similarities (W) of the environmental features (M1 to Mn) are taken into account by non-relevant correspondences (KO) with a length of zero filtered and in the generation of roadway hypotheses v be thrown. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass Selbstähnlichkeiten (W) der Umgebungsmerkmale (M1 bis Mn) berücksichtigt werden, indem nicht relevante Korrespondenzen (KO) in Abhängigkeit ihrer Höhe, ihrer Länge, ihrer Entfernung vom Fahrzeug (V) und/oder ihrer Richtung im jeweiligen Bild (B) gefiltert werden und bei der Erzeugung der Straßenverlaufshypothesen verworfen werden.A method according to claim 1, characterized in that self similarities (W) of the environmental features (M1 to Mn) are taken into account by non-relevant correspondences (KO) depending on their height, their length, their distance from the vehicle (V) and / or their direction in the respective image (B) are filtered and discarded when generating the roadway hypotheses. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Korrespondenzen (KO) in einem mehrdimensionalen Akkumulatorraum, in einem Dualraum mittels einer Hough-Transformation und/oder in einem Clusterraum ermittelt werden.Method according to claim 1 or 2, characterized in that the correspondences (KO) are determined in a multi-dimensional accumulator space, in a dual space by means of a Hough transformation and / or in a cluster space. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass vor der Analyse und Auswertung der Bilder (B) eine Vorverarbeitung der Bilder (B) durchgeführt wird, wobei in der Vorverarbeitung eine geometrische und perspektivische Entzerrung (E) der Bilder (B) durchgeführt wird.Method according to one of the preceding claims, characterized in that prior to the analysis and evaluation of the images (B), a preprocessing of the images (B) is performed, wherein in the preprocessing a geometric and perspective equalization (E) of the images (B) is performed , Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Korrespondenzen (KO), welche oberhalb einer vorgegebenen Sollhöhe über einer vor dem Fahrzeug (V) befindlichen Fahrbahn erfasst werden, gefiltert werden.Method according to one of the preceding claims, characterized in that correspondences (KO) which are detected above a predetermined nominal height above a roadway located in front of the vehicle (V) are filtered. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Sollhöhe in Abhängigkeit einer Entfernung der jeweiligen Korrespondenz (KO) variabel vorgegeben wird.A method according to claim 5, characterized in that the desired height is set variably in dependence on a distance of the respective correspondence (KO). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Korrespondenzen (KO), deren Länge eine vorgegebene Minimallänge unterschreitet oder deren Länge eine vorgegebene Maximallänge überschreitet, gefiltert werden.Method according to one of the preceding claims, characterized in that correspondences (KO), the length of which falls below a predetermined minimum length or whose length exceeds a predetermined maximum length, are filtered. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Korrespondenzen (KO), deren Entfernung zum Fahrzeug (V) eine vorgegebene Minimalentfernung unterschreitet oder deren Entfernung zum Fahrzeug (V) eine vorgegebene Maximalentfernung überschreitet, gefiltert werden.Method according to one of the preceding claims, characterized in that correspondences (KO) whose distance from the vehicle (V) falls below a predetermined minimum distance or whose distance from the vehicle (V) exceeds a predetermined maximum distance are filtered. Verwendung eines Verfahrens nach einem der vorhergehenden Ansprüche zum Betrieb einer Vorrichtung zur Fahrspurerkennung für ein Fahrzeug (V).Use of a method according to one of the preceding claims for operating a device for lane recognition for a vehicle (V).
DE201310018561 2013-09-05 2013-11-05 Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses Withdrawn DE102013018561A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201310018561 DE102013018561A1 (en) 2013-09-05 2013-11-05 Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102013014694.1 2013-09-05
DE102013014694 2013-09-05
DE201310018561 DE102013018561A1 (en) 2013-09-05 2013-11-05 Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses

Publications (1)

Publication Number Publication Date
DE102013018561A1 true DE102013018561A1 (en) 2014-06-18

Family

ID=50821486

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310018561 Withdrawn DE102013018561A1 (en) 2013-09-05 2013-11-05 Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses

Country Status (1)

Country Link
DE (1) DE102013018561A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014223259A1 (en) 2014-11-14 2016-05-19 Conti Temic Microelectronic Gmbh Method for estimating the lane course of a roadway
DE102016214045A1 (en) * 2016-07-29 2018-02-01 Bayerische Motoren Werke Aktiengesellschaft Method and device for determining a roadway model for a vehicle environment
DE102018008247A1 (en) 2018-10-18 2019-04-04 Daimler Ag Method for data acquisition and data processing for a vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10351778A1 (en) 2003-11-06 2005-06-09 Daimlerchrysler Ag Method for correspondence analysis in image data sets
DE102012013492A1 (en) 2012-07-09 2013-01-17 Daimler Ag Method for determining travelling position of vehicle e.g. car in lane, involves comparing determined arrangement and sequence of image features with stored arrangement and sequence of comparison features respectively

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10351778A1 (en) 2003-11-06 2005-06-09 Daimlerchrysler Ag Method for correspondence analysis in image data sets
DE102012013492A1 (en) 2012-07-09 2013-01-17 Daimler Ag Method for determining travelling position of vehicle e.g. car in lane, involves comparing determined arrangement and sequence of image features with stored arrangement and sequence of comparison features respectively

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014223259A1 (en) 2014-11-14 2016-05-19 Conti Temic Microelectronic Gmbh Method for estimating the lane course of a roadway
DE102014223259B4 (en) 2014-11-14 2021-10-14 Conti Temic Microelectronic Gmbh Method for estimating the course of a lane in a lane
DE102016214045A1 (en) * 2016-07-29 2018-02-01 Bayerische Motoren Werke Aktiengesellschaft Method and device for determining a roadway model for a vehicle environment
DE102018008247A1 (en) 2018-10-18 2019-04-04 Daimler Ag Method for data acquisition and data processing for a vehicle

Similar Documents

Publication Publication Date Title
DE102014209137B4 (en) Method and device for calibrating a camera system of a motor vehicle
DE102006012914B4 (en) System and method for determining the distance to a preceding vehicle
DE102015214338A1 (en) Determining an arrangement information for a vehicle
EP2920741B1 (en) Method and device for image-assisted runway localization
DE102016225595A1 (en) Method and arrangement for calibrating at least one sensor of a rail vehicle
DE102016205433A1 (en) Method, device, card management device and system for pinpoint localization of a motor vehicle in an environment
EP2381207B1 (en) 3D targeting and target designation from IR data
DE102019117559A1 (en) Method and system for merging two-dimensional semantic information from images with a three-dimensional point cloud
DE102018123393A1 (en) Detection of parking areas
EP3645969A1 (en) Method and device for generating digital map models
DE102015003666A1 (en) Method for processing acquired measured data of a sensor
DE102013018561A1 (en) Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses
DE102012023030A1 (en) Method for determining the movement of a motor vehicle
EP3659113B1 (en) Detection system, working method and training method for generating a 3d model with reference data
DE102012018471A1 (en) Method for detecting e.g. lane markings of lane edge for motor car, involves performing classification in image region of individual images, which are detected by cameras, and in another image region of disparity images
DE102020208378B3 (en) Traffic light lane assignment from swarm data
DE102008008499B4 (en) Method for computer-aided calculation of the movement of an object from sensor data
DE102019211459B4 (en) Method and device for checking a calibration of environmental sensors
DE102012020778B4 (en) Method of tagging a sequence of images taken in time sequence with integrated quality control
DE102008019795A1 (en) Method for adapting an object model to a three-dimensional point cloud by correcting erroneous correspondences
DE102019001450A1 (en) Method for providing data for locating a vehicle
WO2012150150A1 (en) Method for estimating the position of an object in a computer-assisted manner
DE102009006125A1 (en) Method for determining correspondence of image points in stereoscopically captured images, involves filtering horizontal edges from stereoscopically captured images by horizontal edge filter during image pre-processing
EP4253188A1 (en) Adjustment of a detection of a rail on the basis of a registration of a rail model with a camera image
DE102021113111A1 (en) Method for calibrating sensor information of a vehicle and driver assistance system

Legal Events

Date Code Title Description
R230 Request for early publication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee