DE102013018561A1 - Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses - Google Patents
Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses Download PDFInfo
- Publication number
- DE102013018561A1 DE102013018561A1 DE201310018561 DE102013018561A DE102013018561A1 DE 102013018561 A1 DE102013018561 A1 DE 102013018561A1 DE 201310018561 DE201310018561 DE 201310018561 DE 102013018561 A DE102013018561 A DE 102013018561A DE 102013018561 A1 DE102013018561 A1 DE 102013018561A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- image
- correspondences
- lane
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/48—Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/768—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
Abstract
Description
Die Erfindung betrifft ein Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs, wobei eine Umgebung des Fahrzeugs mittels zumindest einer Bilderfassungseinheit erfasst wird und mittels der Bilderfassungseinheit erfasste Bilder analysiert und ausgewertet werden.The invention relates to a method for data acquisition and data processing for a lane recognition of a vehicle, wherein an environment of the vehicle is detected by means of at least one image capture unit and images detected by the image capture unit are analyzed and evaluated.
Die Erfindung betrifft weiterhin eine Verwendung eines solchen Verfahrens zum Betrieb einer Vorrichtung zur Fahrspurerkennung für ein Fahrzeug.The invention further relates to a use of such a method for operating a device for lane detection for a vehicle.
Aus dem Stand der Technik sind allgemein Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs bekannt, wobei die Fahrspuren anhand von Hell-Dunkel-Übergängen mittels einer so genannten Kantendetektion an Fahrspurmarkierungen detektiert werden. Um eine Funktion der Fahrspurerkennung sicherzustellen, ist es zwingend erforderlich, dass Fahrspurmarkierungen vorhanden sind und eine definierte Mindestgröße aufweisen.From the prior art methods for data acquisition and data processing for a lane detection of a vehicle are generally known, wherein the lanes are detected by means of so-called edge-to-edge transitions by means of a so-called edge detection on lane markings. To ensure a lane detection function, it is imperative that lane markings are present and have a defined minimum size.
Aus der
Weiterhin ist aus der
Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs und eine Verwendung eines solchen Verfahrens anzugeben.The invention is based on the object to provide a comparison with the prior art improved method for data acquisition and data processing for a lane detection of a vehicle and a use of such a method.
Hinsichtlich des Verfahrens wird die Aufgabe erfindungsgemäß durch die im Anspruch 1 angegebenen Merkmale und hinsichtlich der Verwendung durch die im Anspruch 9 angegebenen Merkmale gelöst.With regard to the method, the object is achieved by the features specified in claim 1 and in terms of the use by the features specified in claim 9.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the dependent claims.
In einem Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs wird eine Umgebung des Fahrzeugs mittels zumindest einer Bilderfassungseinheit erfasst und es werden mittels der Bilderfassungseinheit erfasste Bilder analysiert und ausgewertet.In a method for data acquisition and data processing for a lane recognition of a vehicle, an environment of the vehicle is detected by means of at least one image capture unit, and images captured by the image capture unit are analyzed and evaluated.
Erfindungsgemäß werden in der Analyse und Auswertung Umgebungsmerkmale zumindest im Bereich einer vorausliegenden Fahrspur des Fahrzeugs erfasst und jedem Umgebungsmerkmal werden eine Position und Orientierung im Bild zugeordnet, wobei in einem Bild mehrfach vorkommende korrespondierende Umgebungsmerkmale ermittelt werden und anhand einer Verteilung von Korrespondenzen Straßenverlaufshypothesen erzeugt werden, wobei Selbstähnlichkeiten der Umgebungsmerkmale berücksichtigt werden, indem nicht relevante Korrespondenzen mit einer Länge mit dem Wert Null gefiltert und bei der Erzeugung der Straßenverlaufshypothesen verworfen werden.According to the invention, in the analysis and evaluation, environmental features are detected at least in the area of a preceding lane of the vehicle, and each environmental feature is assigned a position and orientation in the image, corresponding image environment features occurring in an image are determined and roadway hypotheses are generated based on a distribution of correspondences Self-similarities of the environmental features are considered by non-relevant correspondences with a length of zero filtered and discarded when generating the roadway hypotheses.
Aufgrund der Verwendung allgemeiner Umgebungsmerkmale zur Fahrspurerkennung ist auch bei nicht vorhandenen Fahrspurmarkierungen eine sichere Fahrspurerkennung realisierbar, so dass eine höhere Verfügbarkeit von auf der Fahrspurerkennung basierenden Fahrerassistenzsystemen des Fahrzeugs erreicht werden kann. Weiterhin ergibt sich aus der Verwendung allgemeiner Umgebungsmerkmale zur Fahrspurerkennung, dass eine Vorausschau mit einem besonders großen Vorausschauhorizont erzeugt werden kann und ferner auch besonders komplexe Verläufe von Fahrspuren und Fahrbahnen erfasst werden können, welche über ein einfaches so genanntes Klothoidenmodell hinausgeht.Due to the use of general environment features for lane detection, a secure lane detection can be realized even if there are no lane markings, so that a higher availability of lane recognition based driver assistance systems of the vehicle can be achieved. Furthermore, it results from the use of general environmental features for lane detection that a forecast with a particularly large forecast horizon can be generated and also particularly complex gradients of lanes and lanes can be detected, which goes beyond a simple so-called clothoid model.
Gemäß einer möglichen Weiterbildung des erfindungsgemäßen Verfahrens werden Selbstähnlichkeiten der Umgebungsmerkmale berücksichtigt, indem nicht relevante Korrespondenzen in Abhängigkeit ihrer Höhe, ihrer Länge, ihrer Entfernung vom Fahrzeug und/oder ihrer Richtung im jeweiligen Bild gefiltert werden und bei der Erzeugung der Straßenverlaufshypothesen verworfen werden. Aufgrund der Filterung der nicht relevanten Korrespondenzen in Abhängigkeit ihrer Höhe, ihrer Länge, ihrer Entfernung vom Fahrzeug und/oder ihrer Richtung im jeweiligen Bild wird in besonders vorteilhafter Weise eine weitere Erhöhung der Robustheit der Fahrspurerkennung und einer Erkennung von auf einer Fahrspur befindlichen Objekten, d. h. eine Minimierung einer Fehlerhäufigkeit, erzielt. Insbesondere ist es im Gegensatz zum so genannten Klothoidenmodell möglich, eine Spurzuordnung für entfernt vom Fahrzeug detektierte Objekte in einer eigenen Fahrspur oder einer Nachbarfahrspur durchzuführen. Dabei ist es mittels der Selbstähnlichkeitsmerkmale insbesondere möglich, nach einem Gruppierungsschritt einer Freiform, beispielsweise in polygonaler Form, zu modellieren.According to a possible development of the method according to the invention, self-similarities of the environmental features are taken into account by filtering non-relevant correspondences as a function of their height, length, distance from the vehicle and / or direction in the respective image and rejecting them in the generation of the roadway hypotheses. Due to the filtering of the non-relevant correspondences as a function of their height, their length, their distance from the vehicle and / or their direction in the respective image is in a particularly advantageous manner, a further increase the robustness of lane detection and detection of objects located on a lane, d , H. minimizing a frequency of errors achieved. In particular, in contrast to the so-called clothoid model, it is possible to carry out a track assignment for objects detected remotely from the vehicle in a separate lane or a neighboring lane. In this case, it is possible in particular, by means of the self-similarity features, to model after a grouping step of a freeform, for example in polygonal form.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Embodiments of the invention are explained in more detail below with reference to drawings.
Dabei zeigen:Showing:
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided in all figures with the same reference numerals.
In den
Im Gegensatz zu aus dem Stand der Technik bekannten Verfahren zur Datenerfassung und Datenverarbeitung für eine Fahrspurkennung eines Fahrzeugs V, bei welchen die Fahrspuren anhand von Hell-Dunkel-Übergängen mittels einer so genannten Kantendetektion an Fahrspurmarkierungen detektiert werden, sieht das erfindungsgemäße Verfahren vor, dass eine Umgebung des Fahrzeugs V mittels zumindest einer Bilderfassungseinheit erfasst wird und mittels der Bilderfassungseinheit erfasste Bilder B analysiert und ausgewertet werden. Dabei werden in der Analyse und Auswertung die Umgebungsmerkmale M1 bis M5 zumindest im Bereich einer vorausliegenden Fahrspur des Fahrzeugs V erfasst und jedem Umgebungsmerkmal M1 bis M5 wird eine Position und Orientierung im Bild B zugeordnet. In einem Bild B mehrfach vorkommende korrespondierende Umgebungsmerkmale M1 bis M5, im dargestellten Ausführungsbeispiel das Merkmal M4, werden ermittelt und anhand einer Verteilung von Korrespondenzen werden Straßenverlaufshypothesen erzeugt.In contrast to known from the prior art method for data acquisition and data processing for a lane detection of a vehicle V, in which the lanes are detected on the basis of light-dark transitions by means of a so-called edge detection on lane markings, the inventive method provides that a Environment of the vehicle V is detected by means of at least one image capture unit and captured by the image capture unit images B are analyzed and evaluated. In the analysis and evaluation, the environmental features M1 to M5 are detected at least in the region of a preceding lane of the vehicle V, and each environment feature M1 to M5 is assigned a position and orientation in the image B. In a picture B multiple occurring corresponding environmental features M1 to M5, in the illustrated embodiment, the feature M4 are determined and based on a distribution of correspondence roadway hypotheses are generated.
Das heißt, im Gegensatz zur kantenbasierten Markierungsvermessung bisheriger Ansätze werden repetitive lokale Umgebungsmerkmale M1 bis M5 verwendet, welche sowohl einen Ort bzw. eine Position im Bild B besitzen, als auch eine Orientierung. Dabei werden mehrfach vorhandene Umgebungsmerkmale M1 bis M5, hier das Merkmal M4, miteinander verbunden, so dass ein Gesamtumgebungsmerkmal gebildet wird.That is, in contrast to the edge-based marking measurement of previous approaches, repetitive local environmental features M1 to M5 are used, which both have a location or a position in image B, as well as an orientation. Here are several existing environmental features M1 to M5, here the feature M4, connected to each other, so that an overall environment feature is formed.
Dadurch ist es möglich, bei mittels Monokameras erfassten Bildern B unter Verwendung von Annahmen und bei stereoskopisch erfassten Bildern B datengestützt auf eine dreidimensionale Lage eines mittels des entsprechenden Merkmals M1 bis M5 im Bild B repräsentierten und beispielsweise in
Jede ermittelte Korrespondenz ”voted” in einem mehrdimensionalen Akkumulatorraum, in einem Dualraum und/oder in einem Clusterraum für bestimmte Fahrbahn- und Fahrspurverläufe, d. h. für bestimmte Kombinationen von Krümmungen, Ablagen und Gierwinkeln. Häufungsgruppen im Akkumulatorraum, Dualraum und/oder Clusterraum entsprechen dabei verschiedenen Staßenverlaufshypothesen, wobei eine Breite der Häufungen einer Messungenauigkeit, der so genannten Varianz, entspricht. Die Berechnung der Korrespondenzen erfolgt dabei wie in
Hierbei ist das Auftreten von mehrfachen Korrespondenzen zulässig, wie es in
In der Analyse und Auswertung werden Fahrspurmarkierungen FS im Bild B anhand von Hell-Dunkel-Übergängen mittels der so genannten Kantendetektion detektiert und gemeinsam mit Fahrzeugdaten FD, beispielsweise einer Eigengeschwindigkeit und Eigenbewegung des Fahrzeugs V, einer Gierrate, einer Beschleunigung und weiteren Daten, einer Messgleichung eines Straßenmodells SM zugeführt. Anhand dieses Straßenmodells SM und eines dynamisch rekursiven Filters F, beispielsweise eines Kalman-Filters, werden Spurparameter SP ermittelt und zum Betrieb einer Anwendung A, beispielsweise einem Fahrerassistenzsystem zur Spurführung, dieser zugeführt. Die Spurparameter SP umfassen insbesondere eine Ablage, einen Gierwinkel, eine Krümmung, eine Krümmungsänderung, einen Markierungstyp, eine Nachbarspur und weitere Parameter.In the analysis and evaluation, lane markings FS are detected in image B on the basis of light-dark transitions by means of the so-called edge detection and together with vehicle data FD, for example an airspeed and proper motion of the vehicle V, a yaw rate, acceleration and other data, a measurement equation a road model SM supplied. On the basis of this road model SM and a dynamically recursive filter F, for example a Kalman filter, track parameters SP are determined and supplied to the operation of an application A, for example a driver assistance system for tracking, this. In particular, the track parameters SP include a shelf, a yaw angle, a curvature, a curvature change, a mark type, a neighbor track, and other parameters.
In
In
Im Gegensatz zu den in
Dies zeigt
In
Sowohl eine in
Dabei werden die in dem Bild B vorhandenen Umgebungsmerkmale in den mehrdimensionalen Raum R überführt, welcher im dargestellten Ausführungsbeispiel als Dimensionen den Gierwinkel φ, die Ablage AB, die Krümmung KR und die Krümmungsänderung ΔKR aufweist. Korrespondenzen KO von mehrfach im Bild B vorkommenden Umgebungsmerkmalen M1 bis Mn werden unter Berücksichtung eines Schwerpunkts und der Varianz der Messgleichung des Straßenmodells SM zugeführt und anhand des Straßenmodells SM und des dynamisch rekursiven Filters F, beispielsweise eines Kalman-Filters, werden die Spurparameter SP ermittelt und zum Betrieb der Anwendung A dieser zugeführt.In this case, the environmental features present in the image B are transferred into the multidimensional space R, which in the illustrated embodiment has as dimensions the yaw angle φ, the tray AB, the curvature KR and the curvature change ΔKR. Correspondences KO of environment features M1 to Mn occurring several times in image B are supplied with consideration of a center of gravity and the variance of the measurement equation of the road model SM and the lane parameters SP are determined using the road model SM and the dynamically recursive filter F, for example a Kalman filter to operate the application A of these supplied.
So genannte Ausreißer, wie im dargestellten Ausführungsbeispiel das Umgebungsmerkmal M1, werden dabei nicht berücksichtigt.So-called outliers, as in the illustrated embodiment, the surrounding feature M1, are not taken into account.
Ein weiteres Ausführungsbeispiel eines Ablaufs eines Verfahrens zur Fahrspurerkennung ist in
Hierbei werden Fahrspurmarkierungen FS im Bild B anhand von Hell-Dunkel-Übergängen mittels der so genannten Kantendetektion detektiert und dem Filter F zugeführt. Weiterhin werden die detektierten Fahrspurmarkierungen FS dem mehrdimensionalen Raum R zugeführt, wobei in diesem die Korrespondenzen KO zwischen mehrfach im Bild B vorkommenden Umgebungsmerkmalen M1 bis Mn, hier Fahrspurmarkierungen FS, ermittelt und ebenfalls dem Filter F unter Berücksichtung des Schwerpunkts und der Varianz zugeführt werden.In this case, lane markings FS are detected in image B on the basis of light-dark transitions by means of the so-called edge detection and fed to the filter F. Furthermore, the detected lane markings FS are the multi-dimensional space R supplied, in which the correspondences KO between multiple occurring in the image B environment features M1 to Mn, here lane markings FS, determined and also the filter F, taking into account the center of gravity and the variance are supplied.
Im Filter F werden die Korrespondenzen KO und die mittels Kantendetektion ermittelten Fahrspurmarkierungen FS fusioniert, der Messgleichung des Straßenmodells SM zugeführt und anhand des Straßenmodells SM und des dynamisch rekursiven Filters F werden die Spurparameter SP ermittelt und zum Betrieb der Anwendung A dieser zugeführt.The correspondences KO and the lane markings FS determined by edge detection are fused in the filter F, supplied to the measurement equation of the road model SM, and the lane parameters SP are determined based on the road model SM and the dynamically recursive filter F and supplied to the application A for operation thereof.
Somit sind vom Umgebungsmerkmal M1 eine Höhe, eine Entfernung zur Bilderfassungseinheit, d. h. zum Fahrzeug V, und eine relative Richtung zum Fahrzeug V ermittelbar. Beim dargestellten, eine Korrespondenz KO und somit ein Selbstähnlichkeitmerkmal bildenden Umgebungsmerkmal M1 liegen somit jeweils zwei Höhenwerte, Entfernungswerte und Richtungswerte vor.Thus, the ambient feature M1 is a height, a distance to the image capture unit, i. H. to the vehicle V, and a relative direction to the vehicle V can be determined. In the case of the illustrated environmental feature M1, which forms a correspondence KO and thus a self-similarity feature, two altitude values, distance values and direction values are thus present in each case.
Hierdurch können Selbstähnlichkeiten W der Umgebungsmerkmale M1 bis Mn berücksichtigt werden, indem nicht relevante Korrespondenzen KO von Umgebungsmerkmalen M1 bis Mn in Abhängigkeit ihrer Höhe, ihrer Länge, ihrer Entfernung vom Fahrzeug V und/oder ihrer Richtung im jeweiligen Bild B gefiltert werden und bei der Erzeugung der Straßenverlaufshypothesen verworfen werden.As a result, self-similarities W of the environmental features M1 to Mn can be taken into account by filtering non-relevant correspondences KO from environmental features M1 to Mn as a function of their height, length, distance from the vehicle V and / or their direction in the respective image B and during generation the roadway hypotheses are discarded.
Dabei werden Korrespondenzen KO bzw. Selbstähnlichkeitsmerkmale, deren Länge eine vorgegebene Minimallänge unterschreitet oder deren Länge eine vorgegebene Maximallänge überschreitet, gefiltert. Durch Vorgabe der Minimallänge und Maximallänge wird eine euklidische Länge der Selbstähnlichkeitsmerkmale begrenzt. Beispielsweise ist eine Aussage eines 2 cm langen Selbstähnlichkeitsmerkmals zur Krümmungsschätzung nicht sinnvoll, ebenso wie ein Selbstähnlichkeitsmerkmal mit der Länge von 300 m.In this case, correspondences KO or self-similarity features, the length of which falls below a predetermined minimum length or whose length exceeds a predetermined maximum length, are filtered. By specifying the minimum length and maximum length, a Euclidean length of the self-similarity features is limited. For example, a statement of a 2 cm long self-similarity feature for curvature estimation does not make sense, as well as a self-similarity feature with the length of 300 m.
In
Das heißt, alle Selbstähnlichkeitsmerkmale, bei denen sich die beiden Enden nicht fahrbahnnah, also in einem bestimmten Höhenbereich über der Fahrbahn befinden, werden ausgefiltert. Damit wird eine Ausreißerzahl signifikant reduziert. Beispielsweise werden dadurch Selbstähnlichkeitsmerkmale, welche auf Leitpfosten oder Baumstämmen detektiert werden, ausgefiltert. Da mit zunehmender Entfernung die Messgenauigkeit von stereoskopischen Bilderfassung und -verarbeitung triangulierungsbedingt nachlässt, wird die Sollhöhe in Abhängigkeit der Entfernung der jeweiligen Korrespondenz KO bzw. des jeweiligen Selbstähnlichkeitsmerkmals variabel vorgegeben.That is, all Selbstähnlichkeitsmerkmale in which the two ends are not close to the road, so in a certain altitude range above the road are filtered out. This significantly reduces an outlier number. For example, self-similarity features detected on guide posts or logs are thereby filtered out. Since with increasing distance the measurement accuracy of stereoscopic image acquisition and processing decreases due to the triangulation, the desired height is variably predetermined as a function of the distance of the respective correspondence KO or of the respective self-similarity feature.
In
Insbesondere dann, wenn der Fahrbahnverlauf nicht mittels einer so genannten Klothoide modellierbar ist, ist mit dem in den vorherigen
BezugszeichenlisteLIST OF REFERENCE NUMBERS
-
- AA
- Anwendungapplication
- ABFROM
- Ablagefiling
- BB
- Bildimage
- B'B '
- gespiegeltes Bildmirrored image
- B''B '
- entzerrtes Bildrectified image
- B(c1), B(c2)B (c1), B (c2)
- Bildimage
- B(t1), B(t2)B (t1), B (t2)
- Bildimage
- DD
- Disparitätdisparity
- Ee
- Entzerrungequalization
- DBDB
- DatenbankDatabase
- FF
- Filterfilter
- FSFS
- Fahrspurmarkierunglane marker
- FDFD
- Fahrzeugdatenvehicle data
- KB,KB,
- KB1 KorrespondenzberechnungKB1 correspondence calculation
- KOKO
- KorrespondenzCorrespondence
- KRKR
- Krümmungcurvature
- M1M1
- bis Mn Umgebungsmerkmalto Mn environment feature
- OO
- Objektobject
- OFOF
- optischer Flussoptical flow
- POSPOS
- Positionposition
- RR
- Raumroom
- SMSM
- Straßenmodellroad model
- SPSP
- Spurparametertrack parameters
- Symsym
- Symmetriesymmetry
- VV
- Fahrzeugvehicle
- VSVS
- Verfahrensschrittstep
- WW
- Selbstähnlichkeitself-similarity
- XX
- Raumkoordinatespatial coordinate
- YY
- Raumkoordinatespatial coordinate
- ZZ
- Raumkoordinatespatial coordinate
- x1, x2 x 1 , x 2
- Raumkoordinatespatial coordinate
- y1, y2 y 1 , y 2
- Raumkoordinatespatial coordinate
- z1, z2 z 1 , z 2
- Raumkoordinatespatial coordinate
- ΔKRΔKR
- Gierwinkelyaw
- ΦΦ
- Gierwinkelyaw
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 10351778 A1 [0004, 0041, 0042, 0043] DE 10351778 A1 [0004, 0041, 0042, 0043]
- DE 102012013492 A1 [0005] DE 102012013492 A1 [0005]
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201310018561 DE102013018561A1 (en) | 2013-09-05 | 2013-11-05 | Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013014694.1 | 2013-09-05 | ||
DE102013014694 | 2013-09-05 | ||
DE201310018561 DE102013018561A1 (en) | 2013-09-05 | 2013-11-05 | Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102013018561A1 true DE102013018561A1 (en) | 2014-06-18 |
Family
ID=50821486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201310018561 Withdrawn DE102013018561A1 (en) | 2013-09-05 | 2013-11-05 | Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102013018561A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014223259A1 (en) | 2014-11-14 | 2016-05-19 | Conti Temic Microelectronic Gmbh | Method for estimating the lane course of a roadway |
DE102016214045A1 (en) * | 2016-07-29 | 2018-02-01 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for determining a roadway model for a vehicle environment |
DE102018008247A1 (en) | 2018-10-18 | 2019-04-04 | Daimler Ag | Method for data acquisition and data processing for a vehicle |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10351778A1 (en) | 2003-11-06 | 2005-06-09 | Daimlerchrysler Ag | Method for correspondence analysis in image data sets |
DE102012013492A1 (en) | 2012-07-09 | 2013-01-17 | Daimler Ag | Method for determining travelling position of vehicle e.g. car in lane, involves comparing determined arrangement and sequence of image features with stored arrangement and sequence of comparison features respectively |
-
2013
- 2013-11-05 DE DE201310018561 patent/DE102013018561A1/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10351778A1 (en) | 2003-11-06 | 2005-06-09 | Daimlerchrysler Ag | Method for correspondence analysis in image data sets |
DE102012013492A1 (en) | 2012-07-09 | 2013-01-17 | Daimler Ag | Method for determining travelling position of vehicle e.g. car in lane, involves comparing determined arrangement and sequence of image features with stored arrangement and sequence of comparison features respectively |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014223259A1 (en) | 2014-11-14 | 2016-05-19 | Conti Temic Microelectronic Gmbh | Method for estimating the lane course of a roadway |
DE102014223259B4 (en) | 2014-11-14 | 2021-10-14 | Conti Temic Microelectronic Gmbh | Method for estimating the course of a lane in a lane |
DE102016214045A1 (en) * | 2016-07-29 | 2018-02-01 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for determining a roadway model for a vehicle environment |
DE102018008247A1 (en) | 2018-10-18 | 2019-04-04 | Daimler Ag | Method for data acquisition and data processing for a vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014209137B4 (en) | Method and device for calibrating a camera system of a motor vehicle | |
DE102006012914B4 (en) | System and method for determining the distance to a preceding vehicle | |
DE102015214338A1 (en) | Determining an arrangement information for a vehicle | |
EP2920741B1 (en) | Method and device for image-assisted runway localization | |
DE102016225595A1 (en) | Method and arrangement for calibrating at least one sensor of a rail vehicle | |
DE102016205433A1 (en) | Method, device, card management device and system for pinpoint localization of a motor vehicle in an environment | |
EP2381207B1 (en) | 3D targeting and target designation from IR data | |
DE102019117559A1 (en) | Method and system for merging two-dimensional semantic information from images with a three-dimensional point cloud | |
DE102018123393A1 (en) | Detection of parking areas | |
EP3645969A1 (en) | Method and device for generating digital map models | |
DE102015003666A1 (en) | Method for processing acquired measured data of a sensor | |
DE102013018561A1 (en) | Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses | |
DE102012023030A1 (en) | Method for determining the movement of a motor vehicle | |
EP3659113B1 (en) | Detection system, working method and training method for generating a 3d model with reference data | |
DE102012018471A1 (en) | Method for detecting e.g. lane markings of lane edge for motor car, involves performing classification in image region of individual images, which are detected by cameras, and in another image region of disparity images | |
DE102020208378B3 (en) | Traffic light lane assignment from swarm data | |
DE102008008499B4 (en) | Method for computer-aided calculation of the movement of an object from sensor data | |
DE102019211459B4 (en) | Method and device for checking a calibration of environmental sensors | |
DE102012020778B4 (en) | Method of tagging a sequence of images taken in time sequence with integrated quality control | |
DE102008019795A1 (en) | Method for adapting an object model to a three-dimensional point cloud by correcting erroneous correspondences | |
DE102019001450A1 (en) | Method for providing data for locating a vehicle | |
WO2012150150A1 (en) | Method for estimating the position of an object in a computer-assisted manner | |
DE102009006125A1 (en) | Method for determining correspondence of image points in stereoscopically captured images, involves filtering horizontal edges from stereoscopically captured images by horizontal edge filter during image pre-processing | |
EP4253188A1 (en) | Adjustment of a detection of a rail on the basis of a registration of a rail model with a camera image | |
DE102021113111A1 (en) | Method for calibrating sensor information of a vehicle and driver assistance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |