AT502320B1 - METHOD FOR DRIVING TRAVEL IDENTIFICATION - Google Patents

METHOD FOR DRIVING TRAVEL IDENTIFICATION Download PDF

Info

Publication number
AT502320B1
AT502320B1 AT0113005A AT11302005A AT502320B1 AT 502320 B1 AT502320 B1 AT 502320B1 AT 0113005 A AT0113005 A AT 0113005A AT 11302005 A AT11302005 A AT 11302005A AT 502320 B1 AT502320 B1 AT 502320B1
Authority
AT
Austria
Prior art keywords
lane
image
orientation
vanishing point
vanishing
Prior art date
Application number
AT0113005A
Other languages
German (de)
Other versions
AT502320A1 (en
Original Assignee
Advanced Comp Vision Gmbh Acv
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Comp Vision Gmbh Acv filed Critical Advanced Comp Vision Gmbh Acv
Priority to AT0113005A priority Critical patent/AT502320B1/en
Priority to PCT/AT2006/000261 priority patent/WO2007002964A2/en
Publication of AT502320A1 publication Critical patent/AT502320A1/en
Application granted granted Critical
Publication of AT502320B1 publication Critical patent/AT502320B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis

Description

2 AT 502 320 B12 AT 502 320 B1

Die Erfindung betrifft ein Verfahren gemäß dem Oberbegriff des Patentanspruches 1.The invention relates to a method according to the preamble of claim 1.

Ziel der Erfindung ist es, mit möglichst wenigen Aufwand und mit möglichst großer Genauigkeit innerhalb von kurzer Zeit bzw. mit möglichst wenig aufgenommenen Bildern von einem Fahr-5 zeug aus eine Fahrspur bzw. eine Fahrspurmarkierung oder andere sich längs der Straße erstreckende Markierungen oder angebrachte Kennzeichnungen zu erkennen.The aim of the invention is, with the least possible effort and with the greatest possible accuracy within a short time or with as little recorded images of a driving-5 convincing a lane or a lane marking or other along the road extending markings or attached markings to recognize.

Diese Ziele werden mit einem Verfahren der eingangs genannten Art erreicht, in das erfindungsgemäß mit dem im Kennzeichen des Anspruches 1 angegebenen Merkmalen charakteri-io siert ist. Die Bilder können in beliebiger Richtung zur Fahrbahn aufgenommen werden, insbesondere nach vorne. Mit einer relativ geringen Anzahl von aufgenommenen Bildern wird exakt die Lage der Markierungen ermittelt.These objects are achieved with a method of the type mentioned, in the invention according to the invention with the features specified in the characterizing part of claim 1 Characteri-io Siert. The images can be taken in any direction to the roadway, in particular to the front. With a relatively small number of recorded images, the exact location of the markings is determined.

Eine rasche Auffindung von Fluchtpunkten wird mit den Merkmalen des Anspruches 2 erreicht. 15A quick detection of vanishing points is achieved with the features of claim 2. 15

Eine rasche und exakte Erstellung eines Histogramms wird mit den Merkmalen des Anspruches 3 erreicht.A quick and accurate creation of a histogram is achieved with the features of claim 3.

Passende Ergebnisse werden rasch und exakt erreicht, wenn die Merkmale des Anspruches 4 20 zur Anwendung kommen.Appropriate results are achieved quickly and accurately when the features of claim 4 20 are used.

Eine verbesserte und exakte Auswertung der Rechenergebnisse, insbesondere eine exaktere Bestimmung der Lage der Spurmarkierungen wird mit den Merkmalen des Anspruches 5 erreicht. 25 Für die laufende Auswertung während der Bewegung des Fahrzeuges sind die Merkmale des Anspruches 6 bzw. der Ansprüche 7 und 8 von Vorteil. Damit können erhaltene Werte für folgende Aufnahmen als Parameter bzw. eingrenzende Werte zur Verfügung gestellt werden, womit insbesondere der Rechenaufwand verringert wird. 30An improved and exact evaluation of the calculation results, in particular a more exact determination of the position of the lane markings is achieved with the features of claim 5. 25 For the ongoing evaluation during the movement of the vehicle, the features of claim 6 and the claims 7 and 8 are advantageous. Thus obtained values for the following images can be made available as parameters or limiting values, which in particular reduces the computational effort. 30

Das erfindungsgemäße Computerprogrammprodukt ermöglicht es, dass das erfindungsgemäße Verfahren auf einem Computer abgearbeitet werden kann.The computer program product according to the invention makes it possible for the method according to the invention to be executed on a computer.

Im Folgenden wird die Erfindung anhand der Zeichnungen beispielsweise näher erläutert. Fig. 1 35 zeigt eine Ansicht einer Fahrspur von oben. Fig. 2 zeigt eine Detektion von Spurmarkierungen, indem vier Spurbegrenzungen ermittelt werden. Fig. 3 zeigt Kantenpixel, die auf dem aufgenommenen Originalbild den Spurbegrenzungen überlagert wurden.In the following the invention will be explained in more detail with reference to the drawings, for example. Fig. 1 35 shows a view of a traffic lane from above. Fig. 2 shows a detection of lane markings by determining four lane boundaries. Fig. 3 shows edge pixels superimposed on the recorded original image to the lane boundaries.

Fig. 4 zeigt beispielsweise den Vorgang des Votierens für einen Fluchtpunkt basierend auf 40 einem Pixel bzw. Datenpunkt mit der Orientierung bzw. dem Neigungswinkel α einer Verbindungslinie.For example, Fig. 4 shows the process of voting for a vanishing point based on 40 pixels with the orientation or inclination angle α of a connecting line.

Fig. 5 und 5a zeigen die Berechnung einer Bildteilungslinie. Fig. 6 zeigt einen 1 D-Hough-Raum, der aus den Kantenpixel entsprechend Fig. 3 für den Fluchtpunkt aus Fig. 2 ermittelt wurde. 45FIGS. 5 and 5a show the calculation of an image division line. FIG. 6 shows a 1 D-Hough space which was determined from the edge pixels corresponding to FIG. 3 for the vanishing point from FIG. 2. 45

Im folgenden wird die Erfindung anhand der Zeichnung beispielsweise näher erläutert.In the following the invention will be explained in more detail with reference to the drawing, for example.

In Fig. 1 zeigt schematisch ein Bildaufnahme- bzw. Kamerasystem 1, das sich in einer Fahrspur 2 bewegt, von oben gesehen im Euklidischen Raum. Die Fahrspur 2 wird auf der Straße durch so weiße Bänder bzw. Spurmarkierungen 3, 4 links und rechts markiert. Die rechte Markierung ist beispielsweise kontinuierlich, während die linke stückweise kontinuierlich ist. L und R ist jeweils die Distanz gemessen vom optischen Zentrum zur linken und rechten Spurmarkierung. AL und AR beschreiben die Breite der linken und rechten Spurmarkierung. 55 Zur Fahrspurerkennung sollen die Spurbegrenzungen, das sind die aus zwei Liniensegmente 3 AT 502 320 B1 bestehenden Begrenzungen der linken und rechten Spurmarkierungen, wie aus Fig. 2 ersichtlich, erkannt werden. Von links nach rechts werden die vier Spurbegrenzungen mit LL (linke Spurmarkierung linke Begrenzung), RL (linke Spurmarkierung, rechte Begrenzung), LR (rechte Spurmarkierung, linke Begrenzung) und RR (rechte Spurmarkierung rechte Begrenzung) be-5 zeichnet.In Fig. 1 shows schematically a Bildaufnahme- or camera system 1, which moves in a lane 2, seen from above in the Euclidean space. The lane 2 is marked on the road by so white bands or lane markers 3, 4 left and right. For example, the right mark is continuous, while the left is piecewise continuous. L and R are each the distance measured from the optical center to the left and right lane markers. AL and AR describe the width of the left and right lane markers. 55 For lane detection, the lane delimitations, that is, the existing of two line segments 3 AT 502 320 B1 boundaries of the left and right lane markers, as shown in FIG. 2 can be seen. From left to right, the four lane boundaries are marked LL (left lane marker left boundary), RL (left lane marker, right boundary), LR (right lane marker, left boundary), and RR (right lane marker right boundary).

Es wird von einer im vorliegenden Fall vorwärtsgerichteten Bildaufnahmeeinheit 1 ausgegangen, die im wesentlichen parallel zu einer ebenen Straße ausgerichtet ist. Im folgenden wird mit (x0,yo) der Fluchtpunkt, d.h. der Schnittpunkt der 4 Spurbegrenzungen im aufgenommenen Bild; ίο Θ ist der Neigungswinkel der Kamera zur Straße, bezeichnet. Φ ist der Rotationswinkel der Kamera nach rechts oder links; f ist die Brennweite der Kamera; H ist die Höhe der Kamera über der Straße. aLL, aRL, aLR und aRR sind die jeweiligen Anstiege der 4 Spurbegrenzungen im Bild. aL und aR sind die mittleren Anstiege der linken und rechten Spurmarkierungen im Bild. L und R sind die Euklidischen Distanzen von der Kamera zur linken und rechten Spurmarkierung. 15 Als Grundformeln gelten: 20 25 X0=-f tan(^) cos(0) y0 = -f tan(0) (1) i _ ,, cos(^)-atsin(^)sin(0) L —H-7TT — aLcos(0) ΐη- II cos(^) - aff sin(^)sin(fl) aRcos(0)It is assumed that in the present case forward-looking image pickup unit 1, which is aligned substantially parallel to a flat road. In the following, with (x0, yo) the vanishing point, i. the intersection of the 4 lane boundaries in the captured image; ίο Θ is the tilt angle of the camera to the road, called. Φ is the rotation angle of the camera to the right or left; f is the focal length of the camera; H is the height of the camera above the road. aLL, aRL, aLR and aRR are the respective slopes of the 4 lane boundaries in the picture. aL and aR are the average slopes of the left and right lane markers in the image. L and R are the Euclidean distances from the camera to the left and right lane markers. 15 Basic formulas are: 20 25 X0 = -f tan (^) cos (0) y0 = -f tan (0) (1) i _ ,, cos (^) - atsin (^) sin (0) L -H -7TT - aLcos (0) ΐη- II cos (^) - aff sin (^) sin (fl) aRcos (0)

Aus (2) kann daher die Breite der Spurmarkierung AL and AR berechnet werden; zusätzlich kann der Fehler von L, R, AL and AR als Funktion des Fehlers der ermittelten Anstiege aLL, aRL, 30 aLR, aRR berechnet werden.From (2), therefore, the width of the lane mark AL and AR can be calculated; in addition, the error of L, R, AL and AR can be calculated as a function of the error of the detected slopes aLL, aRL, 30 aLR, aRR.

Die erfindungsgemäße Fahrspurerkennung umfasst die folgenden grundlegenden Schritte: 1. Kantendetektion mit bekannten optischen Bildauswertungsverfahren und Gradientenmes-35 sung bzw. Feststellung der Orientierung und Lage der identifizierten Kantenpixel 2. Auffinden von Fluchtpunkten, die durch die Lage und Orientierung der Kanten bedingt sind, vorzugsweise unter Verwendung einer gewichteten 2D-Hough-Transformation in mehreren Auflösungen und einer folgenden 2D-Maximum-Suche. 40 45 50 3. Für jeden gefundenen Fluchtpunkt a. Berechnung des Teilungswinkel bzw. einer Bildteilungslinie zwischen der linken und rechten Spurmarkierung und deren Begrenzung b. Auffinden von Linien bzw. Verbindungslinien, die durch den Fluchtpunkt gehen, vorteilhafterweise unter Verwendung einer 1D-Hough-Transformation und einer 1-dimensionalen Maximumsuche c. Auffinden der Unterstützung der einzelnen Linien und Bildung eines Histogrammes mit den Neigungswinkeln der ermittelten Verbindungslinien, d. Verbesserung der Orientierung bzw. des Neigungswinkels jeder Verbindungslinie durch die Methode der robusten kleinsten Abstandsquadrate (Minimierung der Summe der quadratischen, orthogonalen Abstände der Kantenpixele von der durch den Fluchtpunkt gehenden Verbindungslinie e. Berechnung des mittleren orthogonalen Gradienten für jede Verbindungslinie bzw. von Hell-Dunkel- bzw. Dunkel-Hell-ÜbergängenThe lane detection according to the invention comprises the following basic steps: 1. Edge detection with known optical image evaluation method and gradient measurement or determination of the orientation and position of the identified edge pixels 2. Locating vanishing points, which are caused by the position and orientation of the edges, preferably below Using a weighted 2D Hough transform in multiple resolutions and a following 2D maximum search. 40 45 50 3. For each vanishing point found a. Calculation of the pitch angle or an image division line between the left and right lane markers and their boundaries b. Locating lines passing through the vanishing point, advantageously using a 1D Hough transform and a 1-dimensional maximum search c. Finding the support of the individual lines and forming a histogram with the angles of inclination of the determined connecting lines, d. Improvement of the orientation or inclination angle of each connecting line by the least squares method (minimizing the sum of the quadratic orthogonal distances of the edge pixel from the connecting line passing through the vanishing point e) Calculating the mean orthogonal gradient for each connecting line or chiaroscuro - or dark-light transitions

f. Auffinden von Spurbegrenzungs-Kandidaten LL, RL, LR und RR g. Auffinden von Spurmarkierungs-Kandidaten (Paare LL, RL und LR, RR) 55 5 5 4 10 AT 502 320 B1 h. Suche unter den der linken Spurmarkierung und/oder den der rechten Spurmarkierung zugeordneten linken und rechten Begrenzungs-Kandidaten der beiden Spurmarkierungen nach zusammengehörigen Paaren bzw. Auffinden von Spur-Kandidaten und Erstellung einer kompletten Hypothese von 4 Spurbegrenzungen für den jeweiligen Fluchtpunkt. i. Berechnung eines Qualitätsmaßes bzw. Kennwertes für jede Hypothese basierend auf vorteilhaftenweise 5 Kriterien, nämlich mittlerer orthogonaler Gradient jedes Paares von Spurbegrenzungen und/oder mittlere Unterstützungsgröße für jede Begrenzung und/oder Ähnlichkeit innerhalb eines Paares von Begrenzungen und/oder Kontinuität der die Begrenzung stützenden Kantenpixel und/oder mittlerer seitlicher Fehler jedes Paares. 4. Auswahl von Hypothesen mit den höchsten Kennwerten 5. Die ermittelten Parameter betreffend Spurbreite (R+L) und/oder Neigungswinkel Θ werden gespeichert und als a-priori Information für die Auswertung des nächsten Bildes im nächsten 15 Zeitpunkt weiterverwendet.f. Locating lane boundary candidates LL, RL, LR and RR g. Locating Lane Marker Candidates (LL, RL and LR, RR Ranges) 55 5 5 4 10 AT 502 320 B1 h. Search among the left and right boundary candidates of the two lane markers for the left lane marking and / or the right lane marking for matching pairs or finding lane candidates and compile a complete hypothesis of 4 lane boundaries for the respective vanishing point. i. Calculating a quality measure for each hypothesis based on advantageously 5 criteria, namely, mean orthogonal gradient of each pair of lane delineations and / or average assist size for each bound and / or similarity within a pair of bounds and / or continuity of bound edge pixels and / or middle side error of each pair. 4. Selection of hypotheses with the highest characteristic values 5. The determined parameters concerning track width (R + L) and / or inclination angle Θ are stored and used as a-priori information for the evaluation of the next image at the next 15 point in time.

Zur Kantendetektion und Gradientenmessung wird ein bekannter Kantendetektionsverfahren eingesetzt, um ein binäres Schwellwertbild zu erhalten. Die Lage und Orientierung jedes Kantenpixels wird gemessen. Es werden die Pixel herausgefiltert, deren Kantenorientierung hori-20 zontal oder annähernd horizontal ist, da waagrechte Spurbegrenzungen nicht interessant sind, da dies bedeuten würde, dass das Fahrzeug orthogonal zur Fahrspur fährt. Fig. 3 zeigt ein Bild, in den den Spurmarkierungen Kantenpixel überlagert sind.For edge detection and gradient measurement, a known edge detection method is used to obtain a binary threshold image. The location and orientation of each edge pixel is measured. It filters out the pixels whose edge orientation is horizontally or nearly horizontal, since horizontal lane boundaries are not interesting, as this would mean that the vehicle is orthogonal to the lane. Fig. 3 shows an image in which the lane markers edge pixels are superimposed.

Zur Auffindung des Fluchtpunktes F wird vorteilhaftenweise eine 2D Hough-Transformation 25 eingesetzt. Andere Verfahren sind bekannt und einsetzbar. Zweckmäßig wird eine gewichtete, multiresoluten 2D Hough-Transformation verwendet, um Fluchtpunkte F im Bild zu finden. Einer dieser Fluchtpunkte sollte mit dem Schnittpunkt von vier Spurbegrenzungen korrespondieren. Um diesen zu finden, wird ein rechteckiger, um das optische Zentrum des Bildes zentrierter Hough-Raum angenommen. Wenn kein a-priori Wissen über die Position des Fluchtpunktes 30 gegeben ist, wird die Größe des Rechteckes über die größtmöglichen Werte von Neigung und waagrechter Rotation definiert. Wenn jedoch a-priori Wissen aus vorangehenden Messungen bzw. Bildauswertungen gegeben ist und/oder durch Werte von Neigung und/oder Rotation aus anderen Sensordaten, kann die Größe des Hough-Raumes auf ein kleineres Gebiet reduziert werden, womit die Auswertung erleichtert wird. 35To find the vanishing point F, a 2D Hough transformation 25 is advantageously used. Other methods are known and usable. It is expedient to use a weighted, multiresolute 2D Hough transformation in order to find vanishing points F in the image. One of these vanishing points should correspond to the intersection of four lane boundaries. To find this, a rectangular Hough space centered around the optical center of the image is assumed. Given no a-priori knowledge of the location of the vanishing point 30, the size of the rectangle is defined by the maximum values of tilt and horizontal rotation. However, if a-priori knowledge is given from previous measurements or image evaluations and / or values of tilt and / or rotation from other sensor data, the size of the Hough space can be reduced to a smaller area, thus facilitating the evaluation. 35

Jeder Datenpunkt, gemeinsam mit seiner Orientierung, definiert ein Segment, (y,· -yo)cos(a, ) = (x,. -x0)sin(or, ) (3) 40 und votiert für alle Zellen im Hough-Raum, die sich mit diesem Segment schneiden (siehe Fig. 4).Each data point, along with its orientation, defines a segment, (y, · -yo) cos (a,) = (x, -x0) sin (or,) (3) 40, and voted for all cells in Hough space that intersect with this segment (see Fig. 4).

Der resultierende 2D-Hough-Raum kann durch Faltung mit einer Gauß-Maske, geglättet werden. Danach werden die Maxima detektiert und die stärksten Maxima werden behalten. 45The resulting 2D Hough space can be smoothed by convolution with a Gaussian mask. Then the maxima are detected and the strongest maxima are kept. 45

Zum Auffinden der Neigungswinkel für gerade Linien bzw. Verbindungslinien, bei bekanntem Fluchtpunkt zur Unterscheidung zwischen den Begrenzungen der linken und rechten Spurmarkierungen, wird der Teilungswinkel berechnet, wie in Fig. 5 und 5a gezeigt. Der Schnittpunkt der dargestellten horizontalen und vertikalen Linie korrespondiert mit dem optischen Zentrum so Z (x, y). Der eingezeichnete Punkt ist ein ermittelter Fluchtpunkt F für die Spurbegrenzungen. Vor der Detektion der vier Begrenzungslinien wird eine Linie zwischen dem Fluchtpunkt F (x0, yo) und dem unteren Ende der vertikalen Linie gezogen. Diese Bildteilungslinie teilt das Bild in Hinblick auf Kandidaten für die Begrenzungen der linken und rechten Spurmarkierungen entsprechend der Gleichung der Neigungswinkel 55 5 AT 502 320 B1 ß = atan2((Cy - NumRows) - y0,-Xo (4) wobei Cy die vertikale Position des optischen Zentrums im Bild und NumRows die Anzahl der Bildpixel in vertikaler Richtung darstellt. 5For finding the inclination angles for straight lines or connecting lines, with a known vanishing point for distinguishing between the boundaries of the left and right lane markings, the pitch angle is calculated, as shown in FIGS. 5 and 5a. The intersection of the horizontal and vertical lines shown corresponds to the optical center Z (x, y). The drawn point is a determined vanishing point F for the lane boundaries. Before the detection of the four boundary lines, a line is drawn between the vanishing point F (x0, yo) and the lower end of the vertical line. This image dividing line divides the image with respect to candidates for the boundaries of the left and right lane markers according to the equation of the tilt angles 55 5 AT 502 320 B1 β = atan2 ((Cy-NumRows) -y0, -Xo (4) where Cy is the vertical position of the optical center in the image and NumRows represents the number of image pixels in the vertical direction

Bei gegebenem Fluchtpunkt (x0.yo) werden zweckmäßigerweise unter aus vorangehenden Messungen bzw. Bildauswertungen Verwendung einer eindimensionalen Hough-Transformation gerade Liniensegmente gesucht, die durch den Fluchtpunkt F gehen. Die Detektion der Spurbegrenzungen bei gegebenem Fluchtpunkt F ist robuster als die Detektion ohne gegebenem io Fluchtpunkt, da die Position des Fluchtpunktes die Interpretation der Datenpunkte als Linien stark einschränkt.For a given vanishing point (x0.yo), it is expedient to search straight line segments which pass through the vanishing point F from the preceding measurements or image evaluations using a one-dimensional Hough transformation. The detection of the lane boundaries at a given vanishing point F is more robust than the detection without a given vanishing point, since the position of the vanishing point severely limits the interpretation of the data points as lines.

Bei gegebenem Fluchtpunkt und einem Datenpunkt (x;,y,) votiert dieser für eine mögliche Existenz einer Linie mit Neigung 15 tan(a,) (y,-y0) (X, -*o) (5) 20 Unter Berücksichtung des Fehlers in der Orientierung (der nicht durch den gemessenen Gradienten der Pixel sondern durch den Lokalisierungsfehler jedes Datenpunktes (x„y,) verursacht wird), 25 Δα, = atanFor a given vanishing point and a data point (x;, y,), it voted for a possible existence of a line with an inclination 15 tan (a,) (y, -y0) (X, - * o) (5) 20 Considering the error in the orientation (which is not caused by the measured gradient of the pixels but by the localization error of each data point (x "y,)) 25 Δα, = atan

(6) wird, wie in Fig. 5b näher erläutert, für alle Neigungswinkel im Intervall [α,· - Δα,,α, + Δα,] votiert. Danach wird zweckmäßigerweise der 1 D-Hough-Raum (Histogramm) basierend auf Orientie-30 rung bzw. Neigungswinkel der Verbindungslinien beispielsweise mit einer Gauß-Maske geglättet. In diesem Histogramm wird nach Verbindungslinien mit den stärksten Maxima gesucht.(6) is, as explained in more detail in Fig. 5b, for all inclination angles in the interval [α, · - Δα ,, α, + Δα,] voted. Thereafter, the 1-D Hough space (histogram) is expediently smoothed based on orientation or inclination angle of the connecting lines, for example with a Gaussian mask. This histogram searches for connecting lines with the strongest maxima.

Der resultierende 1 D-Hough-Raum, der mit dem Fluchtpunkt (in Fig. 2) assoziiert ist, wird in Fig. 6 gezeigt. Die 4 Maximas im Hough-Raum bzw. Histogramm korrespondieren mit den 35 Spurbegrenzungen von Fig. 2 und sind mit LL, LR, RL und RR markiert.The resulting 1 D-Hough space associated with the vanishing point (in FIG. 2) is shown in FIG. The 4 maximas in the Hough space and histogram, respectively, correspond to the 35 lane boundaries of FIG. 2 and are labeled LL, LR, RL and RR.

Das Faktum, dass der Fluchtpunkt zuerst und erst dann die Spurbegrenzungen detektiert werden, macht die Methode robuster. Der Fluchtpunkt ist ein sehr robuster Hinweis, da er von unterschiedlicher, im Bild verteilter Information abgeleitet wird. Das Suchproblem für gerade 40 Linien bei gegebenem Fluchtpunkt wird von einem 2D zu einem 1D-Problem reduziert. Bei Verwendung einer Top-down Heuristik (Einsatz des geometrischen anstatt des gemessenen Gradienten) kann die Robustheit weiter erhöht werden.The fact that the vanishing point is detected first and then the lane delimitations makes the method more robust. The vanishing point is a very robust indication, since it is derived from different information distributed in the image. The search problem for just 40 lines at a given vanishing point is reduced from a 2D to a 1D problem. When using a top-down heuristic (use of the geometric instead of the measured gradient), the robustness can be further increased.

Zur Auffindung von Unterstützung für jede Linie wird für jedes gefundene Maximum (entspricht 45 einer bestimmten Linienneigung) des 1 D-Hough-Raumes dessen Unterstützung im Bild berechnet. Dazu wird die Anzahl der Kantenpixel ermittelt, die diese Linie unterstützten, wobei eine gewisse orthogonale Abweichung des Pixels von der Linie zugelassen wird.To find support for each line, for each maximum found (corresponding to a certain line slope) of the 1 D-Hough space, its support is calculated in the image. For this purpose, the number of edge pixels that support this line is determined, allowing some orthogonal deviation of the pixel from the line.

Zur Verbesserung der Bestimmung der Linienneigung, d.h. der Orientierung bzw. des Nei-50 gungswinkels, wird bei gegebener Linienneigung und gegebenen Kantenpixel, die die durch den jeweiligen Fluchtpunkt verlaufende Linie unterstützen, die genaue Orientierung bzw. deren Verlauf durch die Methode der robusten kleinsten Abstandsquadrate verbessert. Dazu wird der Neigungswinkel berechnet, der die Summe der quadratischen, orthogonalen Distanzen der Kantenpixel zur Verbindungslinie minimiert. 55 5 5 6 AT 502 320 B1To improve the determination of line slope, i. the orientation or the Nei-50 supply angle, is given a given line inclination and given edge pixels that support the running through the respective vanishing line, the exact orientation or its course improved by the method of robust least squares. For this, the tilt angle is calculated, which minimizes the sum of the square, orthogonal distances of the edge pixels to the connecting line. 55 5 5 6 AT 502 320 B1

Wenn Al und AJ das Resultat einer Faltung des Originalbildes mit der passenden Orientierungsmaske ist, dann ist das Gradientenbild der Kantenpixel gegeben durch -AllAJ. Der mittlere orthogonale Gradient einer Linie ist dann gegeben durch die Gleichung 1 nPerpGrad = — Σ (-sin(or, )·Δ/( x,, y,)+cos(ar, >Δ J( x,, y,)) n /=1 (8)If Al and AJ are the result of convolution of the original image with the appropriate orientation mask, then the gradient image of the edge pixels is given by -AllAJ. The mean orthogonal gradient of a line is given by the equation 1 nPerpGrad = - Σ (-sin (or,) · Δ / (x, y,) + cos (ar,> ΔJ (x, y,)) ) n / = 1 (8)

Die Spurbegrenzungs-Kandidaten LL, RL, LR und RR werden sodann aufgrund ihres mittleren orthogonalen Gradienten (PerpGrad) ausgewählt (Übergang von dunkel zu hell oder umge-io kehrt) und nach ihren Neigungswinkeln kleiner oder größer als der Teilungswinkel bzw. Neigungswinkel der Bildteilungslinie klassifiziert: 15 LL = {o; | er, &lt; ß + Aß A PerpGrad, &gt; 0} LR = {σ, | er, &lt; ß + Aß λ PerpGrad,· &lt; 0} RL = {a, | at &gt; ß - Aß λ PerpGrad,· &gt; 0} LR = {ar( |er, &gt;ß-Aß a PerpGrad,· &lt;0} (9) wobei z.B. Δβ=1° verwendet werden kann. 20The lane boundary candidates LL, RL, LR and RR are then selected for their average orthogonal gradient (PerpGrad) (transition from dark to light or vice versa) and classified according to their tilt angles smaller or larger than the pitch angle of the image pitch line : 15 LL = {o; | he, &lt; β + Aβ A PerpGrad, &gt; 0} LR = {σ, | he, &lt; β + Aβ λ PerpGrad, · &lt; 0} RL = {a, | at &gt; β - Aβ λ PerpGrad, &gt; 0} LR = {ar (| er,> β-Aβ a PerpGrad, · <0} (9) where, for example, Δβ = 1 ° can be used

Zum Auffinden von Paaren von Spurmarkierungs-Kandidaten (Paare LL,RL und LR,RR) wird wie folgt vorgegangen:To find pairs of lane marker candidates (pairs LL, RL and LR, RR), proceed as follows:

Um die linken Spurmarkierungs-Kandidaten zu ermitteln, werden alle LL und RL Kandidaten 25 paarweise gruppiert gemäßTo find the left lane marker candidates, all LL and RL candidates 25 are grouped in pairs according to

ctj,e LR&gt;a;e LL A W Zm'mW-dW Λ W ZmaxW + dW (10) 30 wobei W die Breite der Spurmarkierung, und dW der ermittelte Fehler von W ist aufgrund Fehler in der Neigung. Auf gleiche Weise werden die rechten Spurmarkierungs-Kandidaten berechnet:ctj, e LR> a; e LL A W Zm'mW-dW Λ W ZmaxW + dW (10) where W is the width of the lane marker, and dW is the detected error of W due to errors in the slope. In the same way, the right lane marker candidates are calculated:

ctj e RR &gt; er, e RL Λ W &gt; min W - dW λ W £ max W + dW (11) 35 wobei beispielsweise praxisgerecht vorgegebene verwendet werden könnten.ctj e RR &gt; he, e RL Λ W &gt; min W - dW λ W £ max W + dW (11) 35 where, for example, practically prescribed ones could be used.

Zum Auffinden der Spurkandidaten, d.h. einer kompletten Hypothese der vier Spurbegrenzungen LL, RL, LR, RR, werden Paare von linken und rechten Spurmarkierungen gruppiert und 40 überprüft, ob die Gesamtbreite der Spur gemäß üblichen Straßenbedingungen sinnvoll ist gemäßTo find the track candidates, i. According to a complete hypothesis of the four lane delimitations LL, RL, LR, RR, pairs of left and right lane markers are grouped, and it is checked whether the total lane width according to usual road conditions makes sense

R + L&gt;rr\inLR Λ R + L^maxLR (12) 45 50R + L> rr \ inLR Λ R + L ^ maxLR (12) 45 50

Zur Berechnung eines Kennwertes bzw. Qualitätsmaßes für jede Hypothese können 5 Kriterien herangezogen werden. Zuerst werden separate Kennwerte bzw. Qualitätsmaße für die Kandidaten für die Paare der linken und rechten Spurmarkierung berechnet. Der endgültige Kennwert ist eine Verknüpfung der beiden einzelnen Werte. Der Kennwert jeder Spurmarkierung wird mittels zumindest einem der folgenden 5 Werten berechnet: 1. mittlerer orthogonaler Gradient jedes Paares (Gradient)For the calculation of a characteristic value or quality measure for each hypothesis 5 criteria can be used. First, separate characteristics and quality measures are calculated for the candidates for the left and right lane marker pairs. The final characteristic value is a combination of the two individual values. The characteristic value of each track marking is calculated by means of at least one of the following 5 values: 1. average orthogonal gradient of each pair (gradient)

Wie in (8) beschrieben. Es wird der mittleren orthogonale Gradienten für jede der 2 Spurbe-55 grenzungen berechnet und das Mittel errechnet.As described in (8). Calculate the mean orthogonal gradient for each of the 2 lane boundaries and calculate the mean.

Claims (10)

7 AT 502 320 B1 2. mittlere Unterstützungsgröße für jedes Paar (SupportSize) Es wird die Anzahl der Kantenpixel ermittelt, die jede der beiden Spurbegrenzungen unterstützt und das Mittel berechnet. 57 AT 502 320 B1 2. Average support size for each pair (SupportSize) Determines the number of edge pixels that supports each of the two lane delimitations and calculates the average. 5 3. Liniengleichheit innerhalb eines Paares (Similarity) Dazu wird berechnet, wie gleich die Kantendaten von 2 Spurbegrenzungen derselben Spurmarkierung sind. 10 4. mittlere Kontinuität der Kantenpixel, die ein Paar stützen (continuity) 5. mittlerer seitlicher Fehler jedes Paares (LateralError), wozu für jede der 2 Spurbegrenzungen die mittlere orthogonale Distanz der Datenpixel von der Linie und dann das Mittel er- 15 rechnet wird. Im folgenden erfolgt eine Auswahl des Spurmarkierungen mit maximalen Kennwert. Es ist ferner vorgesehen, dass auf die Kandidaten für die linke als auch für die rechte Spurmarkierung jeweils für sich ein Qualitätsmaß angewendet bzw. errechnet wird und die beiden erhaltenen 20 Resultate zu einem End-Qualitätsmaß zusammengefasst werden, das sich auf den jeweiligen Fluchtpunkt und die durch diesen verlaufende Begrenzungen der linken und rechten Spurmarkierungen bezieht. Vorteilhafterweise ist vorgesehen, dass diese Vorgangsweise für alle aufgefundenen Fluchtpunkte vorgenommen bzw. angewendet wird und aus den erhaltenen Kandidatenpaaren für die linke und rechte Spurmarkierung diejenigen mit den besten Qualitätsmaßes 25 ausgewählt werden und dass die Ergebnisse des Qualitätsmaßes zur Bewertung der Relevanz der erhaltenen Paare von Spurmarkierungen eingesetzt werden. Schließlich erfolgt eine Speicherung und Weiterverwendung der erhaltenen Werte bzw. Parameter. Zur Verfolgung des Fluchtpunktes können die jeweils letzten Bilder untersucht werden. Sofern 30 eine Ermittlung erfolgreich war, wird das Resultat des letzten Erhebungsschrittes als Startpunkt für die Suche nach dem neuen Fluchtpunkt in einer vorgegebenen Region zentriert um das vorhergehende Resultat gestartet. Diese Eingrenzung der Suchregion limitiert die Laufzeit und die Anzahl der detektierten Fluchtpunkte. 35 Die Breite der Fahrspur, R + L, ist ein Parameter der sich über die Zeit nicht so schnell ändert, wie der Fluchtpunkt. Deshalb wird die durchschnittliche Spurbreite üblicherweise über einen längeren Zeitraum betrachtet und dieser Wert für folgende Auswertungen herangezogen. Von Vorteil ist es dazu, wenn basierend auf den Hypothesen einer Anzahl von aufeinanderfolgend aufgenommenen Bildern die Breite der Fahrspur berechnet wird und dass dieser Wert zur Fest-40 legung bzw. Eingrenzung des Bereiches der Distanz zwischen der linken und rechten Spurmarkierung herangezogen wird und/oder für den jeweiligen Fluchtpunkt einer Hypothese der Neigungswinkel bzw. die Nickneigung der Bildaufnahmeeinheit berechnet wird und dass die für aufeinanderfolgende Hypothesen festgestellten Werte dieser Neigung zur Festlegung bzw. Eingrenzung des für das Auffinden von Fluchtpunkten eingesetzte 2D-Hough-Raumes für die 45 Erstellung von Hypothesen eines folgenden Bildes herangezogen wird. Patentansprüche: so 1. Verfahren zur Fahrspurerkennung und/oder -Verfolgung mit einer, insbesondere einer einzigen, an einem Fahrzeug mitgeführten Bildaufnahmeeinheit, insbesondere Kamera, mit vorgegebener Lage und Ausrichtung bezüglich des Fahrzeuges und/oder der Straße, mit der Bilder von der Straße aufgenommen werden, dadurch gekennzeichnet, - dass in dem jeweils aufgenommenen Bild vorhandene Kanten detektiert und die Lage und 55 die Orientierung der Pixel von den im Bild festgestellten Kanten ermittelt werden, 8 AT 502 320 B1 - dass das Bild in Hinblick auf durch die Lage und Orientierung der Kantenpixel bedingte Fluchtpunkte untersucht wird, - dass zur Erstellung einer Bildteilungslinie für die einzelnen festgestellten Fluchtpunkte der Fußpunkt des vorgegebenen optischen Zentrums des Bildes mit dem jeweiligen Flucht- 5 punkt verbunden wird, - dass für jedes Kantenpixel eine Verbindungslinie zum jeweiligen Fluchtpunkt erstellt und deren Orientierung bzw. Neigungswinkel ermittelt wird, - dass für den jeweiligen Fluchtpunkt mit den ermittelten Orientierungen bzw. Neigungswinkeln aller erstellten Verbindungslinien ein Histogramm gebildet wird, io - dass das Histogramm nach Verbindungslinien mit am stärksten vertretenen Orientierun gen bzw. Neigungswinkel untersucht wird, - dass für eine vorgegebene Anzahl dieser Verbindungslinien die diese stützenden Kantenpixel ermittelt und basierend auf diesen Kantenpixel mit der Methode der robusten kleinsten Abstandsquadrate eine eine(n) verbesserte(n) Orientierung bzw. Neigungswinkel 15 aufweisende Verbindungslinie durch den jeweiligen Fluchtpunkt erstellt wird, - dass diese verbesserten Verbindungslinien in Hinblick auf Ihre Orientierung bzw. Neigungswinkel in Bezug auf die Bildteilungslinie in Kandidaten für die Begrenzungen der linken oder der rechten Spurmarkierung aufgeteilt werden, - dass diese Kandidaten in eine Richtung senkrecht zu ihrer(m) Orientierung bzw. Nei- 20 gungswinkel in Hinblick auf einen Hell-Dunkel- bzw. Dunkel-Hell-Übergang untersucht wer den und abhängig von der Übergangsrichtung eine Einteilung in linke (LL, RL) oder rechte (LR, RR) Spurbegrenzungskandidaten für die linke (3) oder die rechte (4) Spurmarkierung erfolgt, - dass basierend auf vorgegebenen räumlichen Distanzbereichen und/oder vorgegebenen 25 Orientierungs- bzw. Neigungswinkel-Bereichen unter den der linken Spurmarkierung und/oder den der rechten Spurmarkierung zugeordneten linken und rechten Begrenzungs-Kandidaten der beiden Spurmarkierungen zusammengehörige Paare (LL, RL bzw. LR, RR) ermittelt werden, - dass basierend auf vorgegebenen räumlichen Distanzbereichen und/oder Orientierungs- 30 bzw. Neigungswinkel-Bereichen der zusammengehörigen Paare Kandidatenpaare für die linke (3) und rechte (4) Spurmarkierung ermittelt werden, - dass auf diese bzw. für diese Kandidatenpaare ein Qualitätsmaß angewendet bzw. berechnet wird, - dass diese Vorgangsweise für alle aufgefundenen Fluchtpunkte vorgenommen bzw. an- 35 gewendet wird und aus den erhaltenen Kandidatenpaaren für die linke und rechte Spur markierung diejenigen mit den besten Qualitätsmaßes ausgewählt werden und - dass die Ergebnisse des Qualitätsmaßes zur Bewertung der Relevanz der erhaltenen Paare von Spurmarkierungen eingesetzt werden.3. Line equality within a pair (Similarity) We calculate how equal the edge data of 2 lane boundaries of the same lane marker are. 10 4. average continuity of the edge pixels supporting a pair 5. average lateral error of each pair (LateralError), for which the average orthogonal distance of the data pixels from the line and then the mean is calculated for each of the two lane delimitations , Below is a selection of lane markers with maximum characteristic. It is further provided that a quality measure is applied or calculated in each case on the candidates for the left and the right lane marking and the two obtained results are combined to a final quality measure, which is based on the respective vanishing point and the through this extending boundaries of the left and right lane markers relates. Advantageously, it is provided that this procedure is carried out or applied for all vanishing vanishing points found, and those with the best quality measure 25 are selected from the candidate pairs for the left and right lane markings and that the results of the quality measure are used to evaluate the relevance of the obtained pairs of lane markings be used. Finally, storage and further use of the values or parameters obtained take place. To trace the vanishing point, the last images can be examined. If a determination was successful, the result of the last survey step is started as the starting point for the search for the new vanishing point in a given region centered around the previous result. This limitation of the search region limits the duration and the number of detected vanishing points. 35 The width of the lane, R + L, is a parameter that does not change as fast over time as the vanishing point. Therefore, the average track width is usually considered over a longer period and this value is used for the following evaluations. It is advantageous if, based on the hypotheses of a number of consecutively recorded images, the width of the lane is calculated and that this value is used to set or narrow the range of the distance between the left and right lane markings and / or is calculated for the respective vanishing point of an hypothesis of the inclination angle or the pitch angle of the image acquisition unit and that the successive hypotheses determined values of this tendency to define or limit the used for finding vanishing points 2D Hough space for the creation of hypotheses of following picture is used. 1. A method for lane detection and / or tracking with one, in particular a single, on a vehicle entrained image recording unit, in particular camera, with a predetermined position and orientation with respect to the vehicle and / or the road, taken with the images of the road are characterized in that - edges detected in the respective captured image are detected and the position and orientation of the pixels are determined from the edges detected in the image, that the image is in view of location and orientation the edge pixel conditional vanishing points is examined, - that is connected to the creation of an image division line for the individual detected vanishing points of the foot of the given optical center of the image with the respective escape 5 point, - that created for each edge pixel a connecting line to the respective vanishing point and their orientation or tilting kel is determined, - that for the respective vanishing point with the determined orientations or angles of inclination of all created connecting lines a histogram is formed, io - that the histogram is examined for connecting lines with the most strongly represented Orientierun conditions or inclination angle, - that for a given number of these connecting lines, which determines these supporting edge pixels and based on these edge pixels with the method of the least squares least squares an improved (or) angle of inclination 15 having connecting line is created by the respective vanishing point, - that these improved connection lines in terms of Their orientation or inclination angle with respect to the image dividing line are divided into candidates for the boundaries of the left or right lane markers, that these candidates in a direction perpendicular to their (m) orientation or angle of inclination in Hinblic K examined for a light-dark or dark-light transition who the who and depending on the transition direction, a division into left (LL, RL) or right (LR, RR) lane boundary candidates for the left (3) or right (4 ) Lane marking takes place, - that based on predetermined spatial distance ranges and / or predetermined 25 orientation or inclination angle areas among the left and right lane marking associated left and right boundary candidates of the two lane markers associated pairs (LL, RL or LR, RR), that candidate pairs for the left (3) and right (4) lane markings are determined based on predetermined spatial distance ranges and / or orientation 30 or tilt angle ranges of the matched pairs these or for these pairs of candidates a quality measure is applied or calculated, that found this procedure for all vanishing points are used, and from the candidate pairs for the left and right lane markings those with the best quality measure are selected, and that the results of the quality measure are used to evaluate the relevance of the pairs of lane markers obtained. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Fluchtpunkte mit einer gewichteten, multiresolution 2D-Hough-Transformation im aufgenommenen Bild, insbesondere unter Berücksichtigung der Lage und/oder Orientierung der Kantenpixel gesucht werden, wobei gegebenenfalls der resultierende 2D-Hough-Raum, insbesondere durch Faltung mit einer Gauß-Maske, geglättet wird und die Maxima ermittelt und insbesondere die 45 stärksten Maxima als Fluchtpunkte herangezogen werden.2. The method according to claim 1, characterized in that the vanishing points are searched with a weighted, multiresolution 2D Hough transformation in the recorded image, in particular taking into account the position and / or orientation of the edge pixels, where appropriate, the resulting 2D Hough space , in particular by convolution with a Gaussian mask, is smoothed and determines the maxima and in particular the 45 strongest maxima are used as vanishing points. 3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Histogramm unter Einsatz einer gewichteten eindimensionalen Houghtransformation unter Berücksichtigung des Winkelfehlers der Verbindungslinie zwischen den jeweiligen Kantenpixel und dem zu- 50 geordneten Fluchtpunkt erstellt wird.3. The method of claim 1 or 2, characterized in that the histogram is created using a weighted one-dimensional Hough transformation, taking into account the angular error of the connecting line between the respective edge pixels and the additional 50-level vanishing point. 4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass auf die Kan didaten für die linke als auch für die rechte Spurmarkierung jeweils für sich ein Qualitätsmaß angewendet bzw. errechnet wird und die beiden erhaltenen Resultate zu einem Endes Qualitätsmaß zusammengefasst werden, das sich auf den jeweiligen Fluchtpunkt und die g ΑΤ 502 320 B1 durch diesen verlaufende Begrenzungen der linken und rechten Spurmarkierungen bezieht.4. The method according to any one of claims 1 to 3, characterized in that applied to the Kan didaten for the left and the right lane marking each for a quality measure or is calculated and summarized the two results obtained to an end quality measure, which refers to the respective vanishing point and the G ΑΤ 502 320 B1 through this running boundaries of the left and right lane markings. 5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass das Qualitätsmaß für die Kandidaten für die linke und die rechte Begrenzung der Spurmarkierung basierend auf zumindest einem der folgenden Kriterien bzw. Größen ermittelt wird: 1. ) Mittlerer orthogonaler Gradient jedes Paares von Spurbegrenzungen, berechnet aus den gemittelten mittleren orthogonalen Gradienten für jede der beiden Spurbegrenzungen und/oder 2. ) mittlerer Unterstützungsgröße für jedes Paar von Spurbegrenzungen, ermittelt aus dem Mittel aus der Anzahl der Kantenpixel, die jede der beiden Spurbegrenzungen unterstützt und/oder 3. ) Liniengleichheit innerhalb eines Paares bzw. Ähnlichkeit der Verteilung der Kantenpixel, welche die beiden Spurbegrenzungen stützen und/oder 4. ) Kontinuität der die Linien eines Paares stützenden Kantenpixel und/oder 5. ) Mittlerer seitlicher Fehler jedes Paares, wozu gegebenenfalls für jede der beiden Spurbegrenzungen die mittlere orthogonale Distanz der Kantenpixel von der Linie ermittelt und sodann das Mittel berechnet wird.A method according to claim 4, characterized in that the quality measure for the candidates for the left and the right border of the lane marker is determined based on at least one of the following criteria: 1.) Average orthogonal gradient of each pair of lane boundaries from the averaged mean orthogonal gradients for each of the two lane delineations and / or 2.) average assist size for each pair of lane delineations, averaged by the number of edge pixels supporting each of the two lane delineations and / or 3.) line equality within one 4) continuity of the edge pixels supporting the lines of a pair; and / or 5.) average lateral error of each pair, optionally with the average orthogonal for each of the two lane delineations Distance of the edge pix l is determined from the line and then the mean is calculated. 6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass für jedes aufgenommene Bild zumindest eine Hypothese entsteht und/oder gespeichert wird, die den Verlauf bzw. den Orientierung- bzw. Neigungswinkel der vier Spurmarkierungsbegrenzungen, den zugehörigen Fluchtpunkt und das zugehörige End-Qualitätsmaß umfasst.6. The method according to any one of claims 1 to 5, characterized in that for each recorded image at least one hypothesis is created and / or stored, the course or the orientation or inclination angle of the four lane markings, the associated vanishing point and the associated End quality measure includes. 7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass basierend auf den Hypothesen einer Anzahl von aufeinanderfolgend aufgenommenen Bildern die Breite der Fahrspur berechnet wird und dass dieser Wert zur Festlegung bzw. Eingrenzung des Bereiches der Distanz zwischen der linken und rechten Spurmarkierung in einem nachfolgend aufgenommenen Bild herangezogen wird.Method according to one of claims 1 to 6, characterized in that, based on the hypotheses of a number of consecutively taken pictures, the width of the lane is calculated and that this value is for defining the range of the distance between the left and right lane markings is used in a subsequently recorded image. 8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass für den jeweiligen Fluchtpunkt einer Hypothese der Neigungswinkel bzw. die Nickneigung der Bildaufnahmeeinheit berechnet wird und dass die für aufeinanderfolgende Hypothesen festgestellten Werte dieser Neigung zur Festlegung bzw. Eingrenzung des für das Auffinden von Fluchtpunkten eingesetzte 2D-Hough-Raumes für die Erstellung von Hypothesen eines folgenden Bildes herangezogen wird.8. The method according to claim 6 or 7, characterized in that for the respective vanishing point of a hypothesis of the inclination angle or the pitch angle of the image pickup unit is calculated and that for successive hypotheses determined values of this tendency to define or delimiting the for finding vanishing points used 2D Hough space for the creation of hypotheses of a subsequent image is used. 9. Computerprogrammprodukt mit Programmcode-Mitteln, die auf einem computerlesbaren Datenträger gespeichert sind, um das Verfahren nach jedem beliebigen der Ansprüche 1 bis 8 durchzuführen, wenn das Programmprodukt auf einem Computer ausgeführt wird. Hiezu 3 Blatt ZeichnungenA computer program product having program code means stored on a computer readable medium for carrying out the method of any one of claims 1 to 8 when the program product is executed on a computer. For this purpose 3 sheets of drawings
AT0113005A 2005-07-04 2005-07-04 METHOD FOR DRIVING TRAVEL IDENTIFICATION AT502320B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
AT0113005A AT502320B1 (en) 2005-07-04 2005-07-04 METHOD FOR DRIVING TRAVEL IDENTIFICATION
PCT/AT2006/000261 WO2007002964A2 (en) 2005-07-04 2006-06-26 Method for lane recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
AT0113005A AT502320B1 (en) 2005-07-04 2005-07-04 METHOD FOR DRIVING TRAVEL IDENTIFICATION

Publications (2)

Publication Number Publication Date
AT502320A1 AT502320A1 (en) 2007-02-15
AT502320B1 true AT502320B1 (en) 2007-07-15

Family

ID=37429310

Family Applications (1)

Application Number Title Priority Date Filing Date
AT0113005A AT502320B1 (en) 2005-07-04 2005-07-04 METHOD FOR DRIVING TRAVEL IDENTIFICATION

Country Status (2)

Country Link
AT (1) AT502320B1 (en)
WO (1) WO2007002964A2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007017293A1 (en) 2007-04-12 2008-10-16 Continental Automotive Gmbh Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle
DE102007019531A1 (en) 2007-04-25 2008-11-13 Continental Automotive Gmbh Lane detection with cameras of different focal lengths
DE102007033887A1 (en) 2007-07-20 2008-09-04 Vdo Automotive Ag Controller for driver assistance system with recommendation for lane change has decision device for deciding about outputting of lane change signal to the driver taking into account further lane and vehicle detection results
DE102007051967A1 (en) * 2007-10-31 2009-05-07 Adc Automotive Distance Control Systems Gmbh Detector and method for detecting a lane boundary
US9090263B2 (en) 2010-07-20 2015-07-28 GM Global Technology Operations LLC Lane fusion system using forward-view and rear-view cameras
CN109255316B (en) * 2018-08-30 2021-12-28 深圳市路畅科技股份有限公司 Lane deviation detection method and system
CN111079598B (en) * 2019-12-06 2023-08-08 深圳市艾为智能有限公司 Lane line detection method based on image texture and machine learning

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4016735B2 (en) * 2001-11-30 2007-12-05 株式会社日立製作所 Lane mark recognition method
JP3729141B2 (en) * 2002-02-27 2005-12-21 日産自動車株式会社 Road white line recognition device

Also Published As

Publication number Publication date
AT502320A1 (en) 2007-02-15
WO2007002964A3 (en) 2007-04-12
WO2007002964A2 (en) 2007-01-11

Similar Documents

Publication Publication Date Title
AT502320B1 (en) METHOD FOR DRIVING TRAVEL IDENTIFICATION
DE102013205950B4 (en) Roadside detection method
DE102005063199B4 (en) Device and method for detecting road markings
DE69635569T2 (en) Device for determining the local position of a car on a road
DE112012002885B4 (en) Method and device for image-based vehicle detection and distance measurement
DE60202341T2 (en) Lane Detection System
DE102004043794B4 (en) Method and apparatus for determining the lane of a vehicle, and a computer product
DE69736764T2 (en) Local positioning device and method therefor
DE102006005512B4 (en) System and method for measuring the distance of a preceding vehicle
DE102006057552B4 (en) System and method for measuring the distance of a preceding vehicle
DE102007013023B4 (en) Probabilistic raster map
DE112017001175T5 (en) Device and method for detecting a driving position
EP2629243A1 (en) Method for detecting and tracking lane markings
DE102015105248A1 (en) CREATING A PICTURE FROM THE ENVIRONMENT OF A TURNING VEHICLE
DE102015209467A1 (en) Method of estimating lanes
DE112010004767T5 (en) Point cloud data processing device, point cloud data processing method and point cloud data processing program
DE102008052439A1 (en) Destination parking place i.e. garage, recognizing system for car, has parking place determining unit to determine destination parking place of vehicle, where point is provided on cluster within distance between vehicle width and length
EP2888604A1 (en) Method for determining the course of a lane for a vehicle
EP2208168B1 (en) Method and device for detecting the course of a traffic lane
DE102017209700A1 (en) Method and device for detecting edges in a camera image, and vehicle
DE102015211874A1 (en) Object detection device
DE102017209631B4 (en) OBJECT IDENTIFICATION DEVICE
DE102018113559A1 (en) A method of recognizing a lane mark by validating by line width; Control means; Pitch recognition system; as well as driver assistance system
DE102015211871A1 (en) Object detection device
DE102006007550A1 (en) Roadway markings detecting method for motor vehicle, involves analyzing pixels in such a manner that roadway markings for vehicle are detected, and using ridge-operator as image recognition operator during analysis of pixels

Legal Events

Date Code Title Description
EIH Change in the person of patent owner
MM01 Lapse because of not paying annual fees

Effective date: 20120704