WO2007002964A2 - Method for lane recognition - Google Patents

Method for lane recognition Download PDF

Info

Publication number
WO2007002964A2
WO2007002964A2 PCT/AT2006/000261 AT2006000261W WO2007002964A2 WO 2007002964 A2 WO2007002964 A2 WO 2007002964A2 AT 2006000261 W AT2006000261 W AT 2006000261W WO 2007002964 A2 WO2007002964 A2 WO 2007002964A2
Authority
WO
WIPO (PCT)
Prior art keywords
lane
image
orientation
determined
vanishing point
Prior art date
Application number
PCT/AT2006/000261
Other languages
German (de)
French (fr)
Other versions
WO2007002964A3 (en
Inventor
David Schreiber
Original Assignee
Advanced Computer Vision Gmbh-Acv
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Computer Vision Gmbh-Acv filed Critical Advanced Computer Vision Gmbh-Acv
Publication of WO2007002964A2 publication Critical patent/WO2007002964A2/en
Publication of WO2007002964A3 publication Critical patent/WO2007002964A3/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis

Definitions

  • the invention relates to a method according to the preamble of claim 1.
  • the aim of the invention is to recognize with the least possible effort and with the greatest possible accuracy within a short time or with as little recorded images of a vehicle from a lane or a lane marking or other along the road extending markings or attached markings.
  • a quick finding of vanishing points is achieved with the features of claim 2!
  • a quick and accurate histogram creation is done with the characteristics of the
  • the computer program product according to the invention makes it possible for the method according to the invention to be executed on a computer.
  • Fig. 1 shows a view of a traffic lane from above.
  • Fig. 2 shows a detection of lane markings by determining four lane boundaries.
  • Fig. 3 shows edge pixels superimposed on the recorded original image to the lane boundaries.
  • FIG. 4 shows the process of voting for a vanishing point based on a pixel with the orientation or inclination angle ⁇ of a connecting line.
  • FIGS. 5 and 5a show the calculation of an image division line. 6 shows a 1 D
  • Fig. 1 shows schematically a Jardining- or camera system 1, which moves in a lane 2, seen from above in the Euclidean space.
  • the lane 2 is marked on the road by white bands or lane markings 3, 4 left and right.
  • the right mark is continuous, while the left is piecewise continuous.
  • L and R are each the distance measured from the optical center to the left and right lane markers.
  • ⁇ L and M describe the width of the left and right
  • the lane delimitations that is, the existing of two line segments boundaries of the left and right lane markers, as shown in Figure 2 can be seen. From left to right, the four lane boundaries are labeled LL (left lane marker left boundary), RL (left lane marker, right boundary), LR (right lane marker, left boundary), and RR (right lane marker right boundary). It is assumed that in the present case forward-looking image pickup unit 1, which is aligned substantially parallel to a flat road.
  • the width of the lane mark ⁇ Land AR can be calculated; in addition, the error of L, R, ⁇ L and AR can be calculated as a function of the error of the detected slopes a LL , a RL , ⁇ 7 ⁇ and a RR .
  • the lane recognition according to the invention comprises the following basic
  • Edge detection with known optical image evaluation methods and gradient measurement or determination of the orientation and position of the identified edge pixels 2. Finding vanishing points that are caused by the position and orientation of the edges, preferably using a weighted 2D Hough transform in multiple resolutions and a following 2D maximum search.
  • Vanishing Point i. Calculation of a quality measure or parameter for each hypothesis based on advantageously 5 criteria, namely mean orthogonal
  • the determined parameters concerning track width (R + L) and / or inclination angle ⁇ are stored and used as a-priori information for the evaluation of the next picture at the next point in time.
  • a known edge detection method is used to obtain a binary threshold image. The location and orientation of each edge pixel is measured. It filters out the pixels whose edge orientation is horizontal or nearly horizontal, since horizontal lane boundaries are not interesting, as this would mean that the vehicle is traveling orthogonal to the lane.
  • Figure 3. shows an image in which the lane markers edge pixels are superimposed.
  • a 2D Hough transformation is advantageously used.
  • Other methods are known and usable. It is expedient to use a weighted, multiresolute 2D Hough transformation in order to find vanishing points F in the image.
  • One of these vanishing points should correspond to the intersection of four lane boundaries.
  • a rectangular Hough space centered around the optical center of the image is assumed. If there is no a-priori knowledge of the position of the vanishing point, the size of the rectangle is defined by the maximum possible values of inclination and horizontal rotation. However, if a-priori knowledge is given from previous measurements or image evaluations and / or values of tilt and / or rotation from other sensor data, the size of the Hough space can be reduced to a smaller area, thus facilitating the evaluation.
  • the resulting 2D Hough space can be smoothed by convolution with a Gaussian mask. Then the maxima are detected and the strongest maxima are kept.
  • the pitch angle is calculated, as shown in Figure 5 and 5a.
  • the intersection of the illustrated horizontal and vertical lines corresponds to the optical center Z (x, y).
  • the drawn point is a determined vanishing point F for the
  • Image division line divides the image with respect to candidates for the boundaries of the left and right lane markers according to the equation of the tilt angle
  • Cy represents the vertical position of the optical center in the image and NumRows represents the number of image pixels in the vertical direction.
  • the resulting 1 D Hough space associated with the vanishing point (in Fig. 2) is shown in Fig. 6.
  • the 4 maximas in the Hough space or histogram correspond to the lane boundaries of Fig. 2 and are labeled LL, LR, RL and RR.
  • the vanishing point is a very robust indication, since it is derived from different information distributed in the image.
  • the search problem for straight lines at a given vanishing point is reduced from a 2D to a 1D problem.
  • the robustness can be further increased. To find support for each line is for each maximum found
  • Inclination angle is given a given line inclination and given edge pixels that support the running through the respective vanishing line, the exact orientation or its course improved by the method of the robust least squares. For this, the tilt angle is calculated, which minimizes the sum of the square, orthogonal distances of the edge pixels to the connecting line.
  • a characteristic value or quality measure for each hypothesis 5 criteria can be used. First, separate characteristics and quality measures are calculated for the candidates for the left and right lane marker pairs. The final characteristic value is a combination of the two individual values. The characteristic value of each lane marking is calculated by means of at least one of the following 5 values: 1. middle orthogonal gradient of each pair (gradient)
  • Lane marking is applied or calculated in each case a quality measure and the two results obtained are summarized to a final quality measure, which refers to the respective vanishing point and extending through this limitations of the left and right lane markers.
  • this procedure is carried out or applied to all vanishing vanishing points found and selected from the candidate pairs for the left and right lane marking those with the best quality measure and that the results of
  • the last images can be examined. If an investigation was successful, the result of the last survey step is started as the starting point for the search for the new vanishing point in a given region centered around the previous result. This limitation of the search region limits the duration and the number of detected vanishing points.
  • the width of the lane, R + L is a parameter that does not change as fast over time as the vanishing point. Therefore, the average track width is usually considered over a longer period and this value is used for the following evaluations. It is advantageous if, based on the hypotheses of a number of successively recorded images, the width of the lane is calculated and that this value is used to define or narrow down the range of the lane Distance between the left and right lane marking is used and / or for the respective vanishing point of an hypothesis, the inclination angle or the pitch of the image acquisition unit is calculated and that for successive hypotheses determined values of this slope for determining or delimiting the used for finding vanishing points 2D Hough space is used to create hypotheses of a subsequent image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method for lane recognition by means of an image recording unit carried on a vehicle. According to the invention, in each image recorded, the edges are detected and the position of the pixels of the edges determined in the image recorded, the image is analysed to determine vanishing points, for generation of an image dividing line, the foot of the given optical centre of the image is connected to the appropriate vanishing point, for each edge pixel, a connecting line to the appropriate vanishing point is generated and the orientation thereof determined, for a given number of said connection lines, the edge pixels thereof are determined and a connection line is generated through each vanishing point, said connection lines are divided into candidates for the definition of the left or right lane marking and allocated to left (LL, RL) or right (LR, RR) lane defining candidates, based on spatial distance ranges of corresponding pairs, candidate pairs for the left (3) and right (4) lane markings are determined, a quality measure is applied to said candidate pairs, and the above procedure carried out on all determined vanishing points, and form the obtained candidate pairs, those with the best quality measures are selected and the result of the quality measure used for evaluation of the relevance of the obtained pairs of lane markings.

Description

Verfahren zur Fahrspurerkennung Lane detection method
Die Erfindung betrifft ein Verfahren gemäß dem Oberbegriff des Patentanspruches 1.The invention relates to a method according to the preamble of claim 1.
Ziel der Erfindung ist es, mit möglichst wenigen Aufwand und mit möglichst großer Genauigkeit innerhalb von kurzer Zeit bzw. mit möglichst wenig aufgenommenen Bildern von einem Fahrzeug aus eine Fahrspur bzw. eine Fahrspurmarkierung oder andere sich längs der Straße erstreckende Markierungen oder angebrachte Kennzeichnungen zu erkennen.The aim of the invention is to recognize with the least possible effort and with the greatest possible accuracy within a short time or with as little recorded images of a vehicle from a lane or a lane marking or other along the road extending markings or attached markings.
Diese Ziele werden mit einem Verfahren der eingangs genannten Art erreicht, in das erfindungsgemäß mit dem im Kennzeichen des Anspruches 1 angegebenen Merkmalen charakterisiert ist. Die Bilder können in beliebiger Richtung zur Fahrbahn aufgenommen werden, insbesondere nach vorne. Mit einer relativ geringen Anzahl von aufgenommenenThese objects are achieved with a method of the type mentioned, is characterized in the present invention with the features specified in the characterizing part of claim 1. The images can be taken in any direction to the roadway, in particular to the front. With a relatively small number of recorded
Bildern wird exakt die Lage der Markierungen ermittelt.Pictures are determined exactly the position of the markers.
Eine rasche Auffindung von Fluchtpunkten wird mit den Merkmalen des Anspruches 2 erreicht! Eine rasche und exakte Erstellung eines Histogramms wird mit den Merkmalen desA quick finding of vanishing points is achieved with the features of claim 2! A quick and accurate histogram creation is done with the characteristics of the
Anspruches 3 erreicht.Claim 3 reached.
Passende Ergebnisse werden rasch und exakt erreicht, wenn die Merkmale des Anspruches 4 zur Anwendung kommen.Suitable results are achieved quickly and accurately when the features of claim 4 are used.
Eine verbesserte und exakte Auswertung der Rechenergebnisse, insbesondere eine exaktere Bestimmung der Lage der Spurmarkierungen wird mit den Merkmalen des Anspruches 5 erreicht.An improved and exact evaluation of the calculation results, in particular a more exact determination of the position of the lane markings is achieved with the features of claim 5.
Für die laufende Auswertung während der Bewegung des Fahrzeuges sind die Merkmale des Anspruches 6 bzw. der Ansprüche 7 und 8 von Vorteil. Damit können erhaltene Werte für folgende Aufnahmen als Parameter bzw. eingrenzende Werte zur Verfügung gestellt werden, womit insbesondere der Rechenaufwand verringert wird.For the ongoing evaluation during the movement of the vehicle, the features of claim 6 and the claims 7 and 8 are advantageous. Thus obtained values for the following images can be made available as parameters or limiting values, which in particular reduces the computational effort.
Das erfindungsgemäße Computerprogrammprodukt ermöglicht es, dass das erfindungsgemäße Verfahren auf einem Computer abgearbeitet werden kann.The computer program product according to the invention makes it possible for the method according to the invention to be executed on a computer.
Im Folgenden wird die Erfindung anhand der Zeichnungen beispielsweise näher erläutert. Fig. 1 zeigt eine Ansicht einer Fahrspur von oben. Fig. 2 zeigt eine Detektion von Spurmarkierungen, indem vier Spurbegrenzungen ermittelt werden. Fig. 3 zeigt Kantenpixel, die auf dem aufgenommenen Originalbild den Spurbegrenzungen überlagert wurden.In the following the invention will be explained in more detail with reference to the drawings, for example. Fig. 1 shows a view of a traffic lane from above. Fig. 2 shows a detection of lane markings by determining four lane boundaries. Fig. 3 shows edge pixels superimposed on the recorded original image to the lane boundaries.
Fig. 4 zeigt beispielsweise den Vorgang des Votierens für einen Fluchtpunkt basierend auf einem Pixel bzw. Datenpunkt mit der Orientierung bzw. dem Neigungswinkel α einer Verbindungslinie. Fig. 5 und 5a zeigen die Berechnung einer Bildteilungslinie. Fig. 6 zeigt einen 1 D-For example, Fig. 4 shows the process of voting for a vanishing point based on a pixel with the orientation or inclination angle α of a connecting line. FIGS. 5 and 5a show the calculation of an image division line. 6 shows a 1 D
Hough-Raum, der aus den Kantenpixel entsprechend Fig. 3 für den Fluchtpunkt aus Fig. 2 ermittelt wurde. Im folgenden wird die Erfindung anhand der Zeichnung beispielsweise näher erläutert.Hough space, which was determined from the edge pixels corresponding to FIG. 3 for the vanishing point of FIG. In the following the invention will be explained in more detail with reference to the drawing, for example.
In Fig. 1 zeigt schematisch ein Bildaufnahme- bzw. Kamerasystem 1 , das sich in einer Fahrspur 2 bewegt, von oben gesehen im Euklidischen Raum. Die Fahrspur 2 wird auf der Straße durch weiße Bänder bzw. Spurmarkierungen 3, 4 links und rechts markiert. Die rechte Markierung ist beispielsweise kontinuierlich, während die linke stückweise kontinuierlich ist. L und R ist jeweils die Distanz gemessen vom optischen Zentrum zur linken und rechten Spurmarkierung. ΔL und M beschreiben die Breite der linken und rechtenIn Fig. 1 shows schematically a Bildaufnahme- or camera system 1, which moves in a lane 2, seen from above in the Euclidean space. The lane 2 is marked on the road by white bands or lane markings 3, 4 left and right. For example, the right mark is continuous, while the left is piecewise continuous. L and R are each the distance measured from the optical center to the left and right lane markers. ΔL and M describe the width of the left and right
Spurmarkierung.Track mark.
Zur Fahrspurerkennung sollen die Spurbegrenzungen, das sind die aus zwei Liniensegmente bestehenden Begrenzungen der linken und rechten Spurmarkierungen, wie aus Fig.2 ersichtlich, erkannt werden. Von links nach rechts werden die vier Spurbegrenzungen mit LL (linke Spurmarkierung linke Begrenzung), RL (linke Spurmarkierung, rechte Begrenzung), LR (rechte Spurmarkierung, linke Begrenzung) und RR (rechte Spurmarkierung rechte Begrenzung) bezeichnet. Es wird von einer im vorliegenden Fall vorwärtsgerichteten Bildaufnahmeeinheit 1 ausgegangen, die im wesentlichen parallel zu einer ebenen Straße ausgerichtet ist. Im folgenden wird mit (xo, yo) der Fluchtpunkt, d.h. der Schnittpunkt der 4 Spurbegrenzungen im aufgenommenen Bild; θ ist der Neigungswinkel der Kamera zur Straße, bezeichnet, φ ist der Rotationswinkel der Kamera nach rechts oder links; / ist die Brennweite der Kamera; H ist die Höhe der Kamera über der Straße. aLL , aRL , a^ und aRR sind die jeweiligen Anstiege der 4 Spurbegrenzungen im Bild. aL und aR sind die mittleren Anstiege der linken und rechten Spurmarkierungen im Bild. L und R sind die Euklidischen Distanzen von der Kamera zur linken und rechten Spurmarkierung. Als Grundformeln gelten:For lane detection, the lane delimitations, that is, the existing of two line segments boundaries of the left and right lane markers, as shown in Figure 2 can be seen. From left to right, the four lane boundaries are labeled LL (left lane marker left boundary), RL (left lane marker, right boundary), LR (right lane marker, left boundary), and RR (right lane marker right boundary). It is assumed that in the present case forward-looking image pickup unit 1, which is aligned substantially parallel to a flat road. In the following, with (x o , y o ) the vanishing point, ie the intersection of the 4 lane boundaries in the recorded image; θ is the inclination angle of the camera to the road, designated, φ is the rotation angle of the camera to the right or left; / is the focal length of the camera; H is the height of the camera above the road. a LL , a RL , a ^ and a RR are the respective slopes of the 4 lane boundaries in the image. a L and a R are the average slopes of the left and right lane markings in the image. L and R are the Euclidean distances from the camera to the left and right lane markers. Basic formulas are:
Figure imgf000004_0001
Figure imgf000004_0001
Figure imgf000004_0002
Aus (2) kann daher die Breite der Spurmarkierung ΔLand AR berechnet werden; zusätzlich kann der Fehler von L, R, ΔL and AR als Funktion des Fehlers der ermittelten Anstiege aLL , aRL , <7ω und aRR berechnet werden.
Figure imgf000004_0002
From (2), therefore, the width of the lane mark ΔLand AR can be calculated; in addition, the error of L, R, ΔL and AR can be calculated as a function of the error of the detected slopes a LL , a RL , <7 ω and a RR .
Die erfindungsgemäße Fahrspurerkennung umfasst die folgenden grundlegendenThe lane recognition according to the invention comprises the following basic
Schritte:Steps:
1. Kantendetektion mit bekannten optischen Bildauswertungsverfahren und Gradientenmessung bzw. Feststellung der Orientierung und Lage der identifizierten Kantenpixel 2. Auffinden von Fluchtpunkten, die durch die Lage und Orientierung der Kanten bedingt sind, vorzugsweise unter Verwendung einer gewichteten 2D-Hough- Transformation in mehreren Auflösungen und einer folgenden 2D-Maximum- Suche.1. Edge detection with known optical image evaluation methods and gradient measurement or determination of the orientation and position of the identified edge pixels 2. Finding vanishing points that are caused by the position and orientation of the edges, preferably using a weighted 2D Hough transform in multiple resolutions and a following 2D maximum search.
3. Für jeden gefundenen Fluchtpunkt a. Berechnung des Teilungswinkel bzw. einer Bildteilungslinie zwischen der linken und rechten Spurmarkierung und deren Begrenzung b. Auffinden von Linien bzw. Verbindungslinien, die durch den Fluchtpunkt gehen, vorteilhafterweise unter Verwendung einer 1 D-Hough- Transformation und einer 1-dimensionalen Maximumsuche c. Auffinden der Unterstützung der einzelnen Linien und Bildung eines3. For each vanishing point found a. Calculation of the pitch angle or an image division line between the left and right lane markers and their boundaries b. Locating lines passing through the vanishing point, advantageously using a 1-D Hough transform and a 1-dimensional maximum search c. Finding the support of each line and forming one
Histogrammes mit den Neigungswinkeln der ermittelten Verbindungslinien, d. Verbesserung der Orientierung bzw. des Neigungswinkels jeder Verbindungslinie durch die Methode der robusten kleinsten Abstandsquadrate (Minimierung der Summe der quadratischen, orthogonalen Abstände der Kantenpixele von der durch den Fluchtpunkt gehenden Verbindungslinie e. Berechnung des mittleren orthogonalen Gradienten für jede Verbindungslinie bzw. von Hell-Dunkel- bzw. Dunkel-Hell-Übergängen f. Auffinden von Spurbegrenzungs-Kandidaten LL, RL, LR und RR g. Auffinden von Spurmarkierungs-Kandidaten (Paare LL, RL und LR, RR) h. Suche unter den der linken Spurmarkierung und/oder den der rechten Spurmarkierung zugeordneten linken und rechten Begrenzungs- Kandidaten der beiden Spurmarkierungen nach zusammengehörigen Paaren bzw. Auffinden von Spur-Kandidaten und Erstellung einer kompletten Hypothese von 4 Spurbegrenzungen für den jeweiligenHistogram with the angles of inclination of the determined connecting lines, d. Improvement of the orientation or the angle of inclination of each connecting line by the least squares method (minimizing the sum of the quadratic orthogonal distances of the edge pixel from the connecting line passing through the vanishing point e) Calculating the average orthogonal gradient for each connecting line or chiaroscuro or dark-light transitions for finding lane boundary candidates LL, RL, LR and RR g locating lane marker candidates (pairs LL, RL and LR, RR) h search among those of the left lane marker and / or the left and right boundary candidates associated with the right lane marking the two lane markers for matching pairs or finding track candidates and creating a complete hypothesis of 4 lane delimitations for the respective
Fluchtpunkt. i. Berechnung eines Qualitätsmaßes bzw. Kennwertes für jede Hypothese basierend auf vorteilhafterweise 5 Kriterien, nämlich mittlerer orthogonalerVanishing Point. i. Calculation of a quality measure or parameter for each hypothesis based on advantageously 5 criteria, namely mean orthogonal
Gradient jedes Paares von Spurbegrenzungen und/oder mittlereGradient of each pair of lane boundaries and / or medium
Unterstützungsgröße für jede Begrenzung und/oder Ähnlichkeit innerhalb eines Paares von Begrenzungen und/oder Kontinuität der die Begrenzung stützenden Kantenpixel und/oder mittlerer seitlicher Fehler jedes Paares.Support size for any bounds and / or similarities within a pair of bounds and / or continuity of the boundary-supporting edge pixels and / or mean lateral errors of each pair.
4. Auswahl von Hypothesen mit den höchsten Kennwerten4. Selection of hypotheses with the highest characteristic values
5. Die ermittelten Parameter betreffend Spurbreite (R+L) und/oder Neigungswinkel θ werden gespeichert und als a-priori Information für die Auswertung des nächsten Bildes im nächsten Zeitpunkt weiterverwendet.5. The determined parameters concerning track width (R + L) and / or inclination angle θ are stored and used as a-priori information for the evaluation of the next picture at the next point in time.
Zur Kantendetektion und Gradientenmessung wird ein bekannter Kantendetektionsverfahren eingesetzt, um ein binäres Schwellwertbild zu erhalten. Die Lage und Orientierung jedes Kantenpixels wird gemessen. Es werden die Pixel herausgefiltert, deren Kantenorientierung horizontal oder annähernd horizontal ist, da waagrechte Spurbegrenzungen nicht interessant sind, da dies bedeuten würde, dass das Fahrzeug orthogonal zur Fahrspur fährt. Fig.3. zeigt ein Bild, in den den Spurmarkierungen Kantenpixel überlagert sind.For edge detection and gradient measurement, a known edge detection method is used to obtain a binary threshold image. The location and orientation of each edge pixel is measured. It filters out the pixels whose edge orientation is horizontal or nearly horizontal, since horizontal lane boundaries are not interesting, as this would mean that the vehicle is traveling orthogonal to the lane. Figure 3. shows an image in which the lane markers edge pixels are superimposed.
Zur Auffindung des Fluchtpunktes F wird vorteilhafterweise eine 2D Hough- Transformation eingesetzt. Andere Verfahren sind bekannt und einsetzbar. Zweckmäßig wird eine gewichtete, multiresoluten 2D Hough-Transformation verwendet, um Fluchtpunkte F im Bild zu finden. Einer dieser Fluchtpunkte sollte mit dem Schnittpunkt von vier Spurbegrenzungen korrespondieren. Um diesen zu finden, wird ein rechteckiger, um das optische Zentrum des Bildes zentrierter Hough-Raum angenommen. Wenn kein a-priori Wissen über die Position des Fluchtpunktes gegeben ist, wird die Größe des Rechteckes über die größtmöglichen Werte von Neigung und waagrechter Rotation definiert. Wenn jedoch a-priori Wissen aus vorangehenden Messungen bzw. Bildauswertungen gegeben ist und/oder durch Werte von Neigung und/oder Rotation aus anderen Sensordaten, kann die Größe des Hough-Raumes auf ein kleineres Gebiet reduziert werden, womit die Auswertung erleichtert wird.In order to find the vanishing point F, a 2D Hough transformation is advantageously used. Other methods are known and usable. It is expedient to use a weighted, multiresolute 2D Hough transformation in order to find vanishing points F in the image. One of these vanishing points should correspond to the intersection of four lane boundaries. To find this, a rectangular Hough space centered around the optical center of the image is assumed. If there is no a-priori knowledge of the position of the vanishing point, the size of the rectangle is defined by the maximum possible values of inclination and horizontal rotation. However, if a-priori knowledge is given from previous measurements or image evaluations and / or values of tilt and / or rotation from other sensor data, the size of the Hough space can be reduced to a smaller area, thus facilitating the evaluation.
Jeder Datenpunkt, gemeinsam mit seiner Orientierung, definiert ein Segment,Each data point, together with its orientation, defines a segment,
~ y0 )cos (ßi ) = (*/ ~ *0 )sül (at ) (3)bi ~ y 0 ) cos (bi) = (* / ~ * 0 ) sül ( a t) ( 3 )
und votiert für alle Zellen im Hough-Raum, die sich mit diesem Segment schneiden (siehe Fig.4). Der resultierende 2D-Hough-Raum kann durch Faltung mit einer Gauß-Maske, geglättet werden. Danach werden die Maxima detektiert und die stärksten Maxima werden behalten.and voted for all cells in Hough space that intersect with this segment (see Fig. 4). The resulting 2D Hough space can be smoothed by convolution with a Gaussian mask. Then the maxima are detected and the strongest maxima are kept.
Zum Auffinden der Neigungswinkel für gerade Linien bzw. Verbindungslinien, bei bekanntem Fluchtpunkt zur Unterscheidung zwischen den Begrenzungen der linken und rechten Spurmarkierungen, wird der Teilungswinkel berechnet, wie in Fig.5 und 5a gezeigt.For finding the inclination angles for straight lines or connecting lines, with known vanishing point for distinguishing between the boundaries of the left and right lane markings, the pitch angle is calculated, as shown in Figure 5 and 5a.
Der Schnittpunkt der dargestellten horizontalen und vertikalen Linie korrespondiert mit dem optischen Zentrum Z (x, y). Der eingezeichnete Punkt ist ein ermittelter Fluchtpunkt F für dieThe intersection of the illustrated horizontal and vertical lines corresponds to the optical center Z (x, y). The drawn point is a determined vanishing point F for the
Spurbegrenzungen. Vor der Detektion der vier Begrenzungslinien wird eine Linie zwischen dem Fluchtpunkt F (x0, y0) und dem unteren Ende der vertikalen Linie gezogen. DieseTrack boundaries. Before the detection of the four boundary lines, a line is drawn between the vanishing point F (x 0 , y 0 ) and the lower end of the vertical line. These
Bildteilungslinie teilt das Bild in Hinblick auf Kandidaten für die Begrenzungen der linken und rechten Spurmarkierungen entsprechend der Gleichung der NeigungswinkelImage division line divides the image with respect to candidates for the boundaries of the left and right lane markers according to the equation of the tilt angle
ß = atan2((Cy - NumRows) - yo,-Xo (4)ß = atan2 ((Cy - NumRows) - y o , -Xo (4)
wobei Cy die vertikale Position des optischen Zentrums im Bild und NumRows die Anzahl der Bildpixel in vertikaler Richtung darstellt.where Cy represents the vertical position of the optical center in the image and NumRows represents the number of image pixels in the vertical direction.
Bei gegebenem Fluchtpunkt {χQ, yQ) werden zweckmäßigerweise unter aus vorangehenden Messungen bzw. Bildauswertungen Verwendung einer eindimensionalen Hough-Transformation gerade Liniensegmente gesucht, die durch den Fluchtpunkt F gehen. Die Detektion der Spurbegrenzungen bei gegebenem Fluchtpunkt F ist robuster als die Detektion ohne gegebenem Fluchtpunkt, da die Position des Fluchtpunktes die Interpretation der Datenpunkte als Linien stark einschränkt.For a given Diminishing {χ Q, y Q) of a one-dimensional Hough transform are straight line segments searched conveniently effected under from previous measurements or evaluations using image that pass through the vanishing point F. The detection of the lane boundaries at a given vanishing point F is more robust than the detection without a given vanishing point, since the position of the vanishing point severely restricts the interpretation of the data points as lines.
Bei gegebenem Fluchtpunkt und einem Datenpunkt (*,., )>. ) votiert dieser für eine mögliche Existenz einer Linie mit NeigungFor a given vanishing point and a data point (*,.,)>. ), this vote for a possible existence of a line with inclination
Figure imgf000007_0001
Figure imgf000007_0001
Unter Berücksichtung des Fehlers in der Orientierung (der nicht durch den gemessenen Gradienten der Pixel sondern durch den Lokalisierungsfehler jedes Datenpunktes (*,., )>,.) verursacht wird),Taking into account the error in the orientation (which is not caused by the measured gradient of the pixels but by the localization error of each data point (*,.,)>,.)),
Figure imgf000007_0002
wird, wie in Fig. 5b näher erläutert, für alle Neigungswinkel im Intervall [at - AanOi1 + Aa1] votiert. Danach wird zweckmäßigerweise der 1 D-Hough-Raum
Figure imgf000007_0002
is, as explained in more detail in Fig. 5b, for all inclination angles in the interval [a t - Aa n Oi 1 + Aa 1 ] voted. Thereafter, the 1 D-Hough space is expediently
(Histogramm) basierend auf Orientierung bzw. Neigungswinkel der Verbindungslinien beispielsweise mit einer Gauß-Maske geglättet. In diesem Histogramm wird nach Verbindungslinien mit den stärksten Maxima gesucht.(Histogram) based on orientation or inclination angle of the connecting lines, for example, smoothed with a Gaussian mask. This histogram searches for connecting lines with the strongest maxima.
Der resultierende 1 D-Hough-Raum,der mit dem Fluchtpunkt (in Fig.2) assoziiert ist, wird in Fig. 6 gezeigt. Die 4 Maximas im Hough-Raum bzw. Histogramm korrespondieren mit den Spurbegrenzungen von Fig.2 und sind mit LL, LR, RL und RR markiert.The resulting 1 D Hough space associated with the vanishing point (in Fig. 2) is shown in Fig. 6. The 4 maximas in the Hough space or histogram correspond to the lane boundaries of Fig. 2 and are labeled LL, LR, RL and RR.
Das Faktum, dass der Fluchtpunkt zuerst und erst dann die Spurbegrenzungen detektiert werden, macht die Methode robuster. Der Fluchtpunkt ist ein sehr robuster Hinweis, da er von unterschiedlicher, im Bild verteilter Information abgeleitet wird. Das Suchproblem für gerade Linien bei gegebenem Fluchtpunkt wird von einem 2D zu einem 1 D-Problem reduziert. Bei Verwendung einer Top-down Heuristik (Einsatz des geometrischen anstatt des gemessenen Gradienten) kann die Robustheit weiter erhöht werden. Zur Auffindung von Unterstützung für jede Linie wird für jedes gefundene MaximumThe fact that the vanishing point is detected first and then the lane delimitations makes the method more robust. The vanishing point is a very robust indication, since it is derived from different information distributed in the image. The search problem for straight lines at a given vanishing point is reduced from a 2D to a 1D problem. When using a top-down heuristic (use of the geometric instead of the measured gradient), the robustness can be further increased. To find support for each line is for each maximum found
(entspricht einer bestimmten Linienneigung) des 1 D-Hough-Raumes dessen Unterstützung im Bild berechnet. Dazu wird die Anzahl der Kantenpixel ermittelt, die diese Linie unterstützten, wobei eine gewisse orthogonale Abweichung des Pixels von der Linie zugelassen wird. Zur Verbesserung der Bestimmung der Linienneigung, d.h. der Orientierung bzw. des(corresponding to a certain line slope) of the 1 D Hough space whose support is calculated in the image. For this purpose, the number of edge pixels that support this line is determined, allowing some orthogonal deviation of the pixel from the line. To improve the determination of line slope, i. the orientation or the
Neigungswinkels, wird bei gegebener Linienneigung und gegebenen Kantenpixel, die die durch den jeweiligen Fluchtpunkt verlaufende Linie unterstützen, die genaue Orientierung bzw. deren Verlauf durch die Methode der robusten kleinsten Abstandsquadrate verbessert. Dazu wird der Neigungswinkel berechnet, der die Summe der quadratischen, orthogonalen Distanzen der Kantenpixel zur Verbindungslinie minimiert.Inclination angle, is given a given line inclination and given edge pixels that support the running through the respective vanishing line, the exact orientation or its course improved by the method of the robust least squares. For this, the tilt angle is calculated, which minimizes the sum of the square, orthogonal distances of the edge pixels to the connecting line.
Wenn AI und ΔJ das Resultat einer Faltung des Orginalbildes mit der passenden Orientierungsmaske ist, dann ist das Gradientenbild der Kantenpixel gegeben durch - All AJ . Der mittlere orthogonale Gradient einer Linie ist dann gegeben durch die GleichungIf AI and ΔJ is the result of a convolution of the original image with the appropriate orientation mask, then the gradient image of the edge pixels is given by - All AJ. The mean orthogonal gradient of a line is then given by the equation
i » PerpGrad = — J] (- sin (a, ) AI (x, , yt )+ cos (a, ) • ΔJ (x, , y, )) (8) n - ir=\i »PerpGrad = - J] (- sin (a,) AI (x ,, y t ) + cos (a,) • ΔJ (x,, y,)) (8) n - ir = \
Die Spurbegrenzungs-Kandidaten LL, RL, LR und RR werden sodann aufgrund ihres mittleren orthogonalen Gradienten (PerpGrad) ausgewählt (Übergang von dunkel zu hell oder umgekehrt) und nach ihren Neigungswinkeln kleiner oder größer als der Teilungswinkel bzw. Neigungswinkel der Bildteilungslinie klassifiziert: LL = {a, \a(≤ß + Aß A PerpGrad ,. > 0}The lane boundary candidates LL, RL, LR and RR are then selected based on their average orthogonal gradient (PerpGrad) (transition from dark to light or vice versa) and classified according to their inclination angles smaller or larger than the pitch angle of the image splitting line: LL = {a, \ a ( ≤β + Aβ A PerpGrad,.> 0}
LR = {at \at≤ß + Aß Λ PerpGrad t < 0}LR = {a t \ a t ≤β + Aβ Λ PerpGrad t <0}
O)O)
RL = {a, \at≥ß-Aß Λ PerpGrad t > 0}RL = {a, \ a t ≥β -Aß Λ PerpGrad t > 0}
LR = (^1. \at≥ß-Aß A PerpGrad . < 0}LR = (^ 1. \ A t ≥ß-Aß A PerpGrad. <0}
wobei z.B. Aß = \° verwendet werden kann. Zum Auffinden von Paaren von Spurmarkierungs-Kandidaten (Paare LL1RL undwhere eg Aβ = \ ° can be used. To find pairs of lane marker candidates (pairs LL 1 RL and
LR1RR) wird wie folgt vorgegangen:LR 1 RR), the procedure is as follows:
Um die linken Spurmarkierung-Kandidaten zu ermitteln, werden alle LL und RL Kandidaten paarweise gruppiert gemäßTo find the left lane marker candidates, all LL and RL candidates are grouped in pairs according to
ajeLR> a(eLL Λ W≥mϊnW-dW Λ W≤m&xW + dW (10)a j eLR> a (eLL Λ Λ W≥mϊnW-dW W≤m & xW + dW (10)
wobei W die Breite der Spurmarkierung, und dW der ermittelte Fehler von W ist aufgrund Fehler in der Neigung. Auf gleiche Weise werden die rechten Spurmarkierung-Kandidaten berechnet:where W is the width of the lane marker, and dW is the detected error of W due to slope errors. In the same way, the right lane marker candidates are calculated:
ctjGRR > a(G RL Λ W≥minW-dW Λ W≤msixW + dW (11)ct j GRR> a ( G RL Λ W≥minW-dW Λ W≤msixW + dW (11)
wobei beispielsweise praxisgerecht vorgegebene verwendet werden könnten.wherein, for example, practically predetermined ones could be used.
Zum Auffinden der Spurkandidaten, d.h. einer kompletten Hypothese der vier Spurbegrenzungen LL, RL, LR, RR, werden Paare von linken und rechten Spurmarkierungen gruppiert und überprüft, ob die Gesamtbreite der Spur gemäß üblichen Straßenbedingungen sinnvoll ist gemäßTo find the track candidates, i. According to a complete hypothesis of the four lane delineations LL, RL, LR, RR, pairs of left and right lane markers are grouped and it is checked whether the total width of the lane is reasonable according to usual road conditions according to
R+L≥mmLR A R+L≤mzxLR (12)R + L≥mmLR A R + L≤mzxLR (12)
Zur Berechnung eines Kennwertes bzw. Qualitätsmaßes für jede Hypothese können 5 Kriterien herangezogen werden. Zuerst werden separate Kennwerte bzw. Qualitätsmaße für die Kandidaten für die Paare der linken und rechten Spurmarkierung berechnet. Der endgültige Kennwert ist eine Verknüpfung der beiden einzelnen Werte. Der Kennwert jeder Spurmarkierung wird mittels zumindest einem der folgenden 5 Werten berechnet: 1. mittlerer orthogonaler Gradient jedes Paares (Gradient)For the calculation of a characteristic value or quality measure for each hypothesis 5 criteria can be used. First, separate characteristics and quality measures are calculated for the candidates for the left and right lane marker pairs. The final characteristic value is a combination of the two individual values. The characteristic value of each lane marking is calculated by means of at least one of the following 5 values: 1. middle orthogonal gradient of each pair (gradient)
Wie in (8) beschrieben. Es wird der mittleren orthogonale Gradienten für jede der 2 Spurbegrenzungen berechnet und das Mittel errechnet.As described in (8). Calculate the mean orthogonal gradient for each of the 2 lane delineations and calculate the mean.
2. mittlere Unterstützungsgröße für jedes Paar (SupportSize) Es wird die Anzahl der Kantenpixel ermittelt, die jede der beiden Spurbegrenzungen unterstützt und das Mittel berechnet.2. Medium support size for each pair (SupportSize) Determines the number of edge pixels that supports each of the two lane boundaries and calculates the average.
3. Liniengleichheit innerhalb eines Paares (Similarity)3. Line equality within a pair (similarity)
Dazu wird berechnet, wie gleich die Kantendaten von 2 Spurbegrenzungen derselben Spurmarkierung sind. 4. mittlere Kontinuität der Kantenpixel, die ein Paar stützen (continuity)For this, it is calculated how equal the edge data of 2 lane boundaries of the same lane marker are. 4. average continuity of edge pixels supporting a pair (continuity)
5. mittlerer seitlicher Fehler jedes Paares [Lateral Erroή, wozu für jede der 2 Spurbegrenzungen die mittlere orthogonale Distanz der Datenpixel von der Linie und dann das Mittel errechnet wird.5. Lateral lateral error of each pair [Lateral Erroή, for which the average orthogonal distance of the data pixels from the line and then the mean is calculated for each of the 2 lane delineations.
Im folgenden erfolgt eine Auswahl des Spurmarkierungen mit maximalen Kennwert. Es ist femer vorgesehen, dass auf die Kandidaten für die linke als auch für die rechteBelow is a selection of lane markers with maximum characteristic. It is also envisaged that candidates for the left as well as the right
Spurmarkierung jeweils für sich ein Qualitätsmaß angewendet bzw. errechnet wird und die beiden erhaltenen Resultate zu einem End-Qualitätsmaß zusammengefasst werden, das sich auf den jeweiligen Fluchtpunkt und die durch diesen verlaufende Begrenzungen der linken und rechten Spurmarkierungen bezieht. Vorteilhafterweise ist vorgesehen, dass diese Vorgangsweise für alle aufgefundenen Fluchtpunkte vorgenommen bzw. angewendet wird und aus den erhaltenen Kandidatenpaaren für die linke und rechte Spurmarkierung diejenigen mit den besten Qualitätsmaßes ausgewählt werden und dass die Ergebnisse desLane marking is applied or calculated in each case a quality measure and the two results obtained are summarized to a final quality measure, which refers to the respective vanishing point and extending through this limitations of the left and right lane markers. Advantageously, it is provided that this procedure is carried out or applied to all vanishing vanishing points found and selected from the candidate pairs for the left and right lane marking those with the best quality measure and that the results of
Qualitätsmaßes zur Bewertung der Relevanz der erhaltenen Paare von Spurmarkierungen eingesetzt werden. Schließlich erfolgt eine Speicherung und Weiterverwendung der erhaltenen Werte bzw. Parameter.Quality measure used to assess the relevance of the obtained pairs of lane markers. Finally, storage and further use of the values or parameters obtained take place.
Zur Verfolgung des Fluchtpunktes können die jeweils letzten Bilder untersucht werden. Sofern eine Ermittlung erfolgreich war, wird das Resultat des letzten Erhebungsschrittes als Startpunkt für die Suche nach dem neuen Fluchtpunkt in einer vorgegebenen Region zentriert um das vorhergehende Resultat gestartet. Diese Eingrenzung der Suchregion limitiert die Laufzeit und die Anzahl der detektierten Fluchtpunkte.To trace the vanishing point, the last images can be examined. If an investigation was successful, the result of the last survey step is started as the starting point for the search for the new vanishing point in a given region centered around the previous result. This limitation of the search region limits the duration and the number of detected vanishing points.
Die Breite der Fahrspur, R + L , ist ein Parameter der sich über die Zeit nicht so schnell ändert, wie der Fluchtpunkt. Deshalb wird die durchschnittliche Spurbreite üblicherweise über einen längeren Zeitraum betrachtet und dieser Wert für folgende Auswertungen herangezogen. Von Vorteil ist es dazu, wenn basierend auf den Hypothesen einer Anzahl von aufeinanderfolgend aufgenommenen Bildern die Breite der Fahrspur berechnet wird und dass dieser Wert zur Festlegung bzw. Eingrenzung des Bereiches der Distanz zwischen der linken und rechten Spurmarkierung herangezogen wird und/oder für den jeweiligen Fluchtpunkt einer Hypothese der Neigungswinkel bzw. die Nickneigung der Bildaufnahmeeinheit berechnet wird und dass die für aufeinanderfolgende Hypothesen festgestellten Werte dieser Neigung zur Festlegung bzw. Eingrenzung des für das Auffinden von Fluchtpunkten eingesetzte 2D-Hough-Raumes für die Erstellung von Hypothesen eines folgenden Bildes herangezogen wird.The width of the lane, R + L, is a parameter that does not change as fast over time as the vanishing point. Therefore, the average track width is usually considered over a longer period and this value is used for the following evaluations. It is advantageous if, based on the hypotheses of a number of successively recorded images, the width of the lane is calculated and that this value is used to define or narrow down the range of the lane Distance between the left and right lane marking is used and / or for the respective vanishing point of an hypothesis, the inclination angle or the pitch of the image acquisition unit is calculated and that for successive hypotheses determined values of this slope for determining or delimiting the used for finding vanishing points 2D Hough space is used to create hypotheses of a subsequent image.
Patentansprüche claims

Claims

Patentansprüche: claims:
1. Verfahren zur Fahrspurerkennung und/oder -Verfolgung mit einer, insbesondere einer einzigen, an einem Fahrzeug mitgeführten Bildaufnahmeeinheit, insbesondere Kamera, mit vorgegebener Lage und Ausrichtung bezüglich des Fahrzeuges und/oder der Straße, mit der Bilder von der Straße aufgenommen werden, dadurch gekennzeichnet,1. A method for lane detection and / or tracking with one, in particular a single, on a vehicle entrained image recording unit, in particular camera, with a predetermined position and orientation with respect to the vehicle and / or the road, are taken with the images of the road, characterized in
- dass in dem jeweils aufgenommenen Bild vorhandene Kanten detektiert und die Lage und die Orientierung der Pixel von den im Bild festgestellten Kanten ermittelt werden,that edges present in the respectively recorded image are detected and the position and the orientation of the pixels are determined by the edges detected in the image,
- dass das Bild in Hinblick auf durch die Lage und Orientierung der Kantenpixel bedingte Fluchtpunkte untersucht wird,that the image is examined with regard to vanishing points caused by the position and orientation of the edge pixels,
- dass zur Erstellung einer Bildteilungslinie für die einzelnen festgestellten Fluchtpunkte der Fußpunkt des vorgegebenen optischen Zentrums des Bildes mit dem jeweiligen Fluchtpunkt verbunden wird,that the foot point of the predetermined optical center of the image is connected to the respective vanishing point in order to produce an image division line for the individual detected vanishing points,
- dass für jedes Kantenpixel eine Verbindungslinie zum jeweiligen Fluchtpunkt erstellt und deren Orientierung bzw. Neigungswinkel ermittelt wird,that for each edge pixel a connecting line to the respective vanishing point is created and its orientation or angle of inclination is determined,
- dass für den jeweiligen Fluchtpunkt mit den ermittelten Orientierungen bzw. Neigungswinkeln aller erstellten Verbindungslinien ein Histogramm gebildet wird,that a histogram is formed for the respective vanishing point with the determined orientations or angles of inclination of all created connecting lines,
- dass das Histogramm nach Verbindungslinien mit am stärksten vertretenen Orientierungen bzw. Neigungswinkel untersucht wird, - dass für eine vorgegebene Anzahl dieser Verbindungslinien die diese stützenden Kantenpixel ermittelt und basierend auf diesen Kantenpixel mit der Methode der robusten kleinsten Abstandsquadrate eine eine(n) verbesserte(n) Orientierung bzw. Neigungswinkel aufweisende Verbindungslinie durch den jeweiligen Fluchtpunkt erstellt wird,that the histogram is examined for connecting lines with the most strongly represented orientations or angles of inclination, that for a given number of these connecting lines the supporting edge pixel determines and based on this edge pixel with the method of least squares robust one (n) improved (n ) Orientation or inclination angle connecting line is created by the respective vanishing point,
- dass diese verbesserten Verbindungslinien in Hinblick auf Ihre Orientierung bzw. Neigungswinkel in Bezug auf die Bildteilungslinie in Kandidaten für die Begrenzungen der linken oder der rechten Spurmarkierung aufgeteilt werden,that these improved connecting lines are divided into candidates for the limitations of the left or the right lane mark with respect to their orientation or inclination angle with respect to the image dividing line,
- dass diese Kandidaten in eine Richtung senkrecht zu ihrer(m) Orientierung bzw. Neigungswinkel in Hinblick auf einen Hell-Dunkel- bzw. Dunkel-Hell-Übergang untersucht werden und abhängig von der Übergangsrichtung eine Einteilung in linke (LL, RL) oder rechte (LR, RR) Spurbegrenzungskandidaten für die linke (3) oder die rechte (4) Spurmarkierung erfolgt,- That these candidates are examined in a direction perpendicular to their (m) orientation or inclination angle with respect to a light-dark or dark-light transition and depending on the transition direction, a division into left (LL, RL) or right (LR, RR) lane boundary candidates for left (3) or right (4) lane marking
- dass basierend auf vorgegebenen räumlichen Distanzbereichen und/oder vorgegebenen Orientierungs- bzw. Neigungswinkel-Bereichen unter den der linken Spurmarkierung und/oder den der rechten Spurmarkierung zugeordneten linken und rechten Begrenzungs- Kandidaten der beiden Spurmarkierungen zusammengehörige Paare (LL, RL bzw. LR, RR) ermittelt werden, - dass basierend auf vorgegebenen räumlichen Distanzbereichen und/oder Orientierungsbzw. Neigungswinkel-Bereichen der zusammengehörigen Paare Kandidatenpaare für die linke (3) und rechte (4) Spurmarkierung ermittelt werden,in that, based on predetermined spatial distance ranges and / or predetermined orientation or inclination angle ranges, among the left and right boundary candidates of the two track markings assigned to the left-hand track marking and / or the right-hand track marking, mutually associated pairs (LL, RL or LR, RR), - That based on predetermined spatial distance ranges and / or Orientierungsbzw. Tilt angle ranges of matched pairs candidate pairs for the left (3) and right (4) lane markers are determined
- dass auf diese bzw. für diese Kandidatenpaare ein Qualitätsmaß angewendet bzw. berechnet wird,- that a quality measure is applied or calculated on these or for these candidate pairs,
- dass diese Vorgangsweise für alle aufgefundenen Fluchtpunkte vorgenommen bzw. angewendet wird und aus den erhaltenen Kandidatenpaaren für die linke und rechte Spurmarkierung diejenigen mit den besten Qualitätsmaßes ausgewählt werden und- That this procedure is made or applied to all vanishing vanishing points and selected from the candidate pairs for the left and right lane marking those with the best quality measure are selected and
- dass die Ergebnisse des Qualitätsmaßes zur Bewertung der Relevanz der erhaltenen Paare von Spurmarkierungen eingesetzt werden.- That the results of the quality measure are used to evaluate the relevance of the obtained pairs of lane markers.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Fluchtpunkte mit einer gewichteten, multiresolution 2D-Hough-Transformation im aufgenommenen Bild, insbesondere unter Berücksichtigung der Lage und/oder Orientierung der Kantenpixel gesucht werden, wobei gegebenenfalls der resultierende 2D-Hough-Raum, insbesondere durch Faltung mit einer Gauß-Maske, geglättet wird und die Maxima ermittelt und insbesondere die stärksten Maxima als Fluchtpunkte herangezogen werden.2. The method according to claim 1, characterized in that the vanishing points are searched with a weighted, multiresolution 2D Hough transformation in the recorded image, in particular taking into account the position and / or orientation of the edge pixels, where appropriate, the resulting 2D Hough space , in particular by convolution with a Gaussian mask, is smoothed and determines the maxima and in particular the strongest maxima are used as vanishing points.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Histogramm unter Einsatz einer gewichteten eindimensionalen Houghtransformation unter3. The method according to claim 1 or 2, characterized in that the histogram using a weighted one-dimensional Hough transformation under
Berücksichtigung des Winkelfehlers der Verbindungslinie zwischen den jeweiligen Kantenpixel und dem zugeordneten Fluchtpunkt erstellt wird.Considering the angle error of the connecting line between the respective edge pixels and the associated vanishing point is created.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass auf die Kandidaten für die linke als auch für die rechte Spurmarkierung jeweils für sich ein4. The method according to any one of claims 1 to 3, characterized in that the candidates for the left as well as for the right lane marking each one
Qualitätsmaß angewendet bzw. errechnet wird und die beiden erhaltenen Resultate zu einem End-Qualitätsmaß zusammengefasst werden, das sich auf den jeweiligen Fluchtpunkt und die durch diesen verlaufende Begrenzungen der linken und rechten Spurmarkierungen bezieht.Quality measure is applied or calculated and summarized the two results obtained to a final quality measure, which refers to the respective vanishing point and extending through this limitations of the left and right lane markers.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass das Qualitätsmaß für die Kandidaten für die linke und die rechte Begrenzung der Spurmarkierung basierend auf zumindest einem der folgenden Kriterien bzw. Größen ermittelt wird:5. The method according to claim 4, characterized in that the quality measure for the candidates for the left and the right boundary of the lane marker is determined based on at least one of the following criteria or quantities:
1.) Mittlerer orthogonaler Gradient jedes Paares von Spurbegrenzungen, berechnet aus den gemittelten mittleren orthogonalen Gradienten für jede der beiden1.) Average orthogonal gradient of each pair of lane boundaries calculated from the average mean orthogonal gradients for each of the two
Spurbegrenzungen und/oder Gauge limits and / or
2.) mittlerer Unterstützungsgröße für jedes Paar von Spurbegrenzungen, ermittelt aus dem Mittel aus der Anzahl der Kantenpixel, die jede der beiden Spurbegrenzungen unterstützt und/oder2.) average assist size for each pair of lane boundaries, determined from the average of the number of edge pixels that supports and / or each of the two lane boundaries
3.) Liniengleichheit innerhalb eines Paares bzw. Ähnlichkeit der Verteilung der Kantenpixel, welche die beiden Spurbegrenzungen stützen und/oder3.) Line equality within a pair or similarity of the distribution of edge pixels, which support the two lane boundaries and / or
4.) Kontinuität der die Linien eines Paares stützenden Kantenpixel und/oder 5.) Mittlerer seitlicher Fehler jedes Paares, wozu gegebenenfalls für jede der beiden Spurbegrenzungen die mittlere orthogonale Distanz der Kantenpixel von der Linie ermittelt und sodann das Mittel berechnet wird.4.) continuity of the edge lines supporting a pair of lines and / or 5.) average lateral error of each pair, where appropriate for each of the two lane delineations determining the average orthogonal distance of the edge pixels from the line and then calculating the mean.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass für jedes aufgenommene Bild zumindest eine Hypothese entsteht und/oder gespeichert wird, die den Verlauf bzw. den Orientierung- bzw. Neigungswinkel der vier Spurmarkierungsbegrenzungen, den zugehörigen Fluchtpunkt und das zugehörige End- Qualitätsmaß umfasst.6. The method according to any one of claims 1 to 5, characterized in that for each recorded image at least one hypothesis is created and / or stored, the course or the orientation or inclination angle of the four lane markings, the associated vanishing point and the associated End quality measure includes.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass basierend auf den Hypothesen einer Anzahl von aufeinanderfolgend aufgenommenen Bildern die Breite der Fahrspur berechnet wird und dass dieser Wert zur Festlegung bzw. Eingrenzung des Bereiches der Distanz zwischen der linken und rechten Spurmarkierung in einem nachfolgend aufgenommenen Bild herangezogen wird.Method according to one of claims 1 to 6, characterized in that, based on the hypotheses of a number of consecutively taken pictures, the width of the lane is calculated and that this value is for defining the range of the distance between the left and right lane markings is used in a subsequently recorded image.
8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass für den jeweiligen Fluchtpunkt einer Hypothese der Neigungswinkel bzw. die Nickneigung der Bildaufnahmeeinheit berechnet wird und dass die für aufeinanderfolgende Hypothesen festgestellten Werte dieser Neigung zur Festlegung bzw. Eingrenzung des für das Auffinden von Fluchtpunkten eingesetzte 2D-Hough-Raumes für die Erstellung von Hypothesen eines folgenden Bildes herangezogen wird.8. The method according to claim 6 or 7, characterized in that for the respective vanishing point of a hypothesis of the inclination angle or the pitch angle of the image pickup unit is calculated and that for successive hypotheses determined values of this tendency to define or delimiting the for finding vanishing points used 2D Hough space for the creation of hypotheses of a subsequent image is used.
9. Computerprogrammprodukt mit Programmcode-Mitteln, die auf einem computerlesbaren Datenträger gespeichert sind, um das Verfahren nach jedem beliebigen der Ansprüche 1 bis 8 durchzuführen, wenn das Programmprodukt auf einem Computer ausgeführt wird. A computer program product having program code means stored on a computer readable medium for carrying out the method of any one of claims 1 to 8 when the program product is executed on a computer.
PCT/AT2006/000261 2005-07-04 2006-06-26 Method for lane recognition WO2007002964A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AT0113005A AT502320B1 (en) 2005-07-04 2005-07-04 METHOD FOR DRIVING TRAVEL IDENTIFICATION
ATA1130/2005 2005-07-04

Publications (2)

Publication Number Publication Date
WO2007002964A2 true WO2007002964A2 (en) 2007-01-11
WO2007002964A3 WO2007002964A3 (en) 2007-04-12

Family

ID=37429310

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/AT2006/000261 WO2007002964A2 (en) 2005-07-04 2006-06-26 Method for lane recognition

Country Status (2)

Country Link
AT (1) AT502320B1 (en)
WO (1) WO2007002964A2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007033887A1 (en) 2007-07-20 2008-09-04 Vdo Automotive Ag Controller for driver assistance system with recommendation for lane change has decision device for deciding about outputting of lane change signal to the driver taking into account further lane and vehicle detection results
DE102007017293A1 (en) 2007-04-12 2008-10-16 Continental Automotive Gmbh Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle
WO2008132130A1 (en) 2007-04-25 2008-11-06 Continental Automotive Gmbh Driving lane detection using cameras having different focal lengths
DE102007051967A1 (en) * 2007-10-31 2009-05-07 Adc Automotive Distance Control Systems Gmbh Detector and method for detecting a lane boundary
CN109255316A (en) * 2018-08-30 2019-01-22 深圳市路畅科技股份有限公司 A kind of lane shift detection method and system
CN111079598A (en) * 2019-12-06 2020-04-28 深圳市艾为智能有限公司 Lane line detection method based on image texture and machine learning
DE102011107190B4 (en) 2010-07-20 2022-03-17 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Method for determining the position of a vehicle in a lane

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1320072A2 (en) * 2001-11-30 2003-06-18 Hitachi Ltd. Lane marker recognition method
JP2003256854A (en) * 2002-02-27 2003-09-12 Nissan Motor Co Ltd Apparatus for recognizing road white line

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1320072A2 (en) * 2001-11-30 2003-06-18 Hitachi Ltd. Lane marker recognition method
JP2003256854A (en) * 2002-02-27 2003-09-12 Nissan Motor Co Ltd Apparatus for recognizing road white line

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CANTONI V ET AL: "Vanishing point detection: representation analysis and new approaches" IMAGE ANALYSIS AND PROCESSING, 2001. PROCEEDINGS. 11TH INTERNATIONAL CONFERENCE ON SEPT.26-28, 2001, PISCATAWAY, NJ, USA,IEEE, 26. September 2001 (2001-09-26), Seiten 90-94, XP010561229 ISBN: 0-7695-1183-X *
KASTRINAKI V ET AL: "A survey of video processing techniques for traffic applications" IMAGE VISION COMPUT; IMAGE AND VISION COMPUTING APR 1 2003, Bd. 21, Nr. 4, 1. April 2003 (2003-04-01), Seiten 359-381, XP002410024 *
SCHREIBER DAVID ET AL: "Single camera lane detection and tracking" IEEE CONF INTELL TRANSPORT SYST PROC ITSC; IEEE CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS, PROCEEDINGS, ITSC; ITSC'05: 2005 IEEE INTELLIGENT CONFERENCE ON TRANSPORTATION SYSTEMS, PROCEEDINGS 2005, Bd. 2005, 2005, Seiten 1114-1119, XP002410102 *
SHIH-PING LIOU ET AL: "Road following using vanishing points" COMPUTER VISION, GRAPHICS, AND IMAGE PROCESSING USA, Bd. 39, Nr. 1, Juli 1987 (1987-07), Seiten 116-130, XP008072039 ISSN: 0734-189X *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007017293A1 (en) 2007-04-12 2008-10-16 Continental Automotive Gmbh Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle
WO2008132130A1 (en) 2007-04-25 2008-11-06 Continental Automotive Gmbh Driving lane detection using cameras having different focal lengths
DE102007019531A1 (en) 2007-04-25 2008-11-13 Continental Automotive Gmbh Lane detection with cameras of different focal lengths
DE102007033887A1 (en) 2007-07-20 2008-09-04 Vdo Automotive Ag Controller for driver assistance system with recommendation for lane change has decision device for deciding about outputting of lane change signal to the driver taking into account further lane and vehicle detection results
DE102007051967A1 (en) * 2007-10-31 2009-05-07 Adc Automotive Distance Control Systems Gmbh Detector and method for detecting a lane boundary
US8355540B2 (en) 2007-10-31 2013-01-15 Adc Automotive Distance Controls Systems Gmbh Detector and method for identifying a road lane boundary
DE102011107190B4 (en) 2010-07-20 2022-03-17 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Method for determining the position of a vehicle in a lane
CN109255316A (en) * 2018-08-30 2019-01-22 深圳市路畅科技股份有限公司 A kind of lane shift detection method and system
CN111079598A (en) * 2019-12-06 2020-04-28 深圳市艾为智能有限公司 Lane line detection method based on image texture and machine learning
CN111079598B (en) * 2019-12-06 2023-08-08 深圳市艾为智能有限公司 Lane line detection method based on image texture and machine learning

Also Published As

Publication number Publication date
AT502320B1 (en) 2007-07-15
WO2007002964A3 (en) 2007-04-12
AT502320A1 (en) 2007-02-15

Similar Documents

Publication Publication Date Title
DE69625423T2 (en) Device for recognizing an object in which the position of a flat object is estimated using a Hough transformation
DE69624614T2 (en) Stereo matching and inequality measurement method
DE102006057552B4 (en) System and method for measuring the distance of a preceding vehicle
DE69635569T2 (en) Device for determining the local position of a car on a road
DE602004004911T2 (en) OBJECT DETECTION SYSTEM AND OBJECT DETECTION METHOD
DE102006005512B4 (en) System and method for measuring the distance of a preceding vehicle
DE602004003811T2 (en) OBJECT DETECTION SYSTEM AND METHOD FOR DETECTING AN OBJECT
DE69937699T2 (en) Device for monitoring the environment of a vehicle
DE60117348T2 (en) Lane Detection Device for Vehicles
DE102016124879A1 (en) Method, device and device for determining lane lines
DE102004043794B4 (en) Method and apparatus for determining the lane of a vehicle, and a computer product
DE102005035746B4 (en) Method for determining a relative position of a mobile unit by comparing scans of an environment and mobile unit
AT502320B1 (en) METHOD FOR DRIVING TRAVEL IDENTIFICATION
EP2963631B1 (en) Method for determining a parking space from a number of measuring points
DE102018129388A1 (en) DETECTION DEVICE FOR THE EXTERNAL ENVIRONMENT OF VEHICLES
EP2206075B1 (en) Detector and method for detecting a lane boundary
DE112020005547T5 (en) PROCESSING DEVICE
DE102021213021A1 (en) PARKING ASSISTANCE SYSTEM WITH IMPROVED ESCAPE CONTROL AND METHOD THEREOF
EP3279049B1 (en) Control system and control method for determining a roadway
EP2208168B1 (en) Method and device for detecting the course of a traffic lane
DE102018213515A1 (en) Method and device for detecting a boundary in an environment of an object
DE102021203796A1 (en) ROAD SURFACE DETECTION DEVICE, ROAD SURFACE DETECTION SYSTEM, VEHICLE, AND ROAD SURFACE DETECTION METHOD
DE102013001867A1 (en) Method for determining orientation and corrected position of motor vehicle, involves registering features of loaded and recorded environmental data by calculating transformation and calculating vehicle orientation from transformation
DE102006007550A1 (en) Roadway markings detecting method for motor vehicle, involves analyzing pixels in such a manner that roadway markings for vehicle are detected, and using ridge-operator as image recognition operator during analysis of pixels
DE102008059551B4 (en) Method for determining the change in position of a camera system and device for capturing and processing images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06741056

Country of ref document: EP

Kind code of ref document: A2