AT502320B1 - METHOD FOR DRIVING TRAVEL IDENTIFICATION - Google Patents
METHOD FOR DRIVING TRAVEL IDENTIFICATION Download PDFInfo
- Publication number
- AT502320B1 AT502320B1 AT0113005A AT11302005A AT502320B1 AT 502320 B1 AT502320 B1 AT 502320B1 AT 0113005 A AT0113005 A AT 0113005A AT 11302005 A AT11302005 A AT 11302005A AT 502320 B1 AT502320 B1 AT 502320B1
- Authority
- AT
- Austria
- Prior art keywords
- lane
- image
- orientation
- vanishing point
- vanishing
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
Description
2 AT 502 320 B12 AT 502 320 B1
Die Erfindung betrifft ein Verfahren gemäß dem Oberbegriff des Patentanspruches 1.The invention relates to a method according to the preamble of claim 1.
Ziel der Erfindung ist es, mit möglichst wenigen Aufwand und mit möglichst großer Genauigkeit innerhalb von kurzer Zeit bzw. mit möglichst wenig aufgenommenen Bildern von einem Fahr-5 zeug aus eine Fahrspur bzw. eine Fahrspurmarkierung oder andere sich längs der Straße erstreckende Markierungen oder angebrachte Kennzeichnungen zu erkennen.The aim of the invention is, with the least possible effort and with the greatest possible accuracy within a short time or with as little recorded images of a driving-5 convincing a lane or a lane marking or other along the road extending markings or attached markings to recognize.
Diese Ziele werden mit einem Verfahren der eingangs genannten Art erreicht, in das erfindungsgemäß mit dem im Kennzeichen des Anspruches 1 angegebenen Merkmalen charakteri-io siert ist. Die Bilder können in beliebiger Richtung zur Fahrbahn aufgenommen werden, insbesondere nach vorne. Mit einer relativ geringen Anzahl von aufgenommenen Bildern wird exakt die Lage der Markierungen ermittelt.These objects are achieved with a method of the type mentioned, in the invention according to the invention with the features specified in the characterizing part of claim 1 Characteri-io Siert. The images can be taken in any direction to the roadway, in particular to the front. With a relatively small number of recorded images, the exact location of the markings is determined.
Eine rasche Auffindung von Fluchtpunkten wird mit den Merkmalen des Anspruches 2 erreicht. 15A quick detection of vanishing points is achieved with the features of claim 2. 15
Eine rasche und exakte Erstellung eines Histogramms wird mit den Merkmalen des Anspruches 3 erreicht.A quick and accurate creation of a histogram is achieved with the features of claim 3.
Passende Ergebnisse werden rasch und exakt erreicht, wenn die Merkmale des Anspruches 4 20 zur Anwendung kommen.Appropriate results are achieved quickly and accurately when the features of claim 4 20 are used.
Eine verbesserte und exakte Auswertung der Rechenergebnisse, insbesondere eine exaktere Bestimmung der Lage der Spurmarkierungen wird mit den Merkmalen des Anspruches 5 erreicht. 25 Für die laufende Auswertung während der Bewegung des Fahrzeuges sind die Merkmale des Anspruches 6 bzw. der Ansprüche 7 und 8 von Vorteil. Damit können erhaltene Werte für folgende Aufnahmen als Parameter bzw. eingrenzende Werte zur Verfügung gestellt werden, womit insbesondere der Rechenaufwand verringert wird. 30An improved and exact evaluation of the calculation results, in particular a more exact determination of the position of the lane markings is achieved with the features of claim 5. 25 For the ongoing evaluation during the movement of the vehicle, the features of claim 6 and the claims 7 and 8 are advantageous. Thus obtained values for the following images can be made available as parameters or limiting values, which in particular reduces the computational effort. 30
Das erfindungsgemäße Computerprogrammprodukt ermöglicht es, dass das erfindungsgemäße Verfahren auf einem Computer abgearbeitet werden kann.The computer program product according to the invention makes it possible for the method according to the invention to be executed on a computer.
Im Folgenden wird die Erfindung anhand der Zeichnungen beispielsweise näher erläutert. Fig. 1 35 zeigt eine Ansicht einer Fahrspur von oben. Fig. 2 zeigt eine Detektion von Spurmarkierungen, indem vier Spurbegrenzungen ermittelt werden. Fig. 3 zeigt Kantenpixel, die auf dem aufgenommenen Originalbild den Spurbegrenzungen überlagert wurden.In the following the invention will be explained in more detail with reference to the drawings, for example. Fig. 1 35 shows a view of a traffic lane from above. Fig. 2 shows a detection of lane markings by determining four lane boundaries. Fig. 3 shows edge pixels superimposed on the recorded original image to the lane boundaries.
Fig. 4 zeigt beispielsweise den Vorgang des Votierens für einen Fluchtpunkt basierend auf 40 einem Pixel bzw. Datenpunkt mit der Orientierung bzw. dem Neigungswinkel α einer Verbindungslinie.For example, Fig. 4 shows the process of voting for a vanishing point based on 40 pixels with the orientation or inclination angle α of a connecting line.
Fig. 5 und 5a zeigen die Berechnung einer Bildteilungslinie. Fig. 6 zeigt einen 1 D-Hough-Raum, der aus den Kantenpixel entsprechend Fig. 3 für den Fluchtpunkt aus Fig. 2 ermittelt wurde. 45FIGS. 5 and 5a show the calculation of an image division line. FIG. 6 shows a 1 D-Hough space which was determined from the edge pixels corresponding to FIG. 3 for the vanishing point from FIG. 2. 45
Im folgenden wird die Erfindung anhand der Zeichnung beispielsweise näher erläutert.In the following the invention will be explained in more detail with reference to the drawing, for example.
In Fig. 1 zeigt schematisch ein Bildaufnahme- bzw. Kamerasystem 1, das sich in einer Fahrspur 2 bewegt, von oben gesehen im Euklidischen Raum. Die Fahrspur 2 wird auf der Straße durch so weiße Bänder bzw. Spurmarkierungen 3, 4 links und rechts markiert. Die rechte Markierung ist beispielsweise kontinuierlich, während die linke stückweise kontinuierlich ist. L und R ist jeweils die Distanz gemessen vom optischen Zentrum zur linken und rechten Spurmarkierung. AL und AR beschreiben die Breite der linken und rechten Spurmarkierung. 55 Zur Fahrspurerkennung sollen die Spurbegrenzungen, das sind die aus zwei Liniensegmente 3 AT 502 320 B1 bestehenden Begrenzungen der linken und rechten Spurmarkierungen, wie aus Fig. 2 ersichtlich, erkannt werden. Von links nach rechts werden die vier Spurbegrenzungen mit LL (linke Spurmarkierung linke Begrenzung), RL (linke Spurmarkierung, rechte Begrenzung), LR (rechte Spurmarkierung, linke Begrenzung) und RR (rechte Spurmarkierung rechte Begrenzung) be-5 zeichnet.In Fig. 1 shows schematically a Bildaufnahme- or camera system 1, which moves in a lane 2, seen from above in the Euclidean space. The lane 2 is marked on the road by so white bands or lane markers 3, 4 left and right. For example, the right mark is continuous, while the left is piecewise continuous. L and R are each the distance measured from the optical center to the left and right lane markers. AL and AR describe the width of the left and right lane markers. 55 For lane detection, the lane delimitations, that is, the existing of two line segments 3 AT 502 320 B1 boundaries of the left and right lane markers, as shown in FIG. 2 can be seen. From left to right, the four lane boundaries are marked LL (left lane marker left boundary), RL (left lane marker, right boundary), LR (right lane marker, left boundary), and RR (right lane marker right boundary).
Es wird von einer im vorliegenden Fall vorwärtsgerichteten Bildaufnahmeeinheit 1 ausgegangen, die im wesentlichen parallel zu einer ebenen Straße ausgerichtet ist. Im folgenden wird mit (x0,yo) der Fluchtpunkt, d.h. der Schnittpunkt der 4 Spurbegrenzungen im aufgenommenen Bild; ίο Θ ist der Neigungswinkel der Kamera zur Straße, bezeichnet. Φ ist der Rotationswinkel der Kamera nach rechts oder links; f ist die Brennweite der Kamera; H ist die Höhe der Kamera über der Straße. aLL, aRL, aLR und aRR sind die jeweiligen Anstiege der 4 Spurbegrenzungen im Bild. aL und aR sind die mittleren Anstiege der linken und rechten Spurmarkierungen im Bild. L und R sind die Euklidischen Distanzen von der Kamera zur linken und rechten Spurmarkierung. 15 Als Grundformeln gelten: 20 25 X0=-f tan(^) cos(0) y0 = -f tan(0) (1) i _ ,, cos(^)-atsin(^)sin(0) L —H-7TT — aLcos(0) ΐη- II cos(^) - aff sin(^)sin(fl) aRcos(0)It is assumed that in the present case forward-looking image pickup unit 1, which is aligned substantially parallel to a flat road. In the following, with (x0, yo) the vanishing point, i. the intersection of the 4 lane boundaries in the captured image; ίο Θ is the tilt angle of the camera to the road, called. Φ is the rotation angle of the camera to the right or left; f is the focal length of the camera; H is the height of the camera above the road. aLL, aRL, aLR and aRR are the respective slopes of the 4 lane boundaries in the picture. aL and aR are the average slopes of the left and right lane markers in the image. L and R are the Euclidean distances from the camera to the left and right lane markers. 15 Basic formulas are: 20 25 X0 = -f tan (^) cos (0) y0 = -f tan (0) (1) i _ ,, cos (^) - atsin (^) sin (0) L -H -7TT - aLcos (0) ΐη- II cos (^) - aff sin (^) sin (fl) aRcos (0)
Aus (2) kann daher die Breite der Spurmarkierung AL and AR berechnet werden; zusätzlich kann der Fehler von L, R, AL and AR als Funktion des Fehlers der ermittelten Anstiege aLL, aRL, 30 aLR, aRR berechnet werden.From (2), therefore, the width of the lane mark AL and AR can be calculated; in addition, the error of L, R, AL and AR can be calculated as a function of the error of the detected slopes aLL, aRL, 30 aLR, aRR.
Die erfindungsgemäße Fahrspurerkennung umfasst die folgenden grundlegenden Schritte: 1. Kantendetektion mit bekannten optischen Bildauswertungsverfahren und Gradientenmes-35 sung bzw. Feststellung der Orientierung und Lage der identifizierten Kantenpixel 2. Auffinden von Fluchtpunkten, die durch die Lage und Orientierung der Kanten bedingt sind, vorzugsweise unter Verwendung einer gewichteten 2D-Hough-Transformation in mehreren Auflösungen und einer folgenden 2D-Maximum-Suche. 40 45 50 3. Für jeden gefundenen Fluchtpunkt a. Berechnung des Teilungswinkel bzw. einer Bildteilungslinie zwischen der linken und rechten Spurmarkierung und deren Begrenzung b. Auffinden von Linien bzw. Verbindungslinien, die durch den Fluchtpunkt gehen, vorteilhafterweise unter Verwendung einer 1D-Hough-Transformation und einer 1-dimensionalen Maximumsuche c. Auffinden der Unterstützung der einzelnen Linien und Bildung eines Histogrammes mit den Neigungswinkeln der ermittelten Verbindungslinien, d. Verbesserung der Orientierung bzw. des Neigungswinkels jeder Verbindungslinie durch die Methode der robusten kleinsten Abstandsquadrate (Minimierung der Summe der quadratischen, orthogonalen Abstände der Kantenpixele von der durch den Fluchtpunkt gehenden Verbindungslinie e. Berechnung des mittleren orthogonalen Gradienten für jede Verbindungslinie bzw. von Hell-Dunkel- bzw. Dunkel-Hell-ÜbergängenThe lane detection according to the invention comprises the following basic steps: 1. Edge detection with known optical image evaluation method and gradient measurement or determination of the orientation and position of the identified edge pixels 2. Locating vanishing points, which are caused by the position and orientation of the edges, preferably below Using a weighted 2D Hough transform in multiple resolutions and a following 2D maximum search. 40 45 50 3. For each vanishing point found a. Calculation of the pitch angle or an image division line between the left and right lane markers and their boundaries b. Locating lines passing through the vanishing point, advantageously using a 1D Hough transform and a 1-dimensional maximum search c. Finding the support of the individual lines and forming a histogram with the angles of inclination of the determined connecting lines, d. Improvement of the orientation or inclination angle of each connecting line by the least squares method (minimizing the sum of the quadratic orthogonal distances of the edge pixel from the connecting line passing through the vanishing point e) Calculating the mean orthogonal gradient for each connecting line or chiaroscuro - or dark-light transitions
f. Auffinden von Spurbegrenzungs-Kandidaten LL, RL, LR und RR g. Auffinden von Spurmarkierungs-Kandidaten (Paare LL, RL und LR, RR) 55 5 5 4 10 AT 502 320 B1 h. Suche unter den der linken Spurmarkierung und/oder den der rechten Spurmarkierung zugeordneten linken und rechten Begrenzungs-Kandidaten der beiden Spurmarkierungen nach zusammengehörigen Paaren bzw. Auffinden von Spur-Kandidaten und Erstellung einer kompletten Hypothese von 4 Spurbegrenzungen für den jeweiligen Fluchtpunkt. i. Berechnung eines Qualitätsmaßes bzw. Kennwertes für jede Hypothese basierend auf vorteilhaftenweise 5 Kriterien, nämlich mittlerer orthogonaler Gradient jedes Paares von Spurbegrenzungen und/oder mittlere Unterstützungsgröße für jede Begrenzung und/oder Ähnlichkeit innerhalb eines Paares von Begrenzungen und/oder Kontinuität der die Begrenzung stützenden Kantenpixel und/oder mittlerer seitlicher Fehler jedes Paares. 4. Auswahl von Hypothesen mit den höchsten Kennwerten 5. Die ermittelten Parameter betreffend Spurbreite (R+L) und/oder Neigungswinkel Θ werden gespeichert und als a-priori Information für die Auswertung des nächsten Bildes im nächsten 15 Zeitpunkt weiterverwendet.f. Locating lane boundary candidates LL, RL, LR and RR g. Locating Lane Marker Candidates (LL, RL and LR, RR Ranges) 55 5 5 4 10 AT 502 320 B1 h. Search among the left and right boundary candidates of the two lane markers for the left lane marking and / or the right lane marking for matching pairs or finding lane candidates and compile a complete hypothesis of 4 lane boundaries for the respective vanishing point. i. Calculating a quality measure for each hypothesis based on advantageously 5 criteria, namely, mean orthogonal gradient of each pair of lane delineations and / or average assist size for each bound and / or similarity within a pair of bounds and / or continuity of bound edge pixels and / or middle side error of each pair. 4. Selection of hypotheses with the highest characteristic values 5. The determined parameters concerning track width (R + L) and / or inclination angle Θ are stored and used as a-priori information for the evaluation of the next image at the next 15 point in time.
Zur Kantendetektion und Gradientenmessung wird ein bekannter Kantendetektionsverfahren eingesetzt, um ein binäres Schwellwertbild zu erhalten. Die Lage und Orientierung jedes Kantenpixels wird gemessen. Es werden die Pixel herausgefiltert, deren Kantenorientierung hori-20 zontal oder annähernd horizontal ist, da waagrechte Spurbegrenzungen nicht interessant sind, da dies bedeuten würde, dass das Fahrzeug orthogonal zur Fahrspur fährt. Fig. 3 zeigt ein Bild, in den den Spurmarkierungen Kantenpixel überlagert sind.For edge detection and gradient measurement, a known edge detection method is used to obtain a binary threshold image. The location and orientation of each edge pixel is measured. It filters out the pixels whose edge orientation is horizontally or nearly horizontal, since horizontal lane boundaries are not interesting, as this would mean that the vehicle is orthogonal to the lane. Fig. 3 shows an image in which the lane markers edge pixels are superimposed.
Zur Auffindung des Fluchtpunktes F wird vorteilhaftenweise eine 2D Hough-Transformation 25 eingesetzt. Andere Verfahren sind bekannt und einsetzbar. Zweckmäßig wird eine gewichtete, multiresoluten 2D Hough-Transformation verwendet, um Fluchtpunkte F im Bild zu finden. Einer dieser Fluchtpunkte sollte mit dem Schnittpunkt von vier Spurbegrenzungen korrespondieren. Um diesen zu finden, wird ein rechteckiger, um das optische Zentrum des Bildes zentrierter Hough-Raum angenommen. Wenn kein a-priori Wissen über die Position des Fluchtpunktes 30 gegeben ist, wird die Größe des Rechteckes über die größtmöglichen Werte von Neigung und waagrechter Rotation definiert. Wenn jedoch a-priori Wissen aus vorangehenden Messungen bzw. Bildauswertungen gegeben ist und/oder durch Werte von Neigung und/oder Rotation aus anderen Sensordaten, kann die Größe des Hough-Raumes auf ein kleineres Gebiet reduziert werden, womit die Auswertung erleichtert wird. 35To find the vanishing point F, a 2D Hough transformation 25 is advantageously used. Other methods are known and usable. It is expedient to use a weighted, multiresolute 2D Hough transformation in order to find vanishing points F in the image. One of these vanishing points should correspond to the intersection of four lane boundaries. To find this, a rectangular Hough space centered around the optical center of the image is assumed. Given no a-priori knowledge of the location of the vanishing point 30, the size of the rectangle is defined by the maximum values of tilt and horizontal rotation. However, if a-priori knowledge is given from previous measurements or image evaluations and / or values of tilt and / or rotation from other sensor data, the size of the Hough space can be reduced to a smaller area, thus facilitating the evaluation. 35
Jeder Datenpunkt, gemeinsam mit seiner Orientierung, definiert ein Segment, (y,· -yo)cos(a, ) = (x,. -x0)sin(or, ) (3) 40 und votiert für alle Zellen im Hough-Raum, die sich mit diesem Segment schneiden (siehe Fig. 4).Each data point, along with its orientation, defines a segment, (y, · -yo) cos (a,) = (x, -x0) sin (or,) (3) 40, and voted for all cells in Hough space that intersect with this segment (see Fig. 4).
Der resultierende 2D-Hough-Raum kann durch Faltung mit einer Gauß-Maske, geglättet werden. Danach werden die Maxima detektiert und die stärksten Maxima werden behalten. 45The resulting 2D Hough space can be smoothed by convolution with a Gaussian mask. Then the maxima are detected and the strongest maxima are kept. 45
Zum Auffinden der Neigungswinkel für gerade Linien bzw. Verbindungslinien, bei bekanntem Fluchtpunkt zur Unterscheidung zwischen den Begrenzungen der linken und rechten Spurmarkierungen, wird der Teilungswinkel berechnet, wie in Fig. 5 und 5a gezeigt. Der Schnittpunkt der dargestellten horizontalen und vertikalen Linie korrespondiert mit dem optischen Zentrum so Z (x, y). Der eingezeichnete Punkt ist ein ermittelter Fluchtpunkt F für die Spurbegrenzungen. Vor der Detektion der vier Begrenzungslinien wird eine Linie zwischen dem Fluchtpunkt F (x0, yo) und dem unteren Ende der vertikalen Linie gezogen. Diese Bildteilungslinie teilt das Bild in Hinblick auf Kandidaten für die Begrenzungen der linken und rechten Spurmarkierungen entsprechend der Gleichung der Neigungswinkel 55 5 AT 502 320 B1 ß = atan2((Cy - NumRows) - y0,-Xo (4) wobei Cy die vertikale Position des optischen Zentrums im Bild und NumRows die Anzahl der Bildpixel in vertikaler Richtung darstellt. 5For finding the inclination angles for straight lines or connecting lines, with a known vanishing point for distinguishing between the boundaries of the left and right lane markings, the pitch angle is calculated, as shown in FIGS. 5 and 5a. The intersection of the horizontal and vertical lines shown corresponds to the optical center Z (x, y). The drawn point is a determined vanishing point F for the lane boundaries. Before the detection of the four boundary lines, a line is drawn between the vanishing point F (x0, yo) and the lower end of the vertical line. This image dividing line divides the image with respect to candidates for the boundaries of the left and right lane markers according to the equation of the tilt angles 55 5 AT 502 320 B1 β = atan2 ((Cy-NumRows) -y0, -Xo (4) where Cy is the vertical position of the optical center in the image and NumRows represents the number of image pixels in the vertical direction
Bei gegebenem Fluchtpunkt (x0.yo) werden zweckmäßigerweise unter aus vorangehenden Messungen bzw. Bildauswertungen Verwendung einer eindimensionalen Hough-Transformation gerade Liniensegmente gesucht, die durch den Fluchtpunkt F gehen. Die Detektion der Spurbegrenzungen bei gegebenem Fluchtpunkt F ist robuster als die Detektion ohne gegebenem io Fluchtpunkt, da die Position des Fluchtpunktes die Interpretation der Datenpunkte als Linien stark einschränkt.For a given vanishing point (x0.yo), it is expedient to search straight line segments which pass through the vanishing point F from the preceding measurements or image evaluations using a one-dimensional Hough transformation. The detection of the lane boundaries at a given vanishing point F is more robust than the detection without a given vanishing point, since the position of the vanishing point severely limits the interpretation of the data points as lines.
Bei gegebenem Fluchtpunkt und einem Datenpunkt (x;,y,) votiert dieser für eine mögliche Existenz einer Linie mit Neigung 15 tan(a,) (y,-y0) (X, -*o) (5) 20 Unter Berücksichtung des Fehlers in der Orientierung (der nicht durch den gemessenen Gradienten der Pixel sondern durch den Lokalisierungsfehler jedes Datenpunktes (x„y,) verursacht wird), 25 Δα, = atanFor a given vanishing point and a data point (x;, y,), it voted for a possible existence of a line with an inclination 15 tan (a,) (y, -y0) (X, - * o) (5) 20 Considering the error in the orientation (which is not caused by the measured gradient of the pixels but by the localization error of each data point (x "y,)) 25 Δα, = atan
(6) wird, wie in Fig. 5b näher erläutert, für alle Neigungswinkel im Intervall [α,· - Δα,,α, + Δα,] votiert. Danach wird zweckmäßigerweise der 1 D-Hough-Raum (Histogramm) basierend auf Orientie-30 rung bzw. Neigungswinkel der Verbindungslinien beispielsweise mit einer Gauß-Maske geglättet. In diesem Histogramm wird nach Verbindungslinien mit den stärksten Maxima gesucht.(6) is, as explained in more detail in Fig. 5b, for all inclination angles in the interval [α, · - Δα ,, α, + Δα,] voted. Thereafter, the 1-D Hough space (histogram) is expediently smoothed based on orientation or inclination angle of the connecting lines, for example with a Gaussian mask. This histogram searches for connecting lines with the strongest maxima.
Der resultierende 1 D-Hough-Raum, der mit dem Fluchtpunkt (in Fig. 2) assoziiert ist, wird in Fig. 6 gezeigt. Die 4 Maximas im Hough-Raum bzw. Histogramm korrespondieren mit den 35 Spurbegrenzungen von Fig. 2 und sind mit LL, LR, RL und RR markiert.The resulting 1 D-Hough space associated with the vanishing point (in FIG. 2) is shown in FIG. The 4 maximas in the Hough space and histogram, respectively, correspond to the 35 lane boundaries of FIG. 2 and are labeled LL, LR, RL and RR.
Das Faktum, dass der Fluchtpunkt zuerst und erst dann die Spurbegrenzungen detektiert werden, macht die Methode robuster. Der Fluchtpunkt ist ein sehr robuster Hinweis, da er von unterschiedlicher, im Bild verteilter Information abgeleitet wird. Das Suchproblem für gerade 40 Linien bei gegebenem Fluchtpunkt wird von einem 2D zu einem 1D-Problem reduziert. Bei Verwendung einer Top-down Heuristik (Einsatz des geometrischen anstatt des gemessenen Gradienten) kann die Robustheit weiter erhöht werden.The fact that the vanishing point is detected first and then the lane delimitations makes the method more robust. The vanishing point is a very robust indication, since it is derived from different information distributed in the image. The search problem for just 40 lines at a given vanishing point is reduced from a 2D to a 1D problem. When using a top-down heuristic (use of the geometric instead of the measured gradient), the robustness can be further increased.
Zur Auffindung von Unterstützung für jede Linie wird für jedes gefundene Maximum (entspricht 45 einer bestimmten Linienneigung) des 1 D-Hough-Raumes dessen Unterstützung im Bild berechnet. Dazu wird die Anzahl der Kantenpixel ermittelt, die diese Linie unterstützten, wobei eine gewisse orthogonale Abweichung des Pixels von der Linie zugelassen wird.To find support for each line, for each maximum found (corresponding to a certain line slope) of the 1 D-Hough space, its support is calculated in the image. For this purpose, the number of edge pixels that support this line is determined, allowing some orthogonal deviation of the pixel from the line.
Zur Verbesserung der Bestimmung der Linienneigung, d.h. der Orientierung bzw. des Nei-50 gungswinkels, wird bei gegebener Linienneigung und gegebenen Kantenpixel, die die durch den jeweiligen Fluchtpunkt verlaufende Linie unterstützen, die genaue Orientierung bzw. deren Verlauf durch die Methode der robusten kleinsten Abstandsquadrate verbessert. Dazu wird der Neigungswinkel berechnet, der die Summe der quadratischen, orthogonalen Distanzen der Kantenpixel zur Verbindungslinie minimiert. 55 5 5 6 AT 502 320 B1To improve the determination of line slope, i. the orientation or the Nei-50 supply angle, is given a given line inclination and given edge pixels that support the running through the respective vanishing line, the exact orientation or its course improved by the method of robust least squares. For this, the tilt angle is calculated, which minimizes the sum of the square, orthogonal distances of the edge pixels to the connecting line. 55 5 5 6 AT 502 320 B1
Wenn Al und AJ das Resultat einer Faltung des Originalbildes mit der passenden Orientierungsmaske ist, dann ist das Gradientenbild der Kantenpixel gegeben durch -AllAJ. Der mittlere orthogonale Gradient einer Linie ist dann gegeben durch die Gleichung 1 nPerpGrad = — Σ (-sin(or, )·Δ/( x,, y,)+cos(ar, >Δ J( x,, y,)) n /=1 (8)If Al and AJ are the result of convolution of the original image with the appropriate orientation mask, then the gradient image of the edge pixels is given by -AllAJ. The mean orthogonal gradient of a line is given by the equation 1 nPerpGrad = - Σ (-sin (or,) · Δ / (x, y,) + cos (ar,> ΔJ (x, y,)) ) n / = 1 (8)
Die Spurbegrenzungs-Kandidaten LL, RL, LR und RR werden sodann aufgrund ihres mittleren orthogonalen Gradienten (PerpGrad) ausgewählt (Übergang von dunkel zu hell oder umge-io kehrt) und nach ihren Neigungswinkeln kleiner oder größer als der Teilungswinkel bzw. Neigungswinkel der Bildteilungslinie klassifiziert: 15 LL = {o; | er, < ß + Aß A PerpGrad, > 0} LR = {σ, | er, < ß + Aß λ PerpGrad,· < 0} RL = {a, | at > ß - Aß λ PerpGrad,· > 0} LR = {ar( |er, >ß-Aß a PerpGrad,· <0} (9) wobei z.B. Δβ=1° verwendet werden kann. 20The lane boundary candidates LL, RL, LR and RR are then selected for their average orthogonal gradient (PerpGrad) (transition from dark to light or vice versa) and classified according to their tilt angles smaller or larger than the pitch angle of the image pitch line : 15 LL = {o; | he, < β + Aβ A PerpGrad, > 0} LR = {σ, | he, < β + Aβ λ PerpGrad, · < 0} RL = {a, | at > β - Aβ λ PerpGrad, > 0} LR = {ar (| er,> β-Aβ a PerpGrad, · <0} (9) where, for example, Δβ = 1 ° can be used
Zum Auffinden von Paaren von Spurmarkierungs-Kandidaten (Paare LL,RL und LR,RR) wird wie folgt vorgegangen:To find pairs of lane marker candidates (pairs LL, RL and LR, RR), proceed as follows:
Um die linken Spurmarkierungs-Kandidaten zu ermitteln, werden alle LL und RL Kandidaten 25 paarweise gruppiert gemäßTo find the left lane marker candidates, all LL and RL candidates 25 are grouped in pairs according to
ctj,e LR>a;e LL A W Zm'mW-dW Λ W ZmaxW + dW (10) 30 wobei W die Breite der Spurmarkierung, und dW der ermittelte Fehler von W ist aufgrund Fehler in der Neigung. Auf gleiche Weise werden die rechten Spurmarkierungs-Kandidaten berechnet:ctj, e LR> a; e LL A W Zm'mW-dW Λ W ZmaxW + dW (10) where W is the width of the lane marker, and dW is the detected error of W due to errors in the slope. In the same way, the right lane marker candidates are calculated:
ctj e RR > er, e RL Λ W > min W - dW λ W £ max W + dW (11) 35 wobei beispielsweise praxisgerecht vorgegebene verwendet werden könnten.ctj e RR > he, e RL Λ W > min W - dW λ W £ max W + dW (11) 35 where, for example, practically prescribed ones could be used.
Zum Auffinden der Spurkandidaten, d.h. einer kompletten Hypothese der vier Spurbegrenzungen LL, RL, LR, RR, werden Paare von linken und rechten Spurmarkierungen gruppiert und 40 überprüft, ob die Gesamtbreite der Spur gemäß üblichen Straßenbedingungen sinnvoll ist gemäßTo find the track candidates, i. According to a complete hypothesis of the four lane delimitations LL, RL, LR, RR, pairs of left and right lane markers are grouped, and it is checked whether the total lane width according to usual road conditions makes sense
R + L>rr\inLR Λ R + L^maxLR (12) 45 50R + L> rr \ inLR Λ R + L ^ maxLR (12) 45 50
Zur Berechnung eines Kennwertes bzw. Qualitätsmaßes für jede Hypothese können 5 Kriterien herangezogen werden. Zuerst werden separate Kennwerte bzw. Qualitätsmaße für die Kandidaten für die Paare der linken und rechten Spurmarkierung berechnet. Der endgültige Kennwert ist eine Verknüpfung der beiden einzelnen Werte. Der Kennwert jeder Spurmarkierung wird mittels zumindest einem der folgenden 5 Werten berechnet: 1. mittlerer orthogonaler Gradient jedes Paares (Gradient)For the calculation of a characteristic value or quality measure for each hypothesis 5 criteria can be used. First, separate characteristics and quality measures are calculated for the candidates for the left and right lane marker pairs. The final characteristic value is a combination of the two individual values. The characteristic value of each track marking is calculated by means of at least one of the following 5 values: 1. average orthogonal gradient of each pair (gradient)
Wie in (8) beschrieben. Es wird der mittleren orthogonale Gradienten für jede der 2 Spurbe-55 grenzungen berechnet und das Mittel errechnet.As described in (8). Calculate the mean orthogonal gradient for each of the 2 lane boundaries and calculate the mean.
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AT0113005A AT502320B1 (en) | 2005-07-04 | 2005-07-04 | METHOD FOR DRIVING TRAVEL IDENTIFICATION |
PCT/AT2006/000261 WO2007002964A2 (en) | 2005-07-04 | 2006-06-26 | Method for lane recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AT0113005A AT502320B1 (en) | 2005-07-04 | 2005-07-04 | METHOD FOR DRIVING TRAVEL IDENTIFICATION |
Publications (2)
Publication Number | Publication Date |
---|---|
AT502320A1 AT502320A1 (en) | 2007-02-15 |
AT502320B1 true AT502320B1 (en) | 2007-07-15 |
Family
ID=37429310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
AT0113005A AT502320B1 (en) | 2005-07-04 | 2005-07-04 | METHOD FOR DRIVING TRAVEL IDENTIFICATION |
Country Status (2)
Country | Link |
---|---|
AT (1) | AT502320B1 (en) |
WO (1) | WO2007002964A2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007017293A1 (en) | 2007-04-12 | 2008-10-16 | Continental Automotive Gmbh | Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle |
DE102007019531A1 (en) | 2007-04-25 | 2008-11-13 | Continental Automotive Gmbh | Lane detection with cameras of different focal lengths |
DE102007033887A1 (en) | 2007-07-20 | 2008-09-04 | Vdo Automotive Ag | Controller for driver assistance system with recommendation for lane change has decision device for deciding about outputting of lane change signal to the driver taking into account further lane and vehicle detection results |
DE102007051967A1 (en) * | 2007-10-31 | 2009-05-07 | Adc Automotive Distance Control Systems Gmbh | Detector and method for detecting a lane boundary |
US9090263B2 (en) | 2010-07-20 | 2015-07-28 | GM Global Technology Operations LLC | Lane fusion system using forward-view and rear-view cameras |
CN109255316B (en) * | 2018-08-30 | 2021-12-28 | 深圳市路畅科技股份有限公司 | Lane deviation detection method and system |
CN111079598B (en) * | 2019-12-06 | 2023-08-08 | 深圳市艾为智能有限公司 | Lane line detection method based on image texture and machine learning |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4016735B2 (en) * | 2001-11-30 | 2007-12-05 | 株式会社日立製作所 | Lane mark recognition method |
JP3729141B2 (en) * | 2002-02-27 | 2005-12-21 | 日産自動車株式会社 | Road white line recognition device |
-
2005
- 2005-07-04 AT AT0113005A patent/AT502320B1/en not_active IP Right Cessation
-
2006
- 2006-06-26 WO PCT/AT2006/000261 patent/WO2007002964A2/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
AT502320A1 (en) | 2007-02-15 |
WO2007002964A3 (en) | 2007-04-12 |
WO2007002964A2 (en) | 2007-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AT502320B1 (en) | METHOD FOR DRIVING TRAVEL IDENTIFICATION | |
DE102013205950B4 (en) | Roadside detection method | |
DE102005063199B4 (en) | Device and method for detecting road markings | |
DE69635569T2 (en) | Device for determining the local position of a car on a road | |
DE112012002885B4 (en) | Method and device for image-based vehicle detection and distance measurement | |
DE60202341T2 (en) | Lane Detection System | |
DE102004043794B4 (en) | Method and apparatus for determining the lane of a vehicle, and a computer product | |
DE69736764T2 (en) | Local positioning device and method therefor | |
DE102006005512B4 (en) | System and method for measuring the distance of a preceding vehicle | |
DE102006057552B4 (en) | System and method for measuring the distance of a preceding vehicle | |
DE102007013023B4 (en) | Probabilistic raster map | |
DE112017001175T5 (en) | Device and method for detecting a driving position | |
EP2629243A1 (en) | Method for detecting and tracking lane markings | |
DE102015105248A1 (en) | CREATING A PICTURE FROM THE ENVIRONMENT OF A TURNING VEHICLE | |
DE102015209467A1 (en) | Method of estimating lanes | |
DE112010004767T5 (en) | Point cloud data processing device, point cloud data processing method and point cloud data processing program | |
DE102008052439A1 (en) | Destination parking place i.e. garage, recognizing system for car, has parking place determining unit to determine destination parking place of vehicle, where point is provided on cluster within distance between vehicle width and length | |
EP2888604A1 (en) | Method for determining the course of a lane for a vehicle | |
EP2208168B1 (en) | Method and device for detecting the course of a traffic lane | |
DE102017209700A1 (en) | Method and device for detecting edges in a camera image, and vehicle | |
DE102015211874A1 (en) | Object detection device | |
DE102017209631B4 (en) | OBJECT IDENTIFICATION DEVICE | |
DE102018113559A1 (en) | A method of recognizing a lane mark by validating by line width; Control means; Pitch recognition system; as well as driver assistance system | |
DE102015211871A1 (en) | Object detection device | |
DE102006007550A1 (en) | Roadway markings detecting method for motor vehicle, involves analyzing pixels in such a manner that roadway markings for vehicle are detected, and using ridge-operator as image recognition operator during analysis of pixels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EIH | Change in the person of patent owner | ||
MM01 | Lapse because of not paying annual fees |
Effective date: 20120704 |