DE102013205950B4 - Verfahren zum Detektieren von Straßenrändern - Google Patents

Verfahren zum Detektieren von Straßenrändern Download PDF

Info

Publication number
DE102013205950B4
DE102013205950B4 DE102013205950.7A DE102013205950A DE102013205950B4 DE 102013205950 B4 DE102013205950 B4 DE 102013205950B4 DE 102013205950 A DE102013205950 A DE 102013205950A DE 102013205950 B4 DE102013205950 B4 DE 102013205950B4
Authority
DE
Germany
Prior art keywords
line
image
candidate
candidates
line candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013205950.7A
Other languages
English (en)
Other versions
DE102013205950A1 (de
Inventor
Wende Zhang
Jinsong Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102013205950A1 publication Critical patent/DE102013205950A1/de
Application granted granted Critical
Publication of DE102013205950B4 publication Critical patent/DE102013205950B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

Verfahren zum Detektieren von Straßenrändern bei einer Fahrstraße zur Detektion eines freien Pfads, wobei das Verfahren die Schritte umfasst, dass:Eingangsbilder einer Szene außerhalb des Fahrzeugs (12) unter Verwendung einer Bilderfassungseinrichtung (14) erfasst werden,wobei die Eingangsbilder in Frames verschiedener Zeitschritte erfasst werden;ein transformiertes Bild aus dem erfassten Bild erzeugt wird;eine Randanalyse an dem transformierten Bild durchgeführt wird, um Linienkandidaten zu detektieren;ein anfänglicher Fluchtpunkt in dem erfassten Bild als Funktion der Linienkandidaten identifiziert wird;die in einem nächsten Frame identifizierten Linienkandidaten verfolgt werden;ein Fluchtpunkt in dem nächsten Frame auf der Grundlage der verfolgten Linienkandidaten geschätzt wird;jeweilige Linienkandidaten in dem nächsten Frame ausgewählt werden, die zu dem Fluchtpunkt des nächsten Frames gehören;ein interessierendes Gebiet in dem erfassten Bild für jeden Linienkandidaten identifiziert wird, wobei jedes interessierende Gebiet einen jeweiligen Linienkandidaten und ein Umgebungsgebiet des jeweiligen Linienkandidaten umfasst;Merkmale, die sich auf den Linienkandidaten beziehen, aus dem interessierenden Gebiet extrahiert werden;die extrahierten Merkmale in eine Klassifizierungseinrichtung eingegeben werden, um zu identifizieren, ob der Linienkandidat ein potentieller Straßenrand ist, wobei die Klassifizierungseinrichtung dem Linienkandidaten einen Vertrauenswert zuordnet, der eine Wahrscheinlichkeit bezüglich dessen identifiziert, ob der Linienkandidat ein Straßenrand ist; undder potentielle Linienkandidat basierend darauf, dass der Vertrauenswert größer als ein vorbestimmter Wert ist, als zuverlässiger Straßenrand identifiziert wird.

Description

  • HINTERGRUND DER ERFINDUNG
  • Eine Ausführungsform bezieht sich allgemein auf das Identifizieren einer Straßenstruktur zum Detektieren eines freien Fahrpfads.
  • Sichtbildgebungssysteme werden in Fahrzeugen verwendet, um Anwendungen in dem Fahrzeug, wie beispielsweise ein autonomes Fahrsystem oder semiautonome Fahrsysteme, zu verbessern. Solche Systeme können verwendet werden, um das Fahrzeug über Lenksysteme, eine Drosselklappensteuerung, eine Bremssteuerung autonom oder semiautonom zu steuern, oder können sogar für Spurverlassenswarnsysteme verwendet werden.
  • Systeme zur Detektion eines freien Pfads identifizieren einen freien Pfad, auf dem ein Fahrzeug betrieben werden soll, das entlang einer Straße fährt. Der Fahrpfad wird hinsichtlich Objekten einschließlich aller nicht die Straße betreffenden Flächen erfasst, so dass das Fahrzeug entlang eines kontinuierlichen Fahrpfads fahren kann. Merkmale in einem Bild können gemäß ihrer Form und Beziehung zu der Fahrbahn detektiert und analysiert werden. Solche Verfahren können jedoch aufgrund einer intensiven Datenverarbeitung oder des Unvermögens, Merkmale eines freien Pfads und Merkmale eines nicht freien Pfads zu unterscheiden, langsam sein. Ferner ist das Analysieren eines gesamten Bilds zum Detektieren des freien Pfads auch zeitintensiv und datenverarbeitungsintensiv.
  • DE 10 2011 109 569 A1 offenbart ein Verfahren zur Fahrspurerkennung, wobei mit einer Kamera ein Bild einer Fahrzeugumgebung aufgenommen wird, ein Fahrkorridor aus dem mindestens einen Bild erkannt wird und unter Berücksichtigung des ermittelten Fahrkorridors eine Strukturerkennung erfolgt. Weiterer Stand der Technik ist aus DE 10 2010 050 167 A1 und EP 1 320 072 A2 bekannt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Aufgabe der Erfindung ist es, ein verbessertes Verfahren zum Detektieren von Straßenrändern zur Detektion eines freien Pfads bereitzustellen.
  • Zur Lösung der Aufgabe ist ein Verfahren mit den Merkmalen des Anspruchs 1 vorgesehen. Vorteilhafte Ausbildungen der Erfindung sind den Unteransprüchen, der Beschreibung und den Zeichnungen zu entnehmen.
  • Ein Vorteil einer Ausführungsform ist die Identifizierung einer Straßenstruktur in dem erfassten Bild, was ein Zielgebiet bereitstellt, um darin eine Detektion eines freien Pfads durchzuführen. Das Identifizieren eines Zielgebiets in dem Bild beschleunigt nicht nur die gesamte Verarbeitungszeit zum Detektieren des freien Pfads, sondern reduziert die Möglichkeiten oder falschen Alarme eines inkorrekten Identifizierens eines freien Pfads. Die hierin beschriebenen Ausführungsformen erzeugen ein Beleuchtungsintensitätsbild und ein Gelbbild für Linien-Cluster in dem Bild. Die Linien-Cluster von dem Beleuchtungsintensitätsbild und dem Gelbbild werden zusammengeführt, und es wird eine Detektion eines potentiellen Linienkandidaten an den zusammengeführten Clustern durchgeführt. Es wird ein Fluchtpunkt in dem Bild identifiziert. Es werden eine Linienverfolgung und eine Fluchtpunktverfolgung durchgeführt, um die Identifikation des Fluchtpunkts und der potentiellen Linienkandidaten zu verfeinern. Die Linienkandidaten werden dann einer Klassifizierungseinrichtung bereitgestellt, um zu identifizieren, ob der Linienkandidat ein Straßenrand ist. Die identifizierten Straßenränder werden dann verwendet, um eine Grenze der Straße zu definieren, um eine Detektion eines freien Pfads zu unterstützen.
  • Eine Ausführungsform zieht ein Verfahren zum Detektieren von Straßenrändern auf einer Fahrstraße für eine Detektion eines freien Pfads in Betracht. Es werden Eingangsbilder einer Szene außerhalb des Fahrzeugs unter Verwendung einer Bilderfassungseinrichtung erfasst. Die Eingangsbilder werden in Frames verschiedener Zeitschritte erfasst. Es wird ein transformiertes Bild aus dem erfassten Bild erzeugt. Es wird eine Randanalyse an dem transformierten Bild durchgeführt, um Linienkandidaten zu detektieren. Es wird ein anfänglicher Fluchtpunkt in dem erfassten Bild als Funktion der Linienkandidaten identifiziert. Die in einem nächsten Frame identifizierten Linienkandidaten werden verfolgt. Es wird ein Fluchtpunkt in dem nächsten Frame auf der Grundlage der verfolgten Linienkandidaten geschätzt. Jeweilige Linienkandidaten in dem nächsten Frame, die dem Fluchtpunkt des nächsten Frames zugehörig sind, werden ausgewählt. Es wird ein interessierendes Gebiet in dem erfassten Bild für jeden Linienkandidaten identifiziert. Jedes interessierende Gebiet umfasst einen jeweiligen Linienkandidaten und ein Umgebungsgebiet des jeweiligen Linienkandidaten. Es werden Merkmale, die sich auf den Linienkandidaten beziehen, aus dem interessierenden Gebiet extrahiert. Die extrahierten Merkmale werden in eine Klassifizierungseinrichtung eingegeben, um zu identifizieren, ob der Linienkandidat ein potentieller Straßenrand ist. Die Klassifizierungseinrichtung ordnet dem Linienkandidaten einen Vertrauenswert zu, der eine Wahrscheinlichkeit, ob der Linienkandidat ein Straßenrand ist, identifiziert. Der potentielle Linienkandidat wird basierend darauf, dass der Vertrauenswert größer als ein vorbestimmter Wert ist, als zuverlässiger Straßenrand identifiziert.
  • Figurenliste
    • 1 ist eine bildliche Darstellung eines Fahrzeugs mit einem integrierten System zur Detektion eines freien Pfads.
    • 2 zeigt ein Blockdiagramm einer Übersicht über die Straßenstrukturdetektions- und -verfolgungstechnik.
    • 3 zeigt ein Flussdiagramm eines Verfahrens für eine Liniendetektion und eine Fluchtpunktdetektion.
    • 4 zeigt eine Straßenstrukturverfolgungstechnik.
    • 5 zeigt die lernbasierte Straßenranddetektionstechnik.
    • 6 zeigt ein Bild mit Linienkandidaten, die Straßenränder identifizieren.
  • DETAILLIERTE BESCHREIBUNG
  • In 1 ist ein Fahrzeug 12 gezeigt, in dem ein Straßenranddetektionssystem zum Identifizieren eines freien Fahrpfads integriert ist. Das Straßenranddetektionssystem umfasst eine Bilderfassungseinrichtung 14, die an dem Fahrzeug 12 angebracht ist. Die Bilderfassungseinrichtung 14 steht mit einer Verarbeitungseinheit 16 in Verbindung.
  • Die Bilderfassungseinrichtung 14 kann eine Kamera oder eine andere Bildgebungseinrichtung umfassen, die Bilder der Fahrstraße erfasst. Die Bilderfassungseinrichtung 14 erfasst Bilder vor dem Fahrzeug, die verwendet werden, um einen freien Fahrpfad zu identifizieren. Vorzugsweise ist die Bilderfassungseinrichtung 14 ausgestaltet, um eine kontinuierliche Bilderfassung durchzuführen. Die durch die Bilderfassungseinrichtung 14 erfassten Bilder können in einem Speicher der Bilderfassungseinrichtung 14 gespeichert werden, an eine Speichereinrichtung außerhalb des Fahrzeugs übermittelt werden oder können für eine Analyse an die Verarbeitungseinheit 16 übermittelt werden. Ferner können mehr als eine Bilderfassungseinrichtung verwendet werden, um Bilder hinter dem Fahrzeug und/oder auf beiden Seiten dieses für eine Detektion eines freien Pfads zu erfassen. Bei einem Umgebungssichtsystem führen vier Kameras mit weitem Sichtfeld (180 Grad +) und eine nach vorn gerichtete Kamera mit schmalem Sichtfeld (~ 50 Grad) eine Detektion eines freien Pfads durch.
  • Hinter dem Fahrzeug erfasste Bilder können bei der Analyse verwendet werden, um den freien Pfad der Fahrstraße vor dem Fahrzeug zu identifizieren.
  • Die erfassten Bilder sind vorzugsweise ein zweidimensionales Bild mit bekannten Pixel-Dimensionen. Das Bild enthält mehrere identifizierbare Pixel. Jedes der Pixel umfasst einen Satz von Bits, die einer Farbe an einer vorbestimmten Farbabbildung entsprechen, die einen Farbintensitätswert darstellt.
  • Die Verarbeitungseinheit 16 ist wie in 1 dargestellt eine einzelne Einheit; es ist jedoch zu verstehen, dass Funktionen der Verarbeitungseinheit 16 durch eine oder mehrere in Software, Hardware und/oder einer anwendungsspezifischen integrierten Schaltung realisierte Einrichtungen durchgeführt werden können. Die Verarbeitungseinheit 16 kann ein Universalprozessor, ein digitaler Computer mit einem zentralen Mikroprozessor oder einer zentralen Verarbeitungseinheit, ein ASIC oder ein anderes Verarbeitungsmodul mit einem nichtflüchtigen Speicher, einem Nur-Lese-Speicher, einem programmierbaren Nur-Lese-Speicher, einem RAM, einer A-D-Schaltung, einer D-A-Schaltung, einer Eingabe/Ausgabe-Schaltung, einer Pufferfähigkeit und einer geeigneten Signalkonditionierung, wie beispielsweise einer digitalen Signalverarbeitung, sein. Die Verarbeitungseinheit 16 ist entworfen, um Algorithmen auszuführen, die Eingänge von den hierin beschriebenen Einrichtungen sowie anderen Einrichtungen oder Systemen in dem Fahrzeug verwenden.
  • Die Verarbeitungseinheit 16 ermittelt einen freien Pfad in dem erfassten Bild. Der freie Pfad wird beim Führen des Fahrzeugs entlang der Fahrstraße verwendet. Die Verarbeitungseinheit 16 kann die Führungsfunktionen wie oben beschrieben durchführen oder kann die Ergebnisse an eine sekundäre Anwendung übermitteln, die die Führungsfunktionen durchführt.
  • 2 zeigt ein Blockdiagramm einer Übersicht für eine Straßenstruktur - detektions- und -verfolgungstechnik, die zum Identifizieren von Straßenrändern verwendet wird, die als Grenzen verwendet werden, um ein Gebiet zu identifizieren, wobei eine Technik zur Detektion eines freien Pfads unterstützt wird. Ein Videoeingangsmodul 20 ist mit einem Linien-Clusterbildungs- und Fluchtpunktdetektionsmodul 22 und einem Fluchtpunkt- und Linienverfolgungsmodul 24 gekoppelt.
  • Das Videoeingangsmodul 20 umfasst die Bilderfassungseinrichtung, die Bilder vor und/oder hinter dem Fahrzeug erfasst, die beim Identifizieren eines freien Fahrpfads verwendet werden. Die erfassten Bilder umfassen die Fahrstraße und Merkmale, die das Identifizieren von Straßengrenzen un terstützen.
  • Das Linien-Clusterbildungs- und Fluchtpunktdetektionsmodul 22 identifiziert Linienkandidaten in dem erfassten Bild auf der Grundlage einer Fluchtpunktdetektion und einer Linien-Clusterbildung.
  • Das Fluchtpunkt- und Linienverfolgungsmodul 24 verfolgt die Linienkandidaten der Straßenstruktur, die in einem vorherigen Frame detektiert wird, und verfolgt die Straßenstruktur in dem nächsten Frame. Das Fluchtpunkt- und Linienverfolgungsmodul 24 und das Linien-Clusterbildungs- und Fluchtpunktdetektionsmodul 22 stehen zusammenwirkend in Verbindung und tauschen eine Information aus, um potentielle Stra-ßenstrukturkandidaten zu identifizieren.
  • Die Ergebnisse von dem Linien-Clusterbildungs- und Fluchtpunktdetektionsmodul 22 werden an ein lernbasiertes Straßenranddetektionsmodul 26 ausgegeben. Das lernbasierte Straßenranddetektionsmodul 26 führt eine Klassifizierung an der identifizierten Straßenstruktur auf der Grundlage eines vorab trainierten Straßenrandmodells durch, um eine zuverlässige Entscheidung bezüglich der Straßenränder auszugeben.
  • 3 zeigt ein Flussdiagramm, das den Prozess zum Durchführen einer Liniendetektion und einer Fluchtpunktdetektion darstellt. In Schritt 30 wird ein Bild-Frame von dem erfassten Video analysiert. Der ausgewählte Frame wird an zwei verschiedene Kanäle für eine unabhängige Verarbeitung des Bilds übertragen, um potentielle Linienkandidaten zu detektieren. Linienkandidaten beziehen sich wie hierin definiert auf einen potentiellen Straßenrand, der Spurmarkierungen, Bordsteine, Grasränder, Kiesränder oder ein beliebiges anderes Merkmal, das eine Grenze für eine Straße oder Spur definiert, umfasst, jedoch nicht darauf beschränkt ist.
  • In Schritt 31 wird das ausgewählte Bild an einen ersten Kanal übertragen, um das Bild in ein Beleuchtungsintensitätsbild zu transformieren.
  • In Schritt 32 wird eine Randanalyse und eine Linien-Clusterbildung an dem Beleuchtungsintensitätsbild durchgeführt. Die Randanalyse- und Linien-Clusterbildungstechnik wendet randbasierte Filter auf Merkmale des erfassten Bilds an, um eine Randdetektion eines jeweiligen Linienkandidaten durch Erzeugen von differenzierenden Antworten in dem erfassten Bild zu verbessern. Die differenzierenden Antworten unterstützen das Unterscheiden von dem Linienkandidaten (z.B. Spurmarkierung) zugehörigen Pixeln von dem Nicht-Linienkandidaten (z.B. unmarkierte Bodensegmente) zugehörigen Pixeln. Es werden Randfilter (z.B. Sobel-Filter) auf das Beleuchtungsintensitätsbild angewandt, um vertikale und horizontale Gradienten zu erhalten, die dann verwendet werden, um einen Gradientenbetrag und einen Gradientenwinkel zu ermitteln. Der Gradientenbetrag jedes Pixels wird mit einem Schwellenwert verglichen, um Randpunkte mit einem Gradientenbetrag, der größer als ein vorbestimmter Schwellenwert ist, zu extrahieren. Die Randanalyse identifiziert den Rändern zugehörige Pixel in den Bilddaten und verwendet dann die Rand-Pixel in dem Bild, um einen potentiellen Linienkandidaten zu ermitteln.
  • Um einer potentiellen Spurmarkierung oder einem potentiellen Bordstein zugehörige potentielle Pixel auf der Grundlage der Beleuchtungsintensität der Pixel zu gruppieren, wird eine Linien-Clusterbildung von Rand-Pixeln verwendet. Eine Linien-Clusterbildung umfasst das Abtasten der Rand-Pixel eines nach dem anderen. Für jedes Rand-Pixel wird die Umgebungsregion eines jeweiligen Pixels nach anderen Rand-Pixeln, die einen ähnlichen Gradientenwinkel zu dem jeweiligen Pixel aufweisen, durchsucht. Die Pixel mit ähnlichen Gradientenwinkeln werden miteinander gruppiert und einem gleichen Linienindex zugeordnet. Nach dem Abtasten und Gruppieren aller Pixel werden Liniengruppen, die eine jeweilige Länge und vertikale Richtungsausbreitung aufweisen, für eine weitere Verarbeitung extrahiert und als potentielle Linien-Cluster identifiziert. Horizontale Linien werden nicht verarbeitet, da solche Linien wahrscheinlich keine Komponente einer Straßenstruktur sind.
  • In Schritt 33 wird das ursprüngliche erfasste Eingangsbild von einem RGB- oder Yuv-Farbbild in ein Gelbbild transformiert. Jedes Pixel in dem ursprünglichen erfassten Eingangsbild basiert auf einem Rot-Grün-Blau-(RGB-) oder Yuv-(YCbCr-)Farbmodell. Das Gelbbild wird wegen des geringen Kontrasts zwischen den gelben Spurmarkierungen und der Fahrbahn in dem Intensitätsbild, da beide ähnliche Intensitäten aufweisen, ausgewählt und verwendet, was die Detektion der gelben Spurmarkierung [engl.: „lane maker“] erschwert. Um gelbe Spurmarkierungen zu detektieren, wird eine jeweilige Transformation ( Cr Cb ) Y
    Figure DE102013205950B4_0001
    verwendet, die den Kontrast zwischen der gelben Spurmarkierung und der Fahrbahn verbessert. Die Transformation ( Cr Cb ) Y
    Figure DE102013205950B4_0002
    macht die gräuliche oder bläuliche Fahrbahn dunkler, und die gelbe Spurmarkierung heller. Als Ergebnis erscheint die gelbe Spurmarkierung in diesem transformierten Bild als heller Strich. Es kann ein alternativer Algorithmus verwendet werden, der nur ein transformiertes Bild verwendet, um das Beleuchtungsintensitätsbild und das Gelbbild zu ersetzen. Es wird ein transformierter Bildkanal verwendet, der den Mittelwert des roten und grünen Kanals ( R + G 2 )
    Figure DE102013205950B4_0003
    umfasst und alle Spurmarkierungen und dunklen Striche detektieren kann und Verarbeitungszeit einspart, indem eine Kanalverarbeitung und der Linien-Cluster-Zusammenführungsschritt beseitigt werden.
  • In Schritt 34 wird eine Randanalyse und eine Linien-Clusterbildung an dem in Schritt 33 identifizierten Gelbbild durchgeführt. Hierin wird die gleiche Technik für eine Randanalyse und eine Linien-Clusterbildung wie in Schritt 32 beschrieben verwendet.
  • In Schritt 35 werden aus dem Beleuchtungsintensitätsbild und dem Gelbbild identifizierte Linien-Cluster zusammengeführt. Das heißt, die detektierten Linien-Cluster von dem Beleuchtungsintensitätsbild und dem Gelbbild können eine gewisse Überschneidung aufweisen, was bedeutet, dass eine Linie in beiden Bildern detektiert werden kann. Folglich werden die detektierten Linien-Cluster zusammengeführt, um ein Linien-Cluster zu bilden, das alle aus beiden Bildern detektierten Linien umfasst und eine redundante Liniendetektion beseitigt. Um die jeweiligen Linien-Cluster zusammenzuführen, werden eine Liniendistanz und eine Liniengradientenwinkelähnlichkeit zwischen jeder Linie von einem Cluster (Gelbbild-Linien-Cluster) und Linien von einem anderen Cluster (Intensitätsbild-Linien-Cluster) überprüft. Es wird eine Zusammenführung zu einem Linien-Cluster durchgeführt, wenn jedes Cluster in nächster Nähe zu einem anderen liegt und beide Cluster hinsichtlich Gradientenwinkel im Wesentlichen ähnlich sind. Durch Verwenden von zwei Bildern für eine Liniendetektion und nach einem Durchführen einer Linien-Cluster-Zusammenführung sollten alle Linien, die zu einer Straße in einer normalen Straßenszene gehören, detektiert sein. Die gesamte folgende Detektion und Verfolgung von Straßenstrukturlinien, wie beispielsweise „helle Striche“ für potentielle Spurmarkierungen, „dunkle Streifen“ für potentielle Bordsteine und „lange Linien“ für andere potentielle Straßenränder oder Straßenlinien sowie die Fluchtpunktdetektion und -verfolgung basieren auf diesem zusammengeführten Linien-Cluster.
  • In Schritt 36 werden eine Streifendetektion einer hellen Linie und eine Streifendetektion einer dunklen Linie auf die zusammengeführten Linien-Cluster angewandt. Streifen einer hellen Linie stellen potentielle Spurmarkierungen dar, wohingegen Streifen einer dunklen Linie potentielle Bordsteine darstellen. Linien an einer Straße weisen für gewöhnlich einige spezifische Attribute auf. Beispielsweise ist eine Spurmarkierung für gewöhnlich ein weißer oder gelber schmaler Strich (kurz oder lang), der zwei parallele Verbindungslinien auf den Seiten aufweist und heller ist als die umgebende Fahrbahn. Ein Bordstein kann einen eigenen Schatten an der vertikalen Fläche (senkrecht zum Straßenboden) aufweisen, der dunkler ist als Umgebungsflächen. Auf einigen Autobahnen oder Überlandstraßen ist ein Straßenrand für gewöhnlich durch einen Übergangsrand zwischen einer Fahrbahn und einer keine Straße umfassenden Fläche (d.h. Gras, Sand oder Pflanzen) definiert. Dieser Übergangsrand ist für gewöhnlich durch eine einzelne lange Linie dargestellt, die parallel zu der Straßenspurausrichtung ist. Auf einer eine Struktur aufweisenden Straße sind Spuren durch die zuvor genannten Spurmarkierungen, Bordsteine oder andere Straßenränder, die alle parallel zur Straßenausrichtung sind und mit einer bestimmten Distanz, die gleich der Spurbreite ist, getrennt sind, definiert. Die Detektion von hellen Streifen, dunklen Streifen und langen Linien in dem erfassten Bild, die die Kandidaten für Spurmarkierungen, Bordsteine und andere Straßenränder sind, ist erforderlich, um eine Straßenstruktur zu ermitteln.
  • Für jede detektierte Linie in dem zusammengeführten Linien-Cluster stellt der durchschnittliche Gradient (über allen Pixeln an einer Linie) den Winkel und den Betrag des Intensitätsübergangs von einer Seite der Linie zu der anderen Seite dar. Ein heller Streifen weist einen Dunkel-Hell-Dunkel-Übergang auf. Daher bilden, wenn zwei Linien nahe beieinander liegen (so nahe wie eine Spurmarkierungsbreite), im Wesentlichen parallel zueinander sind (an der Bodenebene) und entgegengesetzte nach außen gewandte Gradienten aufweisen, die beiden Linien ein Linienpaar, das einen hellen Streifen verbindet, der ein Spurmarkierungskandidat sein könnte. Ähnlich weist ein dunkler Streifen einen Dunkel-Hell-Dunkel-Übergang auf. Wenn ein nahes im Wesentlichen paralleles Linienpaar einen entgegengesetzten nach innen gewandten Gradienten aufweist, verbindet es einen dunklen Streifen, der ein Bordsteinkandidat sein könnte.
  • In Schritt 37 werden auch lange Linien in dem erfassten Bild identifiziert. Wenn ermittelt wird, dass eine detektierte Linie eine Länge aufweist, die sich in dem Bild eine wesentliche Distanz erstreckt, gibt es einen Hinweis darauf, dass der Linienkandidat eine einer Straßenstruktur zugehörige Linie ist. Eine einzelne lange Linie ist als Linie definiert, die sich über eine lange Distanz an der y-Achse (unter der Annahme, dass die Fahrtrichtung des Fahrzeugs ähnlich der Straßenausrichtung ist) an der projizierten Bodenebene ausbreitet und keine Nachbarlinie aufweist, die nahe ist und einen entgegengesetzten Gradienten aufweist. Diese einzelnen langen Linien könnten der Kandidat einiger Straßenränder sein.
  • In Schritt 38 wird ein Fluchtpunkt auf der Grundlage von Linienkandidatenergebnissen identifiziert. Es wird ein anfänglicher Fluchtpunkt auf der Grundlage der identifizierten hellen Streifen und der langen dunklen Streifen geschätzt. Ferner werden andere dunkle Streifen und einzelne lange Linien identifiziert, um den Fluchtpunkt zu verfeinern. Endende Linien, die sich in naher Nähe zu dem geschätzten anfänglichen Fluchtpunkt befinden, werden ausgewählt, um den Fluchtpunkt zu verfeinern. Als Ergebnis wird die Straßenstruktur auf der Grundlage der detektierten Linien wie hierin beschrieben identifiziert.
  • 4 zeigt eine Straßenstrukturverfolgungstechnik. In Schritt 40 wird die Straßenstruktur wie in dem vorherigen Frame detektiert verwendet, um Linien und Fluchtpunkte in dem aktuellen Frame zu verfolgen. Das heißt, Fluchtpunkte und Linien, die in naher Entfernung zu dem geschätzten Fluchtpunkt des vorherigen Frames zu finden waren, werden in dem aktuellen Frame verfolgt. Folglich werden Fluchtpunkte und Linien, die in dem vorherigen Frame an dem Fluchtpunkt vorbeiführen, verwendet, um ein Suchgebiet in dem aktuellen Frame zu definieren, um einen Fluchtpunkt in dem nächsten Frame zu identifizieren.
  • In Schritt 41 wird ein aktueller Frame ausgewählt, um das erfasste Bild des Frames eines nächsten Zeitschritts zu analysieren. Das Farbbild wird transformiert, um das Beleuchtungsintensitätsbild und das Gelbbild zu erhalten.
  • In Schritt 42 werden Linien-Cluster aus dem Beleuchtungsintensitätsbild und dem Gelbbild identifiziert. Die Linienkandidat-Cluster werden danach zusammengeführt.
  • In Schritt 43 werden symmetrische Linienpaare zusätzlich zu einzelnen langen Linien in dem nächsten Frame detektiert.
  • In Schritt 44 wird eine Linie in dem nächsten Frame mit einer detektierten Linie in dem vorherigen Frame (aus Schritt 40) verglichen. Eine Linie in dem nächsten Frame, die mit einer an einem Fluchtpunkt vorbeiführenden Linie in dem vorherigen Frame übereinstimmt, wird als Kandidat für eine Fluchtpunktschätzung identifiziert. Es ist zu verstehen, dass sich eine Straßenstruktur von einem Frame zum nächsten (mit hoher Frame-Rate (≥ 10 F/s) und/oder mit der Fahrzeugbewegungseigenkompensation) nicht abrupt ändern sollte. Somit kann die in einem aktuellen Frame detektierte Straßenstruktur bei einer Straßenstrukturdetektion in einem nächsten Frame hilfreich sein. Beispielsweise kann eine Fluchtpunktdetektion auf ein kleines Nachbargebiet eines Fluchtpunkts, der in einem vorherigen Frame detektiert wird, beschränkt sein. Wenn ferner eine an einem VP (Fluchtpunkt) vorbeiführende Linie in einem vorherigen Frame mit einer Linie in dem aktuellen Frame, die nahe daran liegt und ähnliche Merkmale aufweist, übereinstimmt, ist diese übereinstimmende Linie im aktuellen Frame eine erfolgreiche Verfolgung der am VP vorbeiführenden Linie in dem vorherigen Frame und wird sie für eine Fluchtpunktdetektion und eine Straßenranddetektion in dem aktuellen Frame verwendet. Ferner kann eine Verfolgung, um eine Straßenstrukturdetektion zu unterstützen, auch die Genauigkeit/ das Vertrauen der Straßenstrukturdetektion verbessern. Beispielsweise ist eine Straßenrandlinie, die in mehreren fortlaufenden Frames detektiert und erfolgreich verfolgt wird, wahrscheinlicher ein realer Straßenrand als eine Linie, die nur in einem Frame erscheint.
  • In Schritt 45 wird der Fluchtpunkt in dem vorherigen Frame verwendet, um das Suchgebiet in dem nächsten Frame zu definieren. Das heißt, das Gebiet in dem erfassten Bild in der Nähe zu dem Fluchtpunkt des vorherigen Frames wird verwendet, um die Suchregion für den geschätzten Fluchtpunkt in dem nächsten Frame zu verfeinern. Da der Fluchtpunkt des nächsten Frames nicht zu stark von dem vorherigen Frame abweichen sollte, verhindert das Erfordernis, dass der geschätzte Fluchtpunkt in dem nächsten Frame innerhalb einer jeweiligen Entfernung zu dem Fluchtpunkt in dem vorherigen Frame liegt, verzerrte Ergebnisse eines falschen Identifizierens des Fluchtpunkts an einem Ort, der von dem vorherigen Fluchtpunkt entfernt ist.
  • Die Fluchtpunktverfolgung (VP-Verfolgung) wird wie folgt realisiert. Der Ort (u, v) eines in einem vorherigen Frame detektierten VP wird als anfänglicher Ort des VP in dem aktuellen Frame definiert. Ein kleines Suchfenster um den anfänglichen VP-Ort wird als VP-Detektionsgebiet definiert. Alle VP-Kandidaten, die in dieses Gebiet fallen, werden bewertet. Jedem VP-Kandidat wird ein Punktwert zugeordnet, der auf der Grundlage der Anzahl von sich kreuzenden Linien und der Linienlänge berechnet wird. Der VP-Kandidat mit einem höchsten Punktwert, der in dem Fenster liegt, wird als Fluchtpunkt detektiert. Durch Definieren des anfänglichen Orts und des Suchfensters beseitigt die VP-Verfolgung alle Linienkreuzungspunkte, die außerhalb des Suchfensters liegen, und reduziert sie als Ergebnis die Verarbeitungszeit und verbessert sie die Stabilität der VP-Detektion.
  • Die Verfolgung von am VP vorbeiführenden Linien wird wie folgt realisiert. Eine am VP vorbeiführende Linie wird mit jeder Linie in einem detektierten Linien-Cluster verglichen. Es wird ein Übereinstimmungspunktwert für jedes Linienpaar als Funktion derer Distanz-, Gradientenwinkel- und Linienausrichtungsähnlichkeiten definiert. Im Gegensatz zu einer Straßenstrukturdetektion, die eine Detektion von hellen & dunklen Strichen/langen Linien durchlaufen muss, um die Spurkandidaten für eine VP- und Straßenstrukturdetektion auszuwählen, wird eine erfolgreich verfolgte Linie bei einer Straßenstrukturverfolgung direkt als Linienkandidat für eine VP-Schätzung und eine Straßenstrukturdetektion ausgewählt.
  • Eine Straßenstrukturverfolgung ist kein Ersatz für eine Straßenstrukturdetektion. Stattdessen werden sowohl eine Verfolgung als auch eine Detektion in jedem folgenden Frame angewandt, damit sie sich ergänzen. Eine Verfolgung kann bei einer Linienkandidatenauswahl und einem Verbessern deren Vertrauen hilfreich sein sowie das Fluchtpunktsuchgebiet verfeinern, um den VP-Detektionsaufwand zu verringern, während eine Detektion die Linien und den Fluchtpunkt, die verfolgt werden sollen, findet. Die aus der Straßenstrukturverfolgungstechnik erzeugten Ergebnisse in 4 werden als Rückmeldung an die in 3 beschriebene Straßenstrukturdetektionstechnik geliefert und umgekehrt. Die Detektionsergebnisse von der Straßenstrukturdetektionstechnik des vorherigen Frames werden durch die Straßenstrukturverfolgungstechnik verwendet, um die Fluchtpunkte des nächsten Frames zu schätzen. Ferner werden die Verfolgungsergebnisse von der Straßenstrukturverfolgungstechnik als Nachweis zum Identifizieren von Straßenstrukturlinien in dem nächsten Frame verwendet.
  • Die Ergebnisse von der Straßenlinien-Clusterbildungs- und Fluchtpunktdetektionstechnik werden an ein lernbasiertes Straßenranddetektionsmodul geliefert. 5 zeigt eine lernbasierte Straßenranddetektionstechnik.
  • In Schritt 50 werden Fluchtpunktkandidaten und Linienkandidaten in das lernbasierte Straßenranddetektionsmodul wie durch die Straßenlinien-Clusterbildungs- und Fluchtpunktdetektionstechnik ermittelt eingegeben.
  • In Schritt 51 wird für jede in einem Bild des nächsten Frames identifizierte Linie ein interessierendes Gebiet in dem Bild in Bezug auf das Gebiet, das die Linie umfasst, und das Umgebungsgebiet identifiziert. Das Gebiet wird als Bildbereich identifiziert und kann einen beliebigen Typ von Grenze umfassen, der die ausgewählte Linie umfasst, wie beispielsweise ein Rechteck. Es ist zu verstehen, dass die Grenze nicht auf Rechtecke beschränkt ist, sondern eine Form aufweisen kann, die die ausgewählte Linie und das Umgebungsgebiet ausreichend umgibt. Ein Beispiel der Kandidatenlinien ist in 6 gezeigt.
  • In Schritt 52 werden Merkmale des Bildbereichs in dem interessierenden Gebiet extrahiert.
  • In Schritt 53 wird eine Klassifizierung der Merkmale in dem Bildbereich basierend auf einem Verwenden eines vorab trainierten Straßenrandmodells durchgeführt (d.h. Klassifizierungseinrichtung). Die Klassifizierung identifiziert, ob ein jeweiliges Merkmal ein Straßenrand ist oder nicht. Eine Klassifizierung kann durchgeführt werden, indem Parameter ausgewählt werden, die verwendet werden, um einen Ausgleich zwischen dem, was als Straßenrand oder nicht als Straßenrand identifiziert wird, bereitzustellen. Es ist zu verstehen, dass ein Straßenrand wie hierin verwendet Spurmarkierungen, Bordsteine und andere Straßenstrukturen oder Markierungen umfassen soll, die eine Grenze einer Straße definieren. Die Klassifizierungseinrichtung kann eine beliebige Klassifizierungseinrichtung sein, die eine Stützvektormaschine bzw. Support Vector Machine oder ein Trainingsprogramm eines neuronalen Netzes umfasst, jedoch nicht darauf beschränkt ist.
  • In Schritt 54 werden die Linienkandidaten in rechte Cluster und linke Cluster kategorisiert. Das Kategorisieren der Linienkandidaten in jedes Cluster kann auf der Grundlage des Kreuzungsorts jedes Linienkandidaten in Bezug auf eine ausgewählte horizontale Zeile an der Unterseite des Bilds, die eine Fahrzeugmotorhaubenlinie darstellt, erfolgen. Das heißt, eine untere Linie (Zeile) des Bilds wird für eine Gruppierung linker und rechter Linien-Cluster verwendet. Jede detektierte Straßenstrukturlinie wird für eine Kreuzung an der unteren Linie des Bilds erweitert. Der Kreuzungsort wird mit einer imaginären Fahrzeugmittellinie verglichen, die sich vertikal erstreckt und von der angenommen wird, dass sie in der Mitte des Bilds liegt. Eine Linie wird in ein Kandidaten-Cluster eines linken Rands gruppiert, wenn die jeweilige Linie auf der linken Seite der imaginären Mittellinie kreuzt und ihre Distanz zu der Mittellinie größer als die Hälfte der Fahrzeugbreite ist (das Fahrzeug sollte sich nicht außerhalb des Straßenrands befinden). Ähnlich wird eine Linie in ein Kandidaten-Cluster eines rechten Rands gruppiert, wenn die jeweilige Linie auf der rechten Seite der imaginären Mittellinie kreuzt und ihre Distanz zu der Mittellinie größer als die Hälfte der Fahrzeugbreite ist.
  • In Schritt 55 werden Linienkandidaten, die nahe beieinander liegen, als einzelner Straßenrand gruppiert. Jeder jeweilige Kandidatenstraßenrand weist eine Klassifizierungswahrscheinlichkeit auf, die einen Vertrauenswert diesbezüglich, ob es sich um einen Straßenrand handelt oder nicht, bereitstellt. Der Vertrauenswert basiert vorzugsweise auf einer Skala von 0 bis 1. Der jedem jeweiligen Kandidatenstraßenrand zugeordnete Vertrauenswert wird durch die Klassifizierungseinrichtung zugeordnet. Innerhalb einer Gruppierung von Straßenrändern wird der jeweilige Straßenrand mit der maximalen Klassifizierungswahrscheinlichkeit in der Gruppierung als der Vertrauenswert für die gebildete Gruppierung verwendet.
  • In Schritt 56 werden Straßenränder in dem linken Cluster und/oder dem rechten Cluster mit einem Vertrauenswert, der größer als ein vorbestimmter Vertrauensschwellenwert ist, als zuverlässiger Straßenrand identifiziert. Vorzugsweise wird ein vorbestimmter Vertrauensschwellenwert von größer als 0,95 verwendet. Es kann jedoch ein anderer vorbestimmter Vertrauensschwellenwert als 0,95 verwendet werden.
  • 6 zeigt ein Beispiel von Kandidatenstraßenrändern 70 - 76, die in einem erfassten Bild hervorgehoben werden. Jeder Linienkandidat weist einen zugehörigen Vertrauenswert auf. Jede Linie wird in einem rechten Cluster oder einem linken Cluster identifiziert. Beispielsweise befinden sich die Kandidatenlinien 70 und 71 auf der linken Seite des Fahrzeugs und werden sie in ein Cluster der linken Seite eingeordnet. Die Kandidatenlinien 72 - 76 befinden sich auf der rechten Seite des Fahrzeugs und werden in ein Cluster der rechten Seite eingeordnet. Eine untere Linie 77 und eine Mittellinie 78 werden verwendet, um zu ermitteln, ob die jeweiligen Kandidatenlinien in ein linkes Cluster oder ein rechtes Cluster gruppiert werden sollten. Die untere Linie 77 stellt eine Fahrzeugmotorhaubenlinie in dem Bild dar, um einen Schnittort mit einer jeweiligen Kandidatenlinie zu identifizieren. Die Mittellinie 78 stellt die Fahrzeugmittellinie dar, die sich vertikal erstreckt und von der angenommen wird, dass sie sich in der Mitte des Bilds befindet.
  • In 6 ist auch gezeigt, dass in dem Cluster der linken Seite nur Linienkandidat 70 eine untere Linie 77 des Bilds kreuzt, was ein zuverlässiger Indikator für einen Straßenrand ist. In Bezug auf das Cluster der rechten Seite kreuzen die Linien 72 - 74 die untere Linie 77. Es ist zu verstehen, dass, obwohl die Linien 71 und 75 die untere Linie 77 an Orten außerhalb des erfassten Bilds, wie es aufgrund des eingeschränkten Sichtfelds der Kamera gezeigt ist, kreuzen, die Linien 71 und 75 zu dem linken und rechten Cluster hinzugefügt werden sollten.
  • Ein Straßenrand, wie beispielsweise ein Bordstein, kann mehrere Linien umfassen, die durch das Straßenstrukturmodul detektiert werden. Jede Linie sowie ihr entsprechendes Nachbargebiet selbst ist kein guter Repräsentant für den Bordstein. Vielmehr würde eine Gruppierung der Linien und deren Umgebungsgebiet den gesamten Straßenrandübergang von einer Fahrbahn zu einer Nicht-Fahrbahn außerhalb des Bordsteins abdecken. Diese Gruppierung stellt auch eine genauere Straßenrandlokalisierung bereit als eine beliebige Linie in ihrer jeweiligen Gruppe, was bei einer Straßenrandverfolgung und -detektion in nachfolgenden Frames hilfreich sein könnte.
  • Um die Randlinienkandidaten zu gruppieren, die zu einem einzelnen Straßenrand gehören, werden eine Distanz zwischen jeder der potentiell gruppierten Linien und deren Ausrichtungsähnlichkeit überprüft, sowie deren Klassifizierungswahrscheinlichkeiten. Wenn zwei oder mehr Linien sehr nahe beieinander liegen (z.B. < 0,5 m an der Bodenebene) und im Wesentlichen parallel sind, wird jede der jeweiligen Linien, die die obigen Kriterien erfüllt, zu einem Straßenrandkandidaten gruppiert und werden deren Nachbargebiete zu einem Nachbargebiet gruppiert. Das jeweilige Merkmal wird aus dem gruppierten Nachbargebiet extrahiert und in ein Straßenrandklassifizierungsmodul eingegeben, um seine Straßenrandwahrscheinlichkeit zu verfeinern.
  • 6 zeigt dieses Beispiel, und in Bezug auf das Cluster der rechten Seite und spezieller auf die Kandidatenlinien 72 - 74 werden, da alle jeweiligen Kandidatenlinien nahe beieinander liegen, die Kandidatenlinien 72 - 74 als einzelner Straßenrand gruppiert. Ferner weisen die Kandidatenlinien 72 - 74 jeweils einen unterschiedlichen Vertrauenswert auf, der die Wahrscheinlichkeit, dass der Linienkandidat ein Straßenrand ist, angibt. Bei einer Gruppierung als einzelner Straßenrand verwendet die Gruppe als Ganzes den jeweiligen Vertrauenswert eines jeweiligen Linienkandidaten in der Gruppe, der den höchsten Vertrauenswert relativ zu allen Vertrauenslinien in dieser Gruppe aufweiset. Um die Randlinienkandidaten, die zu einem einzelnen Straßenrand gehören, zu gruppieren, werden eine Distanz zwischen allen potentiell gruppierten Linien und deren Ausrichtungsähnlichkeit überprüft, sowie deren Klassifizierungswahrscheinlichkeiten. Wenn zwei oder mehr Linien sehr nahe beieinander liegen (z.B. < 0,5 m an der Bodenebene) und im Wesentlichen parallel sind, werden alle jeweiligen Linien, die die obigen Kriterien erfüllen, zu einem Straßenrandkandidaten gruppiert und werden deren Nachbargebiete zu einem Nachbargebiet gruppiert. Beispielsweise kann Linienkandidat 72 einen Vertrauenswert von 0,92 aufweisen, kann Linienkandidat 73 einen Vertrauenswert von 0,97 aufweisen und kann Linienkandidat 74 einen Vertrauenswert von 0,94 aufweisen. Bei einer Gruppierung als einzelner Straßenrand verwendet die Gruppierung den Vertrauenswert 0,97, der der höchste Vertrauenswert unter den jeweiligen Linienkandidaten, die gruppiert sind, ist. Folglich werden Linienkandidaten aus dem Cluster der rechten Seite und/oder dem Cluster der linken Seite, die Vertrauenswerte aufweisen, die größer als ein Schwellenwert, wie beispielsweise 0,95, sind, von dem lernbasierten Straßenranddetektionsmodul als zuverlässiger Straßenrand ausgewählt.
  • Die ausgewählten zuverlässigen Straßenränder werden beim Ermitteln eines Straßengebiets verwendet, so dass ein freier Pfad auf der Fahrstraße identifiziert werden kann. Dies reduziert die falschen Alarme der Detektion eines freien Pfads. Durch Identifizieren der Straßengrenzen in dem erfassten Bild wird Gebieten, die als Gebiete eines freien Pfads identifiziert werden und innerhalb der detektierten Straßenrandgrenzen liegen, ein höheres Vertrauen verliehen, und wird Gebieten, die außerhalb der detektierten Straßenrandgrenzen liegen, ein niedrigeres Vertrauen verliehen. Dies ermöglicht einem System zur Detektion eines freien Pfads, das Ergebnis einer Detektion eines freien Pfads zu verfeinern, indem die identifizierten Straßenrandgrenzen verwendet werden.
  • Während in der vorliegenden Erfindung bestimmte Ausführungsformen ausführlich beschrieben wurden, werden Fachleute, die diese Erfindung betrifft, verschiedene alternative Entwürfe und Ausführungsformen zum Ausführen der Erfindung wie durch die folgenden Ansprüche definiert erkennen.

Claims (10)

  1. Verfahren zum Detektieren von Straßenrändern bei einer Fahrstraße zur Detektion eines freien Pfads, wobei das Verfahren die Schritte umfasst, dass: Eingangsbilder einer Szene außerhalb des Fahrzeugs (12) unter Verwendung einer Bilderfassungseinrichtung (14) erfasst werden, wobei die Eingangsbilder in Frames verschiedener Zeitschritte erfasst werden; ein transformiertes Bild aus dem erfassten Bild erzeugt wird; eine Randanalyse an dem transformierten Bild durchgeführt wird, um Linienkandidaten zu detektieren; ein anfänglicher Fluchtpunkt in dem erfassten Bild als Funktion der Linienkandidaten identifiziert wird; die in einem nächsten Frame identifizierten Linienkandidaten verfolgt werden; ein Fluchtpunkt in dem nächsten Frame auf der Grundlage der verfolgten Linienkandidaten geschätzt wird; jeweilige Linienkandidaten in dem nächsten Frame ausgewählt werden, die zu dem Fluchtpunkt des nächsten Frames gehören; ein interessierendes Gebiet in dem erfassten Bild für jeden Linienkandidaten identifiziert wird, wobei jedes interessierende Gebiet einen jeweiligen Linienkandidaten und ein Umgebungsgebiet des jeweiligen Linienkandidaten umfasst; Merkmale, die sich auf den Linienkandidaten beziehen, aus dem interessierenden Gebiet extrahiert werden; die extrahierten Merkmale in eine Klassifizierungseinrichtung eingegeben werden, um zu identifizieren, ob der Linienkandidat ein potentieller Straßenrand ist, wobei die Klassifizierungseinrichtung dem Linienkandidaten einen Vertrauenswert zuordnet, der eine Wahrscheinlichkeit bezüglich dessen identifiziert, ob der Linienkandidat ein Straßenrand ist; und der potentielle Linienkandidat basierend darauf, dass der Vertrauenswert größer als ein vorbestimmter Wert ist, als zuverlässiger Straßenrand identifiziert wird.
  2. Verfahren nach Anspruch 1, wobei das Erzeugen eines Transformationsbilds umfasst, dass ein Beleuchtungsintensitätsbild und ein Gelbbild aus dem erfassten Bild erzeugt werden, und wobei eine Randanalyse an dem Beleuchtungsintensitätsbild und dem Gelbbild durchgeführt wird, um Linienkandidaten zu detektieren.
  3. Verfahren nach Anspruch 2, wobei das Durchführen einer Randanalyse an dem Beleuchtungsintensitätsbild und dem Gelbbild umfasst, dass Rändern zugehörige Pixel in jedem jeweiligen Bild identifiziert werden und die Rand-Pixel mit im Wesentlichen ähnlichen Gradientenwinkeln in Cluster eingeordnet werden, um Linien-Cluster zu detektieren.
  4. Verfahren nach Anspruch 3, wobei das Einordnen der Rand-Pixel in Cluster ferner auf einer lokalen Konnektivität zwischen Rand-Pixeln basiert, wobei eine lokale Konnektivität umfasst, dass eine Verbindungskette mit aufeinanderfolgenden Pixeln mit einem im Wesentlichen ähnlichen Gradientenwinkel gebildet wird.
  5. Verfahren nach Anspruch 3, wobei die detektierten Linien-Cluster, die in dem Beleuchtungsintensitätsbild und dem Gelbbild identifiziert werden, zu einem kombinierten Linien-Cluster zusammengeführt werden.
  6. Verfahren nach Anspruch 5, wobei die Linienkandidaten in dem kombinierten Linien-Cluster identifiziert werden, indem helle Streifen in dem kombinierten Linien-Cluster identifiziert werden, wobei die hellen Streifen über eine Breite des gesamten Linienkandidaten von einem dunklen Gebiet in ein helles Gebiet in ein dunkles Gebiet übergehen, wobei die hellen Streifen Linienkandidaten sind, die Spurmarkierungen auf der Fahrstraße darstellen.
  7. Verfahren nach Anspruch 5, wobei die Linienkandidaten in dem kombinierten Linien-Cluster identifiziert werden, indem dunkle Streifen in dem kombinierten Linien-Cluster identifiziert werden, wobei die dunklen Streifen über eine Breite des gesamten Linienkandidaten von einem hellen Gebiet in ein dunkles Gebiet in ein helles Gebiet übergehen, wobei die dunklen Streifen Linienkandidaten sind, die Bordsteine darstellen.
  8. Verfahren nach Anspruch 5, wobei der anfängliche Fluchtpunkt in einem Gebiet ermittelt wird, in dem helle Streifen und dunkle Streifen zusammenlaufen.
  9. Verfahren nach Anspruch 1, wobei das Verfolgen der Linienkandidaten umfasst, dass ermittelt wird, ob Linienkandidaten in dem nächsten Frame mit den Linienkandidaten von dem vorherigen Frame übereinstimmen, und wobei, wenn eine Übereinstimmung gefunden wird, ein jeweiliger übereinstimmender Linienkandidat in dem nächsten Frame verwendet wird, um den Fluchtpunkt des nächsten Frames zu schätzen.
  10. Verfahren nach Anspruch 1, das ferner den Schritt umfasst, dass die Linienkandidaten in ein Cluster der linken Seite und ein Cluster der rechten Seite kategorisiert werden, wobei ein jeweiliger Linienkandidat in das Cluster der linken Seite kategorisiert wird, wenn der jeweilige Linienkandidat eine linke Seite einer Motorhaubenlinie des Fahrzeugs (12) in dem erfassten Bild kreuzt, wobei ein jeweiliger Linienkandidat in das Cluster der rechten Seite kategorisiert wird, wenn der jeweilige Linienkandidat eine rechte Seite der Motorhaubenlinie des Fahrzeugs (12) in dem erfassten Bild kreuzt, und wobei die rechte Seite der Motorhaubenlinie und die linke Seite der Motorhaubenlinie durch eine Mittellinie getrennt sind, die sich in Längsrichtung entlang einer Mitte des Fahrzeugs (12) erstreckt.
DE102013205950.7A 2012-04-09 2013-04-04 Verfahren zum Detektieren von Straßenrändern Active DE102013205950B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/441,963 US8750567B2 (en) 2012-04-09 2012-04-09 Road structure detection and tracking
US13/441,963 2012-04-09

Publications (2)

Publication Number Publication Date
DE102013205950A1 DE102013205950A1 (de) 2013-10-24
DE102013205950B4 true DE102013205950B4 (de) 2020-03-19

Family

ID=49290315

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013205950.7A Active DE102013205950B4 (de) 2012-04-09 2013-04-04 Verfahren zum Detektieren von Straßenrändern

Country Status (3)

Country Link
US (1) US8750567B2 (de)
CN (1) CN103366156B (de)
DE (1) DE102013205950B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023247151A1 (de) 2022-06-23 2023-12-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und assistenzsystem für eine informationsfilterbasierte fahrschlauchschätzung eines kraftfahrzeugs

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130202155A1 (en) * 2012-02-03 2013-08-08 Gopal Gudhur Karanam Low-cost lane marker detection
US9633436B2 (en) * 2012-07-26 2017-04-25 Infosys Limited Systems and methods for multi-dimensional object detection
US9224053B1 (en) * 2013-07-31 2015-12-29 Google Inc. Combining multiple estimates of an environment into a consolidated estimate for an autonomous vehicle
KR20150059489A (ko) * 2013-11-22 2015-06-01 현대자동차주식회사 협로 검출 방법과 협로 검출 장치 및 협로 검출 시스템
US9395192B1 (en) * 2013-12-20 2016-07-19 Google Inc. Methods and systems for road and lane boundary tracing
JP2015121954A (ja) * 2013-12-24 2015-07-02 株式会社デンソー 輝度値算出装置及び車線検出システム
KR101962700B1 (ko) * 2013-12-24 2019-03-28 주식회사 만도 디포그센서를 이용한 차선인식 시스템 및 방법
KR101605514B1 (ko) * 2014-02-28 2016-04-01 주식회사 코아로직 차선 인식 장치 및 방법
FR3019508B1 (fr) * 2014-04-08 2017-12-08 Alstom Transp Tech Procede de detection de rails sur lesquels circule un vehicule ferroviaire
JP6130809B2 (ja) * 2014-04-25 2017-05-17 本田技研工業株式会社 車線認識装置
CN112580456A (zh) * 2014-05-14 2021-03-30 御眼视觉技术有限公司 用于路缘检测和行人危险评估的系统和方法
GB201410612D0 (en) * 2014-06-13 2014-07-30 Tomtom Int Bv Methods and systems for generating route data
CN104063711B (zh) * 2014-06-23 2018-04-06 西北工业大学 一种基于K‑means方法的走廊消失点快速检测算法
JP6193819B2 (ja) * 2014-07-11 2017-09-06 株式会社Soken 走行区画線認識装置
US9628659B2 (en) * 2015-01-08 2017-04-18 GM Global Technology Operations LLC Method and apparatus for inspecting an object employing machine vision
CN104766337B (zh) * 2015-04-27 2017-10-20 西北工业大学 一种基于跑道边界增强的飞机着陆视觉增强方法
DE102016205780A1 (de) 2016-04-07 2017-10-12 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Einstellen eines Reglers eines Fahrzeugs sowie Regelungssystem für ein Fahrzeug
US9969389B2 (en) * 2016-05-03 2018-05-15 Ford Global Technologies, Llc Enhanced vehicle operation
US10670418B2 (en) * 2016-05-04 2020-06-02 International Business Machines Corporation Video based route recognition
US9881230B2 (en) 2016-05-11 2018-01-30 International Business Machines Corporation System and method for automated road identification in distant traffic camera images
US10108866B2 (en) * 2016-05-26 2018-10-23 GM Global Technology Operations LLC Method and system for robust curb and bump detection from front or rear monocular cameras
EP3291133B1 (de) 2016-08-31 2021-09-29 Veoneer Sweden AB Sichtsystem und -verfahren für ein kraftfahrzeug
EP3529742A1 (de) 2016-10-24 2019-08-28 Starship Technologies OÜ System und verfahren für bürgersteigrandsucher
KR102480416B1 (ko) * 2016-12-23 2022-12-23 삼성전자주식회사 차선 정보를 추정하는 방법 및 전자 장치
US10421452B2 (en) * 2017-03-06 2019-09-24 GM Global Technology Operations LLC Soft track maintenance
CN107220976B (zh) * 2017-05-17 2020-11-20 南京航空航天大学 一种航拍公路图像的公路定位方法
EP3580690B1 (de) * 2017-05-24 2020-09-02 Google LLC Bayessche methodologie zur detektion geospatialer objekte/eigenschaften
KR102499398B1 (ko) * 2017-08-09 2023-02-13 삼성전자 주식회사 차선 검출 방법 및 장치
CN109583280A (zh) * 2017-09-29 2019-04-05 比亚迪股份有限公司 车道线识别方法、装置、设备及存储介质
US10895460B2 (en) * 2017-11-06 2021-01-19 Cybernet Systems Corporation System and method for generating precise road lane map data
EP3480726B1 (de) 2017-11-07 2023-09-13 Arriver Software AB Sichtsystem und verfahren zum autonomen fahren und/oder zur fahrerassistenz in einem kraftfahrzeug
JP6981850B2 (ja) * 2017-11-09 2021-12-17 株式会社Soken 運転支援システム
CN107895151A (zh) * 2017-11-23 2018-04-10 长安大学 一种强光照条件下基于机器视觉的车道线检测方法
CN108171682B (zh) * 2017-12-04 2022-04-19 北京中科慧眼科技有限公司 基于远景的双目同步曝光率检测方法、系统及存储介质
CN110019872B (zh) * 2017-12-21 2023-08-22 佳能株式会社 索引装置和方法、对象图像检索装置和方法以及监视系统
CN110377670B (zh) * 2018-04-11 2021-11-26 腾讯大地通途(北京)科技有限公司 一种确定道路要素信息的方法、装置、介质及设备
CN109034047B (zh) * 2018-07-20 2021-01-22 京东方科技集团股份有限公司 一种车道线检测方法及装置
CN109272536B (zh) * 2018-09-21 2021-11-09 浙江工商大学 一种基于Kalman滤波的道线灭点跟踪方法
US11199847B2 (en) * 2018-09-26 2021-12-14 Baidu Usa Llc Curvature corrected path sampling system for autonomous driving vehicles
US11068724B2 (en) * 2018-10-11 2021-07-20 Baidu Usa Llc Deep learning continuous lane lines detection system for autonomous vehicles
KR102633140B1 (ko) 2018-10-23 2024-02-05 삼성전자주식회사 주행 정보를 결정하는 방법 및 장치
JP7136663B2 (ja) * 2018-11-07 2022-09-13 日立Astemo株式会社 車載制御装置
US11402220B2 (en) 2019-03-13 2022-08-02 Here Global B.V. Maplets for maintaining and updating a self-healing high definition map
US11287267B2 (en) 2019-03-13 2022-03-29 Here Global B.V. Maplets for maintaining and updating a self-healing high definition map
US11255680B2 (en) 2019-03-13 2022-02-22 Here Global B.V. Maplets for maintaining and updating a self-healing high definition map
US11287266B2 (en) 2019-03-13 2022-03-29 Here Global B.V. Maplets for maintaining and updating a self-healing high definition map
US11096026B2 (en) 2019-03-13 2021-08-17 Here Global B.V. Road network change detection and local propagation of detected change
US11280622B2 (en) 2019-03-13 2022-03-22 Here Global B.V. Maplets for maintaining and updating a self-healing high definition map
JP7472170B2 (ja) * 2019-04-26 2024-04-22 エヌビディア コーポレーション 自律マシン・アプリケーションにおける交差点姿勢検出
KR20210034253A (ko) 2019-09-20 2021-03-30 삼성전자주식회사 위치 추정 장치 및 방법
GB2589902A (en) * 2019-12-12 2021-06-16 Continental Automotive Romania Srl Lane detection method
CN111325770B (zh) * 2020-02-13 2023-12-22 中国科学院自动化研究所 基于rgbd相机的目标跟随方法、系统、装置
JP7458940B2 (ja) * 2020-09-01 2024-04-01 日立Astemo株式会社 画像処理装置
CN112199999B (zh) * 2020-09-09 2024-08-20 浙江大华技术股份有限公司 道路检测方法、装置、存储介质和电子设备
JP7534912B2 (ja) * 2020-10-04 2024-08-15 株式会社Subaru 区画線認識装置
CN112433203B (zh) * 2020-10-29 2023-06-20 同济大学 一种基于毫米波雷达数据的车道线形检测方法
US20240130025A1 (en) * 2021-02-26 2024-04-18 Valeo Vision Method for controlling an automotive lighting device
US20230097780A1 (en) * 2021-09-29 2023-03-30 Canoo Technologies Inc. Vanishing point determination, symmetry-based boundary refinement, and component detection for vehicle object detection or other applications
US12033340B2 (en) * 2022-03-24 2024-07-09 Honda Motor Co., Ltd. System, information processing apparatus, vehicle, and method
CN114724117B (zh) * 2022-06-07 2022-09-13 腾讯科技(深圳)有限公司 车道线关键点数据生成方法、装置、电子设备及存储介质
US20230406315A1 (en) * 2022-06-17 2023-12-21 Nvidia Corporation Encoding junction information in map data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1320072A2 (de) * 2001-11-30 2003-06-18 Hitachi Ltd. Verfahren zur Erkennung von Fahrbahnmarkierungen
DE102010050167A1 (de) * 2010-10-30 2012-05-03 Audi Ag Verfahren und Vorrichtung zur Bestimmung eines plausiblen Fahrstreifens zur Führung eines Fahrzeugs sowie Kraftwagen
DE102011109569A1 (de) * 2011-08-05 2013-02-07 Conti Temic Microelectronic Gmbh Verfahren zur Fahrspurerkennung mittels einer Kamera

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4852919B2 (ja) * 2005-07-25 2012-01-11 アイシン・エィ・ダブリュ株式会社 車両乗上制御システム及び車両乗上制御方法
US7835578B2 (en) * 2006-04-19 2010-11-16 Sarnoff Corporation Automated video-to-text system
US8145677B2 (en) * 2007-03-27 2012-03-27 Faleh Jassem Al-Shameri Automated generation of metadata for mining image and text data
US8436902B2 (en) * 2007-08-30 2013-05-07 Valeo Schalter And Sensoren Gmbh Method and system for weather condition detection with image-based road characterization
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8204277B2 (en) * 2008-07-18 2012-06-19 GM Global Technology Operations LLC Apparatus and method for camera-bases lane marker detection
CN101339616B (zh) * 2008-08-12 2012-11-28 北京中星微电子有限公司 道路识别方法及装置
JP5074365B2 (ja) * 2008-11-28 2012-11-14 日立オートモティブシステムズ株式会社 カメラ装置
CN101620732A (zh) * 2009-07-17 2010-01-06 南京航空航天大学 道路行驶线的视觉检测方法
CN102156977A (zh) * 2010-12-22 2011-08-17 浙江大学 一种基于视觉的道路检测方法
US9626599B2 (en) * 2012-04-09 2017-04-18 GM Global Technology Operations LLC Reconfigurable clear path detection system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1320072A2 (de) * 2001-11-30 2003-06-18 Hitachi Ltd. Verfahren zur Erkennung von Fahrbahnmarkierungen
DE102010050167A1 (de) * 2010-10-30 2012-05-03 Audi Ag Verfahren und Vorrichtung zur Bestimmung eines plausiblen Fahrstreifens zur Führung eines Fahrzeugs sowie Kraftwagen
DE102011109569A1 (de) * 2011-08-05 2013-02-07 Conti Temic Microelectronic Gmbh Verfahren zur Fahrspurerkennung mittels einer Kamera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023247151A1 (de) 2022-06-23 2023-12-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und assistenzsystem für eine informationsfilterbasierte fahrschlauchschätzung eines kraftfahrzeugs
DE102022115720A1 (de) 2022-06-23 2023-12-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Assistenzsystem für eine informationsfilterbasierte Fahrschlauchschätzung eines Kraftfahrzeugs

Also Published As

Publication number Publication date
CN103366156A (zh) 2013-10-23
DE102013205950A1 (de) 2013-10-24
US8750567B2 (en) 2014-06-10
CN103366156B (zh) 2016-08-17
US20130266175A1 (en) 2013-10-10

Similar Documents

Publication Publication Date Title
DE102013205950B4 (de) Verfahren zum Detektieren von Straßenrändern
DE102013205952B4 (de) Rekonfigurierbares System und Verfahren zur Detektion eines freien Pfads
DE102005063199B4 (de) Vorrichtung und Verfahren zur Erkennung von Straßenmarkierungen
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE102016118502A1 (de) Verfahren, Einrichtung und Vorrichtung zum Ermitteln einer Fahrbahngrenze
DE69937699T2 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges
DE112013001858B4 (de) Mehrfachhinweis-Objekterkennung und -Analyse
DE112012002885B4 (de) Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
DE69736764T2 (de) Lokales Positionierungsgerät und Verfahren dafür
DE102004043794B4 (de) Verfahren und Gerät zum Bestimmen der Fahrspur eines Fahrzeuges, sowie ein Computerprodukt
DE102009050504A1 (de) Verfahren zum Detektieren eines freien Pfads durch eine Analyse einer topografischen Veränderung
DE102006005512B4 (de) System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs
EP2629243A1 (de) Verfahren zum Erkennen und Verfolgen von Fahrspurmarkierungen
DE102009050502A1 (de) Detektion eines freien Pfads unter Verwendung eines hierarchischen Ansatzes
DE102009050492A1 (de) Detektion eines freien Pfads unter Verwendung eines segmentierungsbasierten Verfahrens
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
DE102009048699A1 (de) Pixelbasierte Detektion einer nicht vorhandenen Struktur eines freien Pfads
DE102009048892A1 (de) Pixelbasierte strukturreiche Detektion eines freien Pfads
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE102011055458A1 (de) Adaptierungstechnik zur Erkennung einer freien Fahrbahn mittels verlässlicher lokaler Modellkalibrierung
DE112011103690T5 (de) Erkennung und Verfolgung sich bewegender Objekte
DE102009050501A1 (de) Verbesserte Detektion eines freien Pfads bei Vorhandensein eines Verkehrsinfrastrukturindikators
DE102012112104A1 (de) Verfahren und vorrichtung zur befahrbarkeitsanalyse
DE102013205949A1 (de) Draufsichtklassifizierung bei Detektion eines freien Pfads
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final