DE60217589T2 - Vorrichtung und Verfahren zur Detektion von weissen Linien - Google Patents

Vorrichtung und Verfahren zur Detektion von weissen Linien Download PDF

Info

Publication number
DE60217589T2
DE60217589T2 DE60217589T DE60217589T DE60217589T2 DE 60217589 T2 DE60217589 T2 DE 60217589T2 DE 60217589 T DE60217589 T DE 60217589T DE 60217589 T DE60217589 T DE 60217589T DE 60217589 T2 DE60217589 T2 DE 60217589T2
Authority
DE
Germany
Prior art keywords
image
white line
value
max
density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60217589T
Other languages
English (en)
Other versions
DE60217589D1 (de
Inventor
Kiyoshi Yokohama-shi Akutagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of DE60217589D1 publication Critical patent/DE60217589D1/de
Application granted granted Critical
Publication of DE60217589T2 publication Critical patent/DE60217589T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren, die angepasst sind, um die Kontur einer Straße durch Detektion einer auf der Straße vorhandenen weißen Linie zu identifizieren.
  • Nach dem bekannten Stand der Technik gibt es Vorrichtungen, die ein Bild einer Straße mit einer an einem Fahrzeug montierten Kamera erhalten und eine weiße Linie durch Verarbeitung des erhaltenen Bilds erkennen. In einer derartigen Vorrichtung kann die Genauigkeit der Detektion der weißen Linie schlecht werden oder die Detektion der weißen Linie selbst behindert werden, wenn der Kontrast der weißen Linie niedriger wird, wenn die weiße Linie ausgeblichen ist, oder aufgrund von Reflexion des Sonnenlichts von der Straßenoberfläche. Folglich ist es erforderlich, Bildverarbeitung zu implementieren, um eine Detektion der weißen Linie zu ermöglichen, wenn ihr Kontrast niedrig ist.
  • Die veröffentlichte japanische Patentschrift Nr. 2000-335340 offenbart ein Verfahren zum Erhöhen des Kontrasts eines Bilds, das mit einer Kamera am Fahrzeug erfasst wurde. Bei diesem Verfahren wird ein Dichtevariations-Histogramm aus dem erfassten Bild erstellt und Dichteumwandlung implementiert, um die Dichten in dem Bereich zwischen den höchsten und niedrigsten erhaltenen Dichtepegeln in einer gleichförmigen Weise zu modifizieren, indem bestimmte Dichtepegel an den zwei extremen Enden in dem Histogramm an einem vorbestimmten Dichtepegel ausgeschlossen werden. Außerdem schlägt die Veröffentlichung auch ein Verfahren zur Bilddichte-Umwandlung vor, das ausgeführt wird, indem ein dunkler Bereich oder ein heller Bereich basierend auf dem Verhältnis zwischen dem Dichtepegel an dem Baryzentrum des Histogramms und dem Zentralwert der Dichtepegel hervorgehoben wird. Die Genauigkeit der Objektdetektion wird verbessert, indem ein besserer Kontrast in dem erfassten Bild durch eines dieser Verfahren erreicht wird.
  • Während jedoch der Kontrast einer weißen Linie durch eine gleichförmige Dichteumwandlung verbessert wird, indem das Dichteumwandlungsverfahren nach dem einschlägigen Stand der Technik, das oben beschrieben wurde, bei der Detektion der weißen Linie eingesetzt wird, resultiert die gleichförmige Dichteumwandlung auch darin, dass der Kontrast von anderen Straßenoberflächenbereichen als der weißen Linie hervorgehoben werden. Folglich wird das Signal-Rausch-Verhältnis der weißen Linie nicht verbessert und kann die weiße Linie nicht mit einem hohen Grad von Zuverlässigkeit erfasst werden. Durch die Bilddichte-Umwandlung nach dem einschlägigen Stand der Technik, bei der ein heller Bereich des Bilds hervorgehoben wird, wird außerdem jeder Bereich hervorgehoben, der heller ist als die weiße Linie auf der Straßenoberfläche, wodurch eine fehlerhafte Detektion der weißen Linie als ein Ergebnis vorkommen kann. Da die verschiedenen Dichtegrade in dem Bild der Straßenoberfläche durch die Dichteumwandlung nach dem einschlägigen Stand der Technik hervorgehoben werden, besteht ein anderes Problem darin, dass eine fehlerhafte Detektion einer nicht vorhandenen weißen Linie leicht vorkommen kann.
  • EP-A-0827127 offenbart eine Vorrichtung und ein Verfahren gemäß den Oberbegriffen der unabhängigen Ansprüche.
  • Es wäre wünschenswert, eine Vorrichtung zur Detektion einer weißen Linie und ein Verfahren zur Detektion einer weißen Linie bereitzustellen, die eine zuverlässige Detektion einer weißen Linie durch Absenken des Kontrasts in dem Bild der Straßenoberfläche über einen anderen Bereich als die weiße Linie erreichen.
  • Die Erfindung stellt eine Vorrichtung zur Detektion einer weißen Linie bereit, wie in Anspruch 1 dargelegt, und ein Verfahren zur Detektion einer weißen Linie, wie in Anspruch 7 dargelegt.
  • Ein Bild eines Verarbeitungsbereichssatzes zur Detektion von weißen Linien innerhalb eines Straßenbilds, das von Bilderfassungsmitteln erfasst wurde, wird extrahiert. Ein Maximalwert für Pixelwerte korrespondierend mit anderen Straßenoberflächenbereichen als eine weiße Linie wird basierend auf Pixelwerten, die mit dem extrahierten Bild korrespondieren, ermittelt. Der Kontrast des Teil des Bilds, der durch Pixelwerte repräsentiert wird, die gleich dem oder kleiner als der ermittelte Maximalwert sind, wird reduziert, und die weiße Linie wird basierend auf dem Bild, in dem der Kontrast reduziert wurde, erkannt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt die Struktur, die in einer Ausführungsform der Vorrichtung zur Detektion von weißen Linien nach der vorliegenden Erfindung verwendet wird;
  • 2 stellt die Position dar, an der die Kamera an einem Fahrzeug montiert werden sollte;
  • 3 zeigt ein Bild, das von der Kamera erfasst wurde, und den Bereich zur Detektion von weißen Linien;
  • 4 zeigt ein Ablaufdiagramm der Verarbeitungsprozedur, die von der Vorrichtung zur Detektion von weißen Linien nach der vorliegenden Erfindung ausgeführt wird, um eine weiße Linie zu erkennen;
  • 5 zeigt ein Dichtehistogramm, das nach einem Originalbild erstellt wurde;
  • 6 zeigt ein Dichtehistogramm, das durch Ebnen des Dichtegradienten des Originalbilds erhalten wurde;
  • 7 veranschaulicht ein Verfahren zur Berechnung eines Maximalwerts und eines Minimalwerts für Pixel korrespondierend mit anderen Straßenoberflächenbereichen als eine weiße Linie; und
  • 8 veranschaulicht das Verfahren, das zur Berechnung der Dichteumwandlungsformeln eingesetzt wird, die verwendet werden, wenn eine weiße Linie auf der Straßenoberfläche vorhanden ist.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • 1 zeigt die Struktur, die in einer Ausführungsform der Vorrichtung zur Detektion von weißen Linien nach der vorliegenden Erfindung verwendet wird. Die Vorrichtung zur Detektion von weißen Linien in der Ausführungsform umfasst eine Kamera 1, eine Bildverarbeitungsvorrichtung 2, einen Speicher 3, einen Sensor 4 und eine Anzeige 5. Die Kamera 1, die in der Mitte entlang der Fahrzeugbreite an der Oberseite des vorderen Fensters in dem Fahrgastraum montiert ist, wie in 2 dargestellt, erfasst ein Bild der Straße, die sich vor dem Fahrzeug erstreckt. Die Kamera 1 wird unter Gewährleistung, dass der Gierwinkel, der durch die optische Achse des Objektivs der Kamera 1 und der Fahrzeugmittellinie gebildet wird, auf 0 eingestellt ist, und dass der Nickwinkel auf einen vorbestimmten Wert eingestellt ist, installiert. Das erfasste Bild wird der Bildverarbeitungsvorrichtung 2 zyklisch zugeführt. Die Bildverarbeitungsvorrichtung 2 erkennt eine weiße Linie auf der Straße durch Verarbeitung des von der Kamera 1 erfassten Bilds. Verschiedene Arten von Daten einschließlich der Pixelbereichsgröße, die später erläutert werden, werden in dem Speicher 3 gespeichert. Der Sensor 4 erkennt das Fahrzeugverhalten einschließlich der Fahrzeuggeschwindigkeit, des Nickwinkels, des Gierwinkels und dergleichen. Die Anzeige 5 ist eine Anzeigevorrichtung, auf der der Straßenzustand wie das Vorhandensein der weißen Linie, die erkannt wurde, und dergleichen angezeigt wird.
  • Die Bildverarbeitungsvorrichtung 2 ermittelt die Position der weißen Linie in dem von der Kamera 1 übertragenen Bild nach den geometrischen Bedingungen der weißen Linie und Aktualisierungen eines Straßenmodells, das später genauer zu beschreiben ist, durch Feststellung des Grads der Versetzung der aktuellen Position der weißen Linie relativ zur Position der weißen Linie in dem Straßenmodell. Als ein Ergebnis wird es möglich, die Position der weißen Linie in einer stabilen Weise auf einer fortlaufenden Basis zu ermitteln. 3 zeigt ein Bild einer Straße, das von der Kamera 1 erfasst wurde. Weiße Linien sind an den zwei Seiten der 2-spurigen Straße gezogen und eine unterbrochene Linie ist in der Mitte gezogen. Jeder rechtwinklig umschlossene Bereich ist ein Detektionsbereich für weiße Linien, der aufgrund der Ergebnisse der vorherigen Detektion von weißen Linien eingestellt wird. Die Bildverarbeitungsvorrichtung 2 erkennt die weiße Linie durch Implementierung der Verarbeitung, die später genau zu beschreiben ist, auf das Bild des Detektionsbereichs für weiße Linien.
  • 4 zeigt ein Ablaufdiagramm der Prozedur für Detektionsverarbeitung für weiße Linien, das von der Bildverarbeitungsvorrichtung in der Vorrichtung zur Detektion von weißen Linien nach der vorliegenden Erfindung ausgeführt wird. Die Verarbeitung in Schritt S1 und die anschließenden Schritte werden gestartet, wenn ein von der Kamera 1 erfasstes Bild zu der Bildverarbeitungsvorrichtung 2 übertragen wird. In Schritt S1 wird der Bereich, über dem die Detektion von weißen Linien durchzuführen ist, eingestellt, wie vorher erwähnt, und die Operation fährt mit Schritt S2 fort. Die Verarbeitung in Schritt S2 und anschließenden Schritten wird über den in Schritt S1 eingestellten Detektionsbereich für weiße Linien implementiert. Durch die in den Schritten S2–S4 ausgeführte Verarbeitung wird der Dichtegradient der niedrigen räumlichen Häufigkeiten, die über beispielsweise dem gesamten Verarbeitungsbereich in dem Originalbild vorhanden sind, korrigiert und geebnet. Der Begriff „räumliche Häufigkeit" wird zur Bezugnahme auf eine Häufigkeit verwendet, die eine räumliche (ortsbezogene) Verteilung der Bildhelligkeit oder der Farbdifferenz reflektiert.
  • In Schritt S2 wird das Bild des Detektionsbereichs für weiße Linien vor der Berechnung eines Dichtekorrekturkoeffizienten α, der später genau beschrieben wird, geglättet. Jede von verschiedenen Verfahren kann zum Glätten des Bilds angewandt werden. In der Ausführungsform wird das Bild durch das Verfahren des gleitenden Durchschnitts, das durch Feststellung des gleitenden Durchschnitts von Pixelwerten (Dichtewerten) über einen Bereich einer vorbestimmten Größe ausgeführt wird, geglättet. Beim Verfahren des gleitenden Durchschnitts wird der Durchschnitt der Dichtewerte des Zielpixels und der Pixel im Umkreis eines Zielpixels verwendet, um den Dichtewert des Zielpixels zu ersetzen. Es ist erforderlich, den Pixelbereich, der sich über die vorbestimmte Größe erstreckt, auf eine Breite einzustellen, die mit der Breite eines Pixelbereichs korrespondiert, die sich über die weiße Linie erstreckt, z. B. ungefähr 5 Mal die Breite des Pixelbereichs, der mit der Breite der weißen Linie übereinstimmt. Da die Größe des Pixelbereichs, der sich über die Breite der weißen Linie erstreckt, durch Annäherung in Korrespondenz mit der Position des Detektionsbereichs von weißen Linien auf dem Bild basierend auf die Weise, in der die Kamera an dem Fahrzeug montiert ist, und der Bilderfassungsrichtung vorbestimmt ist, sollte sie im Voraus in Korrespondenz mit den einzelnen Bildverarbeitungsbereichen festgestellt und in dem Speicher 3 gespeichert werden. Das Bild muss über einen Bereich geglättet werden, der größer ist als der Pixelbereich, der für die tatsächliche Detektion von weißen Linien erforderlich ist, da eine Glättungsoperation einen Pixelbereich erfordert, der den tatsächlichen Bereich der weißen Linie umgibt. Dementsprechend sollte die Größe des Verarbeitungsbereichs, über den das Originalbild von der Bildverarbeitungsvorrichtung 2 verarbeitet wird, auf eine Größe eingestellt werden, die größer ist als die Größe des Pixelbereichs, der den Bereich der weißen Linie umgibt.
  • Nachdem das Bild geglättet wurde, fährt die Operation mit Schritt S3 fort. In Schritt S3 wird der Dichtekorrekturkoeffizient α, der zum Ebnen der Dichte in Korrespondenz mit einem Dichtewert (Pixelwert) an jedem Pixel, aus dem das Originalbild besteht, durch die Formel in Ausdruck (1) berechnet. α(x, y) = Is_avg/Is(x, y) (1)mit
  • α(x, y):
    Koeffizient zum Ebnen der Dichte an den Koordinaten (x, y);
    Is_avg:
    der Durchschnitt der Pixelwerte innerhalb des Verarbeitungsbereichs in dem geglätteten Bild;
    Is(x, y):
    der Pixelwert an den Koordinaten (x, y) in dem geglätteten Bild.
  • Nachdem der Dichtekorrekturkoeffizient α berechnet wurde, fährt die Operation mit Schritt S4 fort. In Schritt S4 wird der Dichtegradient des Bilds geebnet. Der Pixelwert If an einem gegebenen Pixel in dem Bild mit dem geebneten Dichtegradienten kann mit der Formel in Ausdruck (2) unter Verwendung des in Schritt S3 berechneten Dichtekorrekturkoeffizienten α berechnet werden. If(x, y) = α(x, y) × I(x, y) (2)mit
  • If(x, y):
    der Pixelwert an den Koordinaten (x, y) in dem Bild mit dem geebnetem Dichtegradienten;
    I(x, y):
    der Pixelwert an den Koordinaten (x, y) in dem Originalbild.
  • Nachdem der Dichtegradient geebnet wurde, fährt die Operation mit Schritt S5 fort. In Schritt S5 wird ein Dichtehistogramm des Bilds mit dem geebneten Dichtegradienten erstellt. 5 zeigt das Dichtehistogramm, das unter Verwendung des Originalbilds vor der Bildverarbeitung erstellt wurde. Die horizontale Achse repräsentiert den Pixelwert, wobei die vertikale Achse die Zahl der Pixel (Häufigkeit) repräsentiert. 6 zeigt das Dichtehistogramm, das nach Ebnen des Dichtegradienten des Originalbilds erhalten wurde. In der Figur ist der maximale Pixelwert als If_max angegeben und der minimale Pixelwert ist als If_min angegeben. Durch Ebnen des Dichtegradienten kann der Pixelwert, der mit der größten Zahl von Pixeln in dem Dichtehistogramm in 6 korrespondiert, als der Medianwert der Dichte in dem Bild von anderen Straßenoberflächenbereichen als der weißen Linie angesehen werden. Wenn das Dichtehistogramm erstellt ist, fährt die Operation mit Schritt S6 fort.
  • In Schritt S6 werden ein maximaler Wert Ir_max und ein minimaler Wert IR_min als jeweilige Schätzungen eines Maximums und eines Minimums von Pixelwerten, die mit anderer Straßenoberfläche als der weißen Linie korrespondieren, berechnet. Als ein Ergebnis wird es möglich, die Dichte über die Bereiche der anderen Straßenoberfläche als der weißen Linie zu ermitteln. Ir_max und Ir_min werden unter Verwendung einer Näherungskurve (Dichtehistogramm) berechnet, die die Dichteverteilung auf einer Straßenoberfläche mit gleichförmiger Dichte, die im Voraus erhalten wird, repräsentiert. Die Näherungskurve wird mit dem Indexpunkt A, der den Pixelwert und die Zahl der Pixel, die mit der größten Häufigkeit in dem Dichtehistogramm korrespondiert, angibt, bestimmt, wie in 7 dargestellt. Die in diesem Prozess verwendete Näherungskurve kann beispielsweise eine quadratische Kurve sein. Der Scheitel der quadratischen Kurve wird mit dem Indexpunkt A in Übereinstimmung gebracht, wie in 7 dargestellt. Das Verhältnis zwischen dem Pixelwert I und der Zahl der Pixel N in der quadratischen Kurve ist nachstehend in Ausdruck (3) ausgedrückt. N = –β(I – Ip)2 + Np (3)mit
  • β:
    ein positiver Koeffizient, der das Ausmaß angibt, zu dem sich die quadratische Kurve weitet;
    Ip:
    der Pixelwert, der mit der größten Zahl von Pixeln (größte Häufigkeit) korrespondiert;
    Np:
    der Häufigkeitswert, der mit der größten Zahl von Pixeln korrespondiert.
  • Die Koordinaten des Indexpunkts A können als (Ip, Np) unter Verwendung von Ip und Np ausgedrückt werden.
  • Ir_max und Ir_min können als Schnittpunkte der oben erwähnten quadratischen Kurve und der horizontalen Achse, die den Pixelwert repräsentiert, festgestellt werden. Ir_max wird durch die Formel in Ausdruck (4) und Ir_min wird durch die Formel in Ausdruck (5) unten berechnet. Ir_max = Ip + √(NP/β) (4) Ir_min = Ip – √(NP/β) (5)
  • Im folgenden Schritt S7 wird entschieden, ob eine weiße Linie in dem in Schritt S1 eingestellten Detektionsbereich für weiße Linien vorhanden ist oder nicht. Es wird entschieden, dass keine weiße Linie vorhanden ist, wenn die Zahl der Pixel, die innerhalb der Näherungskurve, die die Dichteverteilung der Straßenoberfläche mit einer gleichförmigen Dichte repräsentiert, vorhanden sind, eine Rate erreicht, die höher ist als eine vorbestimmte Rate relativ zur gesamten Zahl der Pixel in dem in 6 dargestellten Histogramm. Wenn dagegen die Zahl der Pixel, die innerhalb der Näherungskurve vorhanden sind, eine Rate repräsentiert, die gleich der oder kleiner als die vorbestimmte Rate relativ zur gesamten Zahl der Pixel in dem Histogramm in 6 ist, wird entschieden, dass eine weiße Linie in dem Detektionsbereich für weiße Linien vorhanden ist. Die Zahl der Pixel, die an der Innenseite der Näherungskurve vorhanden sind, ist von dem Wert des Koeffizienten β in Ausdruck (3) abhängig. Während der Koeffizient β und die oben erwähnte vorbestimmte Rate in Korrespondenz mit der Größe des Bereichs, der für die Detektion der weißen Linie eingestellt wurde, variieren, wurden β auf 2,5 und die vorbestimmte Rate auf 0,85 in der Ausführungsform unter der Annahme, dass der Detektionsbereich für weiße Linien etwa 3 Mal so groß wie der Bereich der weißen Linie ist, eingestellt.
  • Wenn in Schritt S7 entschieden wird, dass eine weiße Linie vorhanden ist, fährt die Operation mit Schritt S8 fort. In Schritt S8 wird eine Dichteumwandlungsformel, die zur Hervorhebung des Bereichs der weißen Linie zu verwenden ist, berechnet. Wenn dagegen in Schritt S7 entschieden wird, dass keine weiße Linie vorhanden ist, fährt die Operation mit Schritt S9 fort. In Schritt S9 wird eine Dichteumwandlungsformel berechnet, die es gestattet, das geebnete Bild direkt auszugeben. Das Folgende ist eine Erläuterung des Verfahrens zur Berechnung der Dichteumwandlungsformel, das angewandt wird, wenn entschieden wird, dass eine weiße Linie in dem Detektionsbereich für weiße Linien vorhanden ist.
  • V1 bzw. V2 repräsentieren die Ausgabewerte (umgewandelten Dichtewerte), die durch Eingabe des maximalen Pixelwerts If_max und des minimalen Pixelwerts If_min in dem Bild, dessen Dichtegradient in Schritt S4 geebnet wurde, erhalten werden. 8 zeigt das Verhältnis zwischen einem Eingabe-Pixelwert und dem korrespondierenden Ausgabe-Pixelwert. V1 repräsentiert den größten Ausgabe-Pixelwert, während V2 den kleinsten Ausgabe-Pixelwert repräsentiert. Die Werte V1 und V2 werden gemäß den Anforderungen bei der Verarbeitung der Detektion der weißen Linie bestimmt. Wenn die Kontrasthervorhebung maximiert werden soll, sind der maximale Ausgabewert V1 und der minimale Ausgabewert V2 gleich 2n-1 bzw. 0, wobei n (Bits) den Wert eines gegebenen Pixels repräsentiert.
  • In 8 gibt ein Punkt P1 den Ausgabe-Pixelwert V1 an, der durch Eingabe von If_max erhalten wurde, und ein Punkt P2 gibt den Ausgabe-Pixelwert V2 an, der durch Eingabe von Ir_min erhalten wurde. Wie später erläutert werden wird, ist der Ausgabe-Pixelwert, der durch Eingabe von Ir_min erhalten wird, gleich dem Ausgabe-Pixelwert, der durch Eingabe von If_min erhalten wird.
  • Als nächstes wird ein willkürlicher Punkt P3, der den Ausgabewert repräsentiert, der durch Eingabe des in Schritt S5 berechneten Ir_max erhalten wird, eingestellt. V3 gibt den Ausgabe-Pixelwert an, der mit dem Punkt P3 korrespondiert. Der Ausgabe-Pixelwert V3 ist kleiner als ein Ausgabewert V4 am Schnittpunkt der geraden Linie, die den Punkt P1 und den Punkt P2 in 8 verbindet, und des Eingabe-Pixelwerts I = Ir_max. Wenn ein Pixelwert zwischen Ir_max und If_max eingegeben wird, wird der Ausgabewert unter Verwendung der geraden Linie ➀, der den Punkt P1 und den Punkt P3 verbindet, berechnet. Wie 8 zeigt, ist das Ausmaß der Neigung der geraden Linie ➀ größer als das Ausmaß der Neigung der geraden Linie, die den Punkt P1 und den Punkt P2 verbindet. Wenn außerdem ein Pixelwert zwischen If_min und Ir_max eingegeben wird, wird der Ausgabewert unter Verwendung der geraden Linie ➁ oder der Kurve ➁' berechnet, die den Punkt P2 und den Punkt P3 verbindet. Die Neigung der geraden Linie ➁ oder der Kurve ➁', die den Punkt P2 und den Punkt P3 verbindet, sollte gleich dem oder kleiner als das Ausmaß der Neigung der geraden Linie ➀, die den Punkt P1 und den Punkt P3 verbindet, eingestellt werden. Da die Wahrscheinlichkeit, dass eine weiße Linie an einem Pixel mit einem Wert zwischen Ir_min und If_min vorhanden ist, extrem niedrig ist, wird angenommen, dass der korrespondierende Ausgabewert V2 (➂ in 8) ist, der den minimalen Pixelwert repräsentiert.
  • Die Dichteumwandlung, die durch die gerade Linie ➀ repräsentiert wird, die den Punkt P1 und den Punkt P3 verbindet, wird durch die nachstehende Formel (6) ausgedrückt. V = k1·(I – Ir_max) + V3 (6)mit
  • V:
    der Ausgabe-Pixelwert;
    I:
    der Eingabe-Pixelwert;
    k1:
    die Neigung der geraden Linie = (V1 – V3)/(If_max – Ir_max).
  • Die Dichteumwandlung, die durch die gerade Linie ➁ repräsentiert wird, die den Punkt P2 und den Punkt P3 verbindet, wird durch die nachstehende Formel (7) ausgedrückt. V = k2·(I – Ir_min) + V2 (7)mit
  • k2:
    die Neigung der geraden Linie = (V3 – V2)/(Ir_max – Ir_min).
  • Wie oben beschrieben, kann der Ausgabewert V3 am Punkt P3 auf einen beliebigen Wert eingestellt werden, solange er kleiner ist als V4 in 8. Da jedoch die Dichtewerte für andere Bereiche der Straßenoberfläche als die weiße Linie lediglich geschätzte Werte sind, besteht die Möglichkeit, dass einige Pixelwerte, die die weiße Linie repräsentieren, unter den Pixelwerten, die gleich oder kleiner als Ir_max sind, vorhanden sind. Da es schwieriger wird, die weiße Linie zu erkennen, wenn die Neigung der geraden Linie ➁ in einem derartigen Fall auf ein übermäßiges Maß reduziert wird, muss der Wert von V3 unter der Gewährleistung, dass die Neigung der geraden Linie ➁ nicht zu sehr reduziert wird, eingestellt werden. Der Wert von V3 kann beispielsweise (V4)/2 sein.
  • Bei der Umwandlung der Pixelwerte zwischen Ir_max und Ir_min unter Verwendung der Kurve ➁', die durch den Punkt P2 und den Punkt P3 verläuft, sollte die Neigung der Kurve ➁' näher zu der Neigung der geraden Linie ➀ in der Umgebung des Punkts P3 eingestellt und die Neigung näher zum Punkt P2 reduziert werden, da die Wahrscheinlichkeit, dass die Kurve Pixelwerte enthält, aus denen sich die weiße Linie zusammensetzt, in der Umgebung des Punkts P3 höher wird, und niedriger wird, wenn die Kurve ➁' sich dem Punkt P2 nähert. Folglich wird die Kurve ➁', die eine Form mit dem Scheitel nach unten ausgerichtet annimmt, durch den folgenden Ausdruck (8) ausgedrückt. V = γ·(I – Ir_min)2 + V2 (8)mit
  • γ:
    der Koeffizient der Krümmung = (V3 – V2)/(Ir_max – Ir_min)2.
  • Wie oben erläutert, muss die Neigung der Kurve ➁', die durch die Formel in Ausdruck (8) an dem Punkt P3 ausgedrückt wird und die gleich der oder kleiner als die Neigung der geraden Linie ➀, die den Punkt P1 und den Punkt P2 verbindet, eingestellt werden muss, das unten in (9) ausgedrückte Verhältnis erfüllen. 2γ(Ir_max – Ir_min) ≤ k1 (9)
  • In der Ausführungsform wird V3 unter der Annahme berechnet, dass das Zeichen = die linke Seite und die rechte Seite von Ausdruck (9) verbindet. V3 kann nämlich wie in (10) unten basierend auf den Ausdrücken (8) und (9) und dem in Ausdruck (6) verwendeten Wert von k1 ausgedrückt werden. V3 = {V1·(Ir_max – Ir_min) + 2·(If_max – Ir_max)·V2}/{2·(If_max – Ir_max) + (Ir_max – Ir_min} (10)
  • Die Dichteumwandlungsformeln, die verwendet werden, wenn entschieden wird, dass eine weiße Linie vorhanden ist (wenn die Operation mit Schritt S8 fortfährt), sind nachstehend angeführt. Wenn der Eingabe-Pixelwert zwischen Ir_max und If_max ist, wird die Dichteumwandlung unter Verwendung des Ausdrucks (6) (gerade Linie ➀) implementiert. Wenn der Eingabe-Pixelwert zwischen Ir_min und Ir_max ist, wird die Dichteumwandlung unter Verwendung entweder des Ausdrucks (7) (gerade Linie ➁) oder des Ausdrucks (8) (Kurve ➁') implementiert. Wenn der Eingabe-Pixelwert zwischen If_min und Ir_min ist, ist der Ausgabe-Pixelwert gleich dem minimalen Pixelwert V2 (gerade Linie ➂). Wie 8 zeigt, kann die weiße Linie in dem Bild, das der Dichteumwandlung unterzogen wurde, hervorgehoben werden, indem die Ausgabewerte reduziert werden, die mit den Eingabe-Pixelwerten korrespondieren, die gleich oder kleiner als Ir_max sind, und folglich der Kontrast der weißen Linie, über der die Eingabe-Pixelwerte groß sind, erhöht wird.
  • Wenn andererseits entschieden wird, dass keine weiße Linie vorhanden ist, d. h. wenn die Operation mit Schritt S9 in dem Ablaufdiagramm in 4 fortfährt, wird eine Umwandlungsformel verwendet, die einen Ausgabewert liefert, der gleich dem Eingabewert ist. Anders ausgedrückt, wird, wenn I den Eingabe-Pixelwert repräsentiert und V den Ausgabe-Pixelwert repräsentiert, die nachstehend in (11) ausgedrückte Dichteumwandlungsformel verwendet. V = I (11)
  • Nachdem die Dichteumwandlungsformel in Schritt S8 oder S9 berechnet wurde, fährt die Operation mit Schritt S10 fort. In Schritt S10 wird, unter Verwendung der in Schritt S8 oder S9 berechneten Dichteumwandlungsformel, Dichteumwandlungsverarbeitung an dem Bild über dem Detektionsbereich für weiße Linien durchgeführt. Im folgenden Schritt S11 wird, bevor die Steuerung endet, die weiße Linie basierend auf dem Bild, das der Dichteumwandlungsverarbeitung unterzogen wurde, erkannt. Da die vorliegende Erfindung durch die Verarbeitung gekennzeichnet ist, die zur Hervorhebung des Kontrasts der weißen Linie in dem von der Kamera 1 erfassten Bild implementiert ist, wird eine ausführliche Erläuterung der in Schritt S11 ausführten Verarbeitung zur Detektion der weißen Linie ausgelassen.
  • In der Verarbeitung, die von der oben beschriebenen Vorrichtung zur Detektion von weißen Linien durchgeführt wird, wird, nachdem der Detektionsbereich für weiße Linien in dem von der Kamera 1 erfassten Bild eingestellt und das Bild geglättet wurde (Schritte S1 und S2), der Dichtegradient des Bilds geebnet (Schritte S3 und S4). Dann wird das Dichtehistogramm unter Verwendung des Bilds mit dem geebneten Dichtegradienten erstellt (Schritt S5) und werden der maximale Wert Ir_max und der minimale Wert Ir_min berechnet (Schritt S6), um die Ermittlung der Dichte der Straßenoberfläche in anderen Bereichen als die weiße Linie zu ermöglichen. Anschließend wird entschieden, ob eine weiße Linie vorhanden ist oder nicht (Schritt S7), und wenn entschieden wird, dass keine weiße Linie vorhanden ist, berechnet eine Umwandlungsformel einen Ausgabewert gleich dem Eingabewert (Schritt S9). Wenn andererseits entschieden wird, dass eine weiße Linie vorhanden ist, wird eine Dichteumwandlungsformel zur Hervorhebung der weißen Linie in dem Bild der Straßenoberfläche berechnet, und die Dichteumwandlung wird unter Verwendung der Formel vor der Detektion der weißen Linie durchgeführt (Schritte S8, S10 und S11).
  • Durch Nutzung der Vorrichtung zur Detektion von weißen Linien in der Ausführungsform, die die Dichteumwandlung nach der Ebnung des Dichtegradienten des Bilds ausführt, wird die Zuverlässigkeit verbessert, mit der die anderen Bereiche der Straßenoberfläche als die weiße Linie identifiziert werden, und daher kann die weiße Linie mit einem hohen Grad von Zuverlässigkeit selbst dann erkannt werden, wenn die Dichte der Straßenoberfläche inkonsistent ist. Da die Ausgabewerte über der anderen identifizierten Straßenoberfläche als die weiße Linie reduziert werden und die Ausgabewerte über den Bereichen, in denen die weiße Linie wahrscheinlich vorhanden ist, durch die Dichteumwandlung erhöht werden, wird das Signal-Rausch-Verhältnis im Bereich der weißen Linie verbessert, um eine zuverlässige Detektion selbst dann zu ermöglichen, wenn die weiße Linie ausgeblichen ist. Da gewährleistet ist, dass das Signal-Rausch-Verhältnis über dem Bereich der weißen Linie niemals niedriger ist als das Signal-Rausch-Verhältnis irgendeines anderen Bereichs der Straßenoberfläche als die weiße Linie, der tatsächlich heller sein könnte als die weiße Linie, kann die weiße Linie in diesem Fall zuverlässig erkannt werden. Als ein Ergebnis kann die Robustheit der Verarbeitung der Detektion der weißen Linie erhöht werden, da die Detektionsverarbeitung nicht leicht durch die Dichte über den anderen Bereichen der Straßenoberfläche als die weiße Linie beeinflusst wird.
  • Da außerdem der Dichtekorrekurkoeffizient basierend auf den individuellen Pixelwerten und dem Durchschnitt aller Pixelwerte des Bilds, der durch Glätten des Bilds, das der Verarbeitung zur Detektion von weißen Linien unterzogen wird, berechnet wird, und der Dichtegradient unter Verwendung des derart berechneten Dichtekorrekturkoeffizienten korrigiert wird, wird der Dichtegradient über einen großen Bereich in dem Bildverarbeitungsbereich korrigiert, um die Genauigkeit zu verbessern, mit der andere Bereiche der Straßenoberfläche als die weiße Linie identifiziert werden. Folglich wird auch die Genauigkeit verbessert, mit der die weiße Linie erkannt wird. Da weiterhin die Dichteumwandlungsverarbeitung nur durchgeführt wird, wenn entschieden wird, dass eine weiße Linie vorhanden ist, kommt keine fehlerhafte Detektion einer nicht vorhandenen weißen Linie vor, die auf einen hervorgehobenen Kontrast der Straßenoberfläche zurückzuführen ist, der daraus resultieren kann, wenn die Dichteumwandlung bei nicht vorhandener weißer Linie durchgeführt wird.
  • Die oben beschriebene Ausführungsform ist ein Beispiel, und verschiedene Abwandlungen können vorgenommen werden, ohne den Rahmen der Erfindung zu verlassen. Die vorliegende Erfindung ist dadurch gekennzeichnet, dass der maximale Wert der Pixelwerte, aus denen sich das Bild des anderen Bereichs der Straßenoberfläche als die weiße Linie zusammensetzt, basierend auf den Pixelwerten, aus denen sich das Bild des Verarbeitungsbereichs zur Detektion von weißen Linien zusammensetzt, der innerhalb eines erfassten Straßenbilds eingestellt wurde, ermittelt wird, und dadurch, dass eine weiße Linie basierend auf dem Bild, das der Bildverarbeitung unterzogen wurde, durch die der Kontrast des Bilds, das aus Pixeln mit Werten gleich dem oder kleiner als der ermittelte maximale Wert zusammengesetzt ist, verringert wird, erkannt wird. Dementsprechend ist die vorliegende Erfindung nicht durch die Einzelheiten der Verfahren, die in Bezug auf die Ausführungsform erläutert wurden, beschränkt, und kann in jedem Bildverarbeitungsverfahren angewandt werden, durch die die Verarbeitung implementiert wird, die die vorliegende Erfindung kennzeichnet, wie oben beschrieben.

Claims (7)

  1. Vorrichtung zur Detektion von weißen Linien, umfassend Extraktionsmittel (2) zum Extrahieren eines Bilds aus einem Verarbeitungsbereich zur Detektion von weißen Linien innerhalb eines Straßenbilds, das von Bilderfassungsmitteln (1) erfasst wurde, gekennzeichnet durch: Maximalwert-Ermittlungsmittel (2) zum Ermitteln eines Pixelwerts basierend auf den Pixelwerten korrespondierend mit dem extrahierten Bild in einer derartigen Weise, dass der ermittelte Wert einen ermittelten Maximalwert Ir_max für Pixelwerte korrespondierend mit einer Straßenoberfläche, die keine weiße Linie ist, repräsentiert; Kontrastreduktionsmittel (2) zum Reduzieren des Kontrasts eines Bilds korrespondierend mit Pixelwerten gleich dem ermittelten oder kleiner als der ermittelte Maximalwert Ir_max innerhalb des extrahierten Bilds; und Detektionsmittel (2) zur Detektion der weißen Linie basierend auf dem extrahierten Bild, in dem der Kontrast durch das Kontrastreduktionsmittel (2) verringert wurde.
  2. Vorrichtung zur Detektion von weißen Linien nach Anspruch 1, weiter umfassend Dichtegradienten-Korrekturmittel (2) zum Korrigieren des Dichtegradienten des Bilds, das von dem Extraktionsmittel (2) extrahiert wurde, bevor das Maximalwert-Ermittlungsmittel (2) den Maximalwert Ir-max ermittelt.
  3. Vorrichtung zur Detektion von weißen Linien nach Anspruch 1, weiter umfassend: Mittel zum Ermitteln von weißen Linien (2) zum Ermitteln, ob eine weiße Linie in dem Verarbeitungsbereich zur Detektion von weißen Linien, der von dem Extraktionsmittel (2) extrahiert wurde, vorhanden ist oder nicht, wobei: das Kontrastreduktionsmittel (2) den Kontrast eines Bildbereichs, der Pixelwerte hat, die gleich dem oder kleiner als der Maximalwert Ir_max sind, reduziert, wenn das Mittel zum Ermitteln von weißen Linien (2) ermittelt, dass eine weiße Linie in dem Verarbeitungsbereich zur Detektion von weißen Linien vorhanden ist.
  4. Vorrichtung zur Detektion von weißen Linien nach Anspruch 2, weiter umfassend: Bildglättungsmittel (2) zum Glätten des Bilds des Verarbeitungsbereichs zur Detektion von weißen Linien, wobei: das Dichtegradienten-Korrekturmittel (2) den Dichtegradienten durch Berechnung eines Dichtekorrekturkoeffizienten α basierend auf individuellen Pixelwerten und dem Durchschnitt aller Pixelwerte, die das Bild bilden, das von dem Bildglättungsmittel (2) geglättet wurde, und durch Verwendung des derart berechneten Dichtekorrekturkoeffizienten α korrigiert.
  5. Vorrichtung zur Detektion von weißen Linien nach Anspruch 2, wobei: das Maximalwert-Ermittlungsmittel (2) den Maximalwert Ir_max basierend auf einem Dichtehistogramm, das erhalten wurde, indem das Bild mit dem Dichtegradienten davon, das durch das Gradientenkorrekturmittel (2) korrigiert wurde, und einem Dichtehistogramm eines Bilds einer Straßenoberfläche mit einer gleichförmigen Dichte verwendet wurde, ermittelt.
  6. Vorrichtung zur Detektion von weißen Linien nach Anspruch 2, wobei: das Maximalwert-Ermittlungsmittel (2) außerdem einen Pixelwert ermittelt, der einen ermittelten Minimalwert Ir_min für Pixelwerte korrespondierend mit einer Straßenoberfläche, die keine weiße Linie ist, repräsentiert; und P1 einen Punkt anzeigt, an dem ein maximaler Ausgangs-Pixelwert V1 in Korrespondenz mit einem Maximalwert If_max unter den Pixelwerten, die das Bild bilden, dessen korrigierter Dichtegradient als ein Eingangs-Pixelwert eingegeben wurde, erhalten wird, P2 einen Punkt repräsentiert, an dem ein minimaler Ausgangs-Pixelwert V2 in Korrespondenz mit dem ermittelten Minimalwert Ir_min, der als ein Eingangs-Pixelwert eingegeben wurde, erhalten wird, und P3 einen Punkt repräsentiert, an dem ein Ausgangs-Pixelwert V3 in Korrespondenz mit dem ermittelten Maximalwert Ir_max, der als ein Eingangs-Pixelwert eingegeben wurde, erhalten wird in einem Dichtekonversionsgraphen mit einer horizontalen Achse und einer vertikalen Achse davon, die jeweils den Eingangs-Pixelwert und den Ausgangs-Pixelwert repräsentieren, das Kontrastreduktionsmittel (2) Dichtekonversion für Pixelwerte zwischen dem ermittelten Maximalwert Ir_max und dem Maximalwert If_max unter den Pixelwerten, die das Bild bilden, dessen Dichtegradienten korrigiert wurde, unter Verwendung einer Formel durchführt, die eine gerade Linie repräsentiert, die den Punkt P1 und den Punkt P3 verbindet und einen größeren Neigungswinkel hat als eine gerade Linie, die den Punkt P1 und den Punkt P2 verbindet, und Dichtekonversion für Pixelwerte zwischen dem ermittelten Maximalwert Ir_max und dem ermittelten Minimalwert Ir_min unter Verwendung einer Formel ausführt, die eine gerade Linie repräsentiert, die den Punkt P2 und den Punkt P3 verbindet, oder einer Konversionsformel, die eine quadratische Kurve repräsentiert, die den Punkt P2 und den Punkt P3 mit einem Abwärtsscheitel verbindet.
  7. Verfahren zur Detektion von weißen Linien, das umfasst, ein Bild aus einem Verarbeitungsbereich zur Detektion von weißen Linien innerhalb eines Straßenbilds, das von einem Bilderfassungsmittel erfasst wurde, zu extrahieren, gekennzeichnet durch: Ermitteln eines Pixelwerts basierend auf Pixelwerten korrespondierend mit dem extrahierten Bild in einer derartigen Weise, dass der ermittelte Wert einen ermittelten Maximalwert Ir_max für Pixelwerte, die mit einer Straßenoberfläche korrespondieren, die keine weiße Linie ist, repräsentiert; Reduzieren des Kontrasts eines Bilds korrespondierend mit Pixelwerten gleich dem ermittelten oder kleiner als der ermittelte Maximalwert Ir_max innerhalb des extrahierten Bilds; und Detektion der weißen Linie basierend auf dem extrahierten Bild, in dem der Kontrast reduziert wurde.
DE60217589T 2001-08-06 2002-07-30 Vorrichtung und Verfahren zur Detektion von weissen Linien Expired - Fee Related DE60217589T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001237667A JP2003051017A (ja) 2001-08-06 2001-08-06 白線検出装置
JP2001237667 2001-08-06

Publications (2)

Publication Number Publication Date
DE60217589D1 DE60217589D1 (de) 2007-03-08
DE60217589T2 true DE60217589T2 (de) 2007-10-25

Family

ID=19068707

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60217589T Expired - Fee Related DE60217589T2 (de) 2001-08-06 2002-07-30 Vorrichtung und Verfahren zur Detektion von weissen Linien

Country Status (4)

Country Link
US (1) US6925206B2 (de)
EP (1) EP1283498B1 (de)
JP (1) JP2003051017A (de)
DE (1) DE60217589T2 (de)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3625460B2 (ja) * 2002-09-27 2005-03-02 三菱電機株式会社 車載用走行車線認識装置
US7920725B2 (en) * 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
JP4259357B2 (ja) * 2004-03-12 2009-04-30 三菱ふそうトラック・バス株式会社 車両走行状態判定装置
JP4296973B2 (ja) * 2004-03-19 2009-07-15 三菱ふそうトラック・バス株式会社 車両走行状態判定装置
JP4258413B2 (ja) * 2004-03-26 2009-04-30 三菱ふそうトラック・バス株式会社 車両走行状態判定装置
JP4225229B2 (ja) * 2004-03-30 2009-02-18 三菱ふそうトラック・バス株式会社 覚醒度判定装置
JP4637618B2 (ja) * 2005-03-18 2011-02-23 株式会社ホンダエレシス 車線認識装置
DE102005044979A1 (de) * 2005-09-20 2007-03-22 Adc Automotive Distance Control Systems Gmbh Verfahren zur Erkennung von Fahrspurmarkierungen
DE102005046672A1 (de) * 2005-09-29 2007-04-05 Robert Bosch Gmbh Nachtsichteinrichtung
JP4575275B2 (ja) * 2005-11-02 2010-11-04 三菱ふそうトラック・バス株式会社 車両用表示装置
US8275170B2 (en) * 2006-12-08 2012-09-25 Electronics And Telecommunications Research Institute Apparatus and method for detecting horizon in sea image
KR100886611B1 (ko) * 2007-08-14 2009-03-05 한국전자통신연구원 영상에서 점진적 화소 확장에 의한 선분 추출 방법 및 장치
JP5034087B2 (ja) * 2008-03-31 2012-09-26 本田技研工業株式会社 車両走行支援装置、車両、車両走行支援プログラム
CN102109753A (zh) * 2009-12-25 2011-06-29 鸿富锦精密工业(深圳)有限公司 自动检测镜头方法
JP5220787B2 (ja) 2010-03-08 2013-06-26 株式会社日本自動車部品総合研究所 車載白線認識装置
CN101916373B (zh) * 2010-08-11 2012-07-04 西安电子科技大学 基于小波检测和脊线跟踪的道路半自动提取方法
CN102541063B (zh) * 2012-03-26 2014-04-09 重庆邮电大学 缩微智能车辆寻线控制方法和装置
JP5878090B2 (ja) * 2012-07-12 2016-03-08 本田技研工業株式会社 走行区分線検出装置
JP6328369B2 (ja) * 2012-11-27 2018-05-23 クラリオン株式会社 車載用制御装置
DE102014210411A1 (de) * 2013-09-06 2015-03-12 Robert Bosch Gmbh Verfahren und Steuer- und Erfassungseinrichtung zum Plausibilisieren einer Falschfahrt eines Kraftfahrzeugs
CN104898657A (zh) * 2014-03-06 2015-09-09 西北农林科技大学 一种基于dsp的机器人视觉路径识别方法
CN103996031A (zh) * 2014-05-23 2014-08-20 奇瑞汽车股份有限公司 一种自适应阈值分割的车道线检测系统及其方法
CN110135302B (zh) * 2019-04-30 2021-08-31 百度在线网络技术(北京)有限公司 训练车道线识别模型的方法、装置、设备和存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61168078A (ja) * 1985-01-15 1986-07-29 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション イメ−ジ処理方法
US5339368A (en) * 1991-11-21 1994-08-16 Unisys Corporation Document image compression system and method
JP3083918B2 (ja) * 1992-06-26 2000-09-04 本田技研工業株式会社 画像処理装置
DE69736764T2 (de) * 1996-08-28 2007-01-25 Matsushita Electric Industrial Co., Ltd., Kadoma Lokales Positionierungsgerät und Verfahren dafür
JP3608033B2 (ja) 1999-05-24 2005-01-05 株式会社豊田自動織機 車両後退支援装置
JP2001101415A (ja) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd 画像認識装置および画像処理装置

Also Published As

Publication number Publication date
EP1283498B1 (de) 2007-01-17
US20030026456A1 (en) 2003-02-06
EP1283498A3 (de) 2003-07-09
DE60217589D1 (de) 2007-03-08
EP1283498A2 (de) 2003-02-12
US6925206B2 (en) 2005-08-02
JP2003051017A (ja) 2003-02-21

Similar Documents

Publication Publication Date Title
DE60217589T2 (de) Vorrichtung und Verfahren zur Detektion von weissen Linien
DE102005000646B4 (de) Vorrichtung und Verfahren zum Erfassen von sich bewegenden Objekten
DE102009005861B4 (de) Fahrzeugumgebungs-Erkennungssystem
EP1173749B1 (de) Bildbearbeitung zur vorbereitung einer texturanalyse
DE69715076T2 (de) Vorrichtung zur Erzeugung eines Binärbildes
DE60207655T2 (de) Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
DE69828909T2 (de) Neue perzeptive lokale gradientenbasierte gratbestimmung
DE102010020867B4 (de) Strassenform-Erkennungsvorrichtung
DE69922752T2 (de) Verfahren zum Detektieren eines menschlichen Gesichtes
DE60308782T2 (de) Vorrichtung und Methode zur Hinderniserkennung
DE69734855T2 (de) Vorrichtung und Verfahren zur Extraktion eines Objektes in einem Bild
DE69624614T2 (de) Verfahren zur Stereoübereinstimmungs- und Ungleichheitsmessung
DE10301468B4 (de) Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
DE102004012811B4 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE102008063121B4 (de) Belichtungssteuervorrichtung und Belichtungssteuerprogramm für elektronische Fahrzeugkamera
EP1062640B1 (de) Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes
DE112013004103B4 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE112018000107T5 (de) Fahrzeugkamerakalibrierungsvorrichtung und -Verfahren
DE102005063199A1 (de) Vorrichtung und Verfahren zur Erkennung von Straßenmarkierungen
DE112010003914T5 (de) Verfahren und Vorrichtung zur Erkennung von Müdigkeit am Steuer sowie ein Fahrzeug
DE10296593T5 (de) Fahrunterstützungsvorrichtung
DE102005056645A1 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE112008002646T5 (de) Fahrzeuginterne Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Programm
DE102014114061A9 (de) Verfahren und Vorrichtung zum Verstärken der Form der Kanten zur visuellen Verbesserung des Rendering auf der Grundlage von Tiefenbildern eines dreidimensionalen Videostroms

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee