DE102006036402A1 - System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs - Google Patents

System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs Download PDF

Info

Publication number
DE102006036402A1
DE102006036402A1 DE102006036402A DE102006036402A DE102006036402A1 DE 102006036402 A1 DE102006036402 A1 DE 102006036402A1 DE 102006036402 A DE102006036402 A DE 102006036402A DE 102006036402 A DE102006036402 A DE 102006036402A DE 102006036402 A1 DE102006036402 A1 DE 102006036402A1
Authority
DE
Germany
Prior art keywords
vehicle
processor
image
edge
pixel values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102006036402A
Other languages
English (en)
Inventor
Shunji Yokohama Miyahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Publication of DE102006036402A1 publication Critical patent/DE102006036402A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision

Abstract

Ein System zur Bestimmung der Entfernung und der Lateralposition eines Fahrzeugs wird bereitgestellt. Das System umfasst eine Kamera und einen Prozessor. Die Kamera ist für das Betrachten eines Bereichs von Interesse konfiguriert, in dem sich ein Fahrzeug befindet, und erzeugt ein elektronisches Abbild des Bereichs. Der Prozessor steht mit der Kamera zum Empfangen des elektronischen Abbilds in elektrischer Kommunikation. Der Prozessor analysiert das Abbild durch Identifizierung von Objekten und Ermittlung einer Beziehung, die mit den erwarteten Pixelwerten an verschiedenen Stellen auf der Straße korrespondiert. Der Prozessor berechnet einen Wert als Indikativ der Gültigkeit, dass ein Objekt ein Fahrzeug ist, durch Vergleich der Pixelwerte des Objekts mit den auf der Beziehung basierenden erwarteten Pixelwerten. Es wird eine auf dem Vergleich basierende Wertigkeit bestimmt, die auf die Wahrscheinlichkeit hinweist, dass bestimmte Merkmale des elektronischen Abbilds tatsächlich dem Fahrzeug entsprechen und dass sich das Fahrzeug in der Zielentfernung für diese Fenster befindet.

Description

  • Hintergrund
  • Fachgebiet der Erfindung
  • Die Erfindung bezieht sich allgemein auf ein System und Verfahren zur Messung der Entfernung und der Lateralposition eines vorausfahrenden Fahrzeugs auf einer Straße.
  • Radar- und Stereokamerasysteme für ein adaptives automatisches Geschwindigkeitsregelsystem sind auf dem Markt bereits eingeführt. Seit kurzem wird Radar für Pre-Crash-Sicherheitssysteme und zur Kollisionsvermeidung eingesetzt. Typischerweise erfolgt die Messung der Entfernung und der Lateralposition mithilfe von Radar- und/oder Stereokamerasystemen. Radarsysteme können eine sehr genaue Entfernung bereitstellen. Millimeterwellenradarsysteme, wie z. B. 77-GHz-Systeme, sind jedoch normalerweise ziemlich kostenintensiv. Das Laserradar ist zwar preisgünstig, erfordert jedoch mechanisches Abtasten. Außerdem ist das Radar zur Identifizierung des Objekts und zur Bereitstellung einer genauen Lateralposition im Allgemeinen nicht gut geeignet.
  • Stereokamerasysteme können die Entfernung bestimmen und ein Objekt identifizieren. Diese Systeme sind jedoch aufgrund der zwischen den beiden Kameras erforderlichen genauen Ausrichtung normalerweise schwierig zu warten, und sie sind kostenintensiv, da zwei Bildbearbeitungssysteme erforderlich sind, d. h. doppelt so viel Bildbearbeitungsaufwand wie bei einem Ein-Kamera-System.
  • Außerdem können sowohl in Kamera- als auch in Radarsystemen unklare Situationen infolge mehrerer Objekte in einem Abbild auftreten. Zum Beispiel können mehrere Fahrzeuge in benachbarten Fahrspuren und Straßenrandobjekte leicht als ein vorausfahrendes Fahrzeug in derselben Fahrspur wie das mit dem System ausgestattete Fahrzeug interpretiert werden. Zusätzlich können Helligkeitsschwankungen im Hintergrund des Abbilds, wie die Schatten der Fahrzeuge und Straßenrandobjekte, die Schwierigkeit der Identifizierung des Fahrzeugs erhöhen.
  • Mit Blick auf die voranstehende Darlegung ist zu erkennen, dass herkömmliche adaptive automatische Geschwindigkeitsregelsysteme Schwierigkeiten zur Identifizierung von Fahrzeugen aufgrund einer komplexen Hintergrundumgebung haben können. Außerdem ist offensichtlich, dass ein Bedarf für ein verbessertes System und Verfahren zur Messung der Entfernung und der Lateralposition des vorausfahrenden Fahrzeugs besteht.
  • Zusammenfassung
  • Zur Befriedigung des voranstehend genannten Bedarfs sowie zur Überwindung der aufgezählten Nachteile und anderen Beschränkungen des Standes der Technik stellt die Erfindung ein System zur Bestimmung der Entfernung und der Lateralposition eines vorausfahrenden Fahrzeugs bereit. Die primären Komponenten des Systems umfassen eine Kamera und einen Prozessor. Die Kamera ist für das Betrachten eines Bereichs von Interesse, in dem sich ein vorausfahrendes Fahrzeug befindet, und für das Erzeugen eines elektronischen Abbilds des Bereichs konfiguriert. Der Prozessor steht mit der Kamera zum Empfangen des elektronischen Abbilds in elektrischer Kommunikation.
  • Das elektronische Abbild enthält zahlreiche Merkmale, die es erschweren, ein vorausfahrendes Fahrzeug zu identifizieren. Deshalb ist der Prozessor so konfiguriert, dass er einen der Straße entsprechenden Anteil des elektronischen Abbilds analysiert und eine Beziehung zur Beschreibung der Änderung im Pixelwert der Straße an verschiedenen Stellen innerhalb des Abbilds berechnet. Außerdem ist der Prozessor dafür konfiguriert, die Pixelwerte an einer Stelle im Abbild, an der ein Fahrzeug vorhanden sein kann, mit dem erwarteten Pixelwert der Straße zu vergleichen, wobei der erwartete Pixelwert der Straße basierend auf der Beziehung berechnet wird.
  • Zwecks Identifizierung von Objekten im elektronischen Abbild untersucht der Prozessor eine Reihe von Fenstern innerhalb des Abbilds, wobei jedes Fenster einer festgelegten physikalischen Größe bei einer anderen Zielentfernung entspricht. Die Fenster der Reihe von Fenstern werden als Entfernungsfenster bezeichnet. Folglich ist die Größe jedes der Fenster im Abbild umgekehrt proportional zur Entfernung des Fensters. Der Prozessor bewertet die Merkmale des elektronischen Abbilds innerhalb jedes Fensters, um das Fahrzeug zu identifizieren. Zum Beispiel wird die Größe des Fahrzeugs mit der Größe jedes Fensters zwecks Erzeugung eines Größenverhältnisses verglichen. Die vom Prozessor bewerteten Merkmale des elektronischen Abbilds umfassen die Breite und die Höhe der Kantenabschnitte im Abbild sowie die Höhe, die Breite und den Standort der aus mehreren Kantenabschnitten zusammengesetzten Objekte. Zur Auswertung der Objekte wird die Breite des Objekts bestimmt und ein Fahrzeugmodell für das Objekt aus verschiedenen einem Fahrzeugtyp, wie z. B. einem Motorrad, einer Limousine, einem Bus usw. entsprechenden Modellen ausgewählt. Das Modell verleiht dem Objekt eine Wertigkeit auf der Basis der Merkmale. Die Bewertung der Objektmerkmale wird entsprechend dem ausgewählten Fahrzeugmodell und der Pixelwertabweichung vom auf der berechneten Beziehung basierenden erwarteten Straßenpixelwert durchgeführt. Die Wertigkeit kennzeichnet die Wahrscheinlichkeit, dass das Fahrzeug ein Zielfahrzeug auf der Straße ist. Das. Objekt mit der höchsten Wertigkeit wird als ein Ziel erklärt, und die Entfernung des diesem Objekt entsprechenden Fensters ist die veranschlagte Entfernung des vorausfahrenden Fahrzeugs. Die voranstehend beschriebene Auswertung wird als Entfernungsfensterauswertung bezeichnet.
  • Zur Ergänzung der Entfernungsfensterauswertung wird außerdem eine weitere Auswertung durchgeführt. Der Prozessor ist so konfiguriert, dass er einen der Straßenoberfläche entsprechenden Anteil des elektronischen Abbilds für jedes Entfernungsfenster analysiert und eine Beziehung zur Beschreibung der Änderung im Pixelwert entlang der Straßenoberfläche an verschiedenen Stellen innerhalb des Abbilds berechnet. Außerdem ist der Prozessor dafür konfiguriert, die Pixelwerte an einer Stelle im Abbild, an der ein Fahrzeug vorhanden sein kann, mit dem erwarteten Pixelwert der Straßenoberfläche zu vergleichen, wobei der erwartete Pixelwert der Straßenoberfläche basierend auf der Beziehung berechnet wird. Die voranstehend beschriebene Auswertung wird als Straßenoberflächenauswertung bezeichnet.
  • Durch die Kombination von Straßenoberflächenauswertung und Entfernungsfensterauswertung wird ein System mit verbessertem Objekterkennungsvermögen bereitgestellt.
  • Weitere Ziele, Merkmale und Vorteile der Erfindung sind nach Prüfung der nachfolgenden Beschreibung unter Berücksichtigung der Zeichnungen und beigefügten und ein Teil dieser Spezifikation bildenden Patentansprüche für Fachleute leicht erkennbar.
  • Kurzbeschreibung der Zeichnungen
  • 1 ist eine Seitenansicht eines die Prinzipien der Erfindung verkörpernden Systems zur Messung der Entfernung und der Lateralposition eines vorausfahrenden Fahrzeugs.
  • 2 ist eine Ansicht eines elektronischen Abbilds aus der Perspektive der Kamera in 1.
  • 3 ist eine Seitenansicht des Systems, die die Berechnung der oberen und der unteren Kante des Fensters entsprechend der Erfindung darstellt.
  • 4 ist eine Draufsicht des Systems, die die Berechnung der linken und der rechten Kante des Fensters entsprechend der Erfindung darstellt.
  • 5A ist eine Ansicht des elektronischen Abbilds, das den Auszug lediglich der Abbildinformationen im ersten Fenster darstellt.
  • 5B ist eine Ansicht des elektronischen Abbilds, das den Auszug lediglich der Abbildinformationen im zweiten Fenster darstellt.
  • 5C ist eine Ansicht des elektronischen Abbilds, das den Auszug lediglich der Abbildinformationen im dritten Fenster darstellt.
  • 6 ist ein Flussdiagramm, das den Algorithmus darstellt, der vom System zur Bestimmung der Entfernung des vorausfahrenden Fahrzeugs ausgeführt wird.
  • 7 ist eine Ansicht des von der Kamera vor der Verarbeitung erzeugten elektronischen Abbilds.
  • 8 ist eine Ansicht des elektronischen Abbilds nach der Anwendung eines vertikalkantenverstärkenden Algorithmus auf das elektronische Abbild.
  • 9 ist eine Ansicht des elektronischen Abbilds, das Abschnitte als Auszug aus dem kantenverstärkten Abbild enthält.
  • 10 ist eine Ansicht des elektronischen Abbilds, das aus den in 8 dargestellten Abschnitten erstellte Objekte enthält.
  • 11 ist eine Ansicht des ein vorausfahrendes Fahrzeug enthaltenden elektronischen Abbilds, das die zur Berechnung der Straßenhelligkeitsgleichung verwendeten Bereiche darstellt.
  • 12 ist ein Schaubild, das die Berechnung der Straßenhelligkeitsgleichung und den Vergleich der Objektpixelwerte darstellt.
  • 13 ist eine Ansicht des elektronischen Abbilds, das ein durch Fahrzeuge in benachbarten Fahrspuren gebildetes Phantomobjekt darstellt.
  • 14 ist eine Ansicht des elektronischen Abbilds, das drei Bereiche darstellt, die zum Vergleichen der Objektpixelwerte mit den aus der Gleichung erwarteten Pixelwerten der Straßenhelligkeit verwendet werden.
  • 15 ist ein Schaubild, das die Berechnung des Straßenhelligkeitsgradienten im Vergleich von zwei Bereichen zu Ergebnissen der Straßenhelligkeitsgleichung darstellt.
  • Ausführliche Beschreibung
  • In 1 ist ein die Prinzipien der Erfindung verkörperndes System dargestellt und mit dem Bezugszeichen 10 gekennzeichnet. Als seine primären Komponenten umfasst das System 10 eine einzige Kamera 12 und einen Prozessor 14. Die Kamera 12 ist zum Erfassen eines optischen Abbilds eines ein Fahrzeug 18 enthaltenden Bereichs von Interesse 16 im Rückspiegel angeordnet. Das durch die Kamera 12 aufgenommene optische Abbild wird in ein elektronisches Abbild umgewandelt, das dem Prozessor 14 bereitgestellt wird.
  • Das elektronische Abbild enthält zahlreiche Merkmale, die es erschweren, ein vorausfahrendes Fahrzeug zu identifizieren. Deshalb ist der Prozessor 14 so konfiguriert, dass er einen der Straße entsprechenden Anteil des elektronischen Abbilds analysiert und eine Beziehung zur Beschreibung der Änderung im Pixelwert der Straße an verschiedenen Stellen innerhalb des Abbilds berechnet. Die Gleichung kann zum Beispiel unter Verwendung eines Regressionsalgorithmus, wie z. B. einer quadratischen Regression, berechnet werden. Außerdem ist der Prozessor 14 dafür konfiguriert, die Pixelwerte an einer Stelle im Abbild, an der ein Fahrzeug vorhanden sein kann, mit dem erwarteten Pixelwert der Straße zu vergleichen, wobei der erwartete Pixelwert der Straße basierend auf der Beziehung berechnet wird. Der Wert wird zur Berechnung einer die Wahrscheinlichkeit für das Vorhandensein eines Fahrzeugs an der identifizierten Stelle kennzeichnenden Gesamtwertigkeit verwendet.
  • Zur Herausfilterung unerwünschter Störungen im elektronischen Abbild und zur Unterstützung bei der Bestimmung der Entfernung des Fahrzeugs 18 berechnet der Prozessor 14 die Position von mehreren Fenstern 20, 22, 24 innerhalb des Bereichs von Interesse 16. Die Fenster 20, 22, 24 sind in verschiedenen Zielentfernungen zur Kamera 12 angeordnet. Die Größe der Fenster 20, 22, 24 ist eine festgelegte physikalische Größe (etwa 4 m × 2 m wie dargestellt) und kann der Größe einer normalen Fahrspurbreite und einer typischen Höhe eines Fahrzeugs entsprechen. Zur Bereitstellung einer höheren Auflösung werden die Fenster 20, 22, 24 in kleineren Abständen zueinander angeordnet, und es wird die Anzahl der Fenster erhöht. Das dargestellte System 10 ist zwar für die Verfolgung eines dem System 10 vorausfahrenden Fahrzeugs 18 konfiguriert, es ist jedoch ebenfalls einbezogen, dass die Kamera 12 zur Seite oder nach hinten gerichtet werden kann, um ein Fahrzeug 18 zu verfolgen, das sich aus anderen Richtungen nähern könnte.
  • In 2 ist ein elektronisches Abbild des Bereichs von Interesse 16 dargestellt, wie es durch die Kamera 12 gesehen wird. Die Fenster 20, 22, 24 werden in ihrer entsprechenden Größe und Anordnung entsprechend der Perspektive der Kamera 12 projiziert. Das Fahrzeug 18 ist zwischen den Fenstern 22 und 24 angeordnet, sodass dementsprechend die Größe des Fahrzeugs 18 viel genauer der Höhe und der Breite der Fenster 22 und 24 als der Höhe und der Breite des Fensters 20 entspricht. Wie in 1 zu erkennen, sind die Höhe und die Breite der Fenster zwar bei jeder Zielentfernung physikalisch konstant, jedoch scheinen die Fenster aus der Perspektive der Kamera 12 zu variieren. Analog scheinen sich die Höhe und die Breite des vorausfahrenden Fahrzeugs 18 bei jeder Zielentfernung zu verändern. Die Perspektive der Kamera 12 beeinflusst basierend auf dem Höhenwinkel und dem Azimutwinkel der Kamera 12 die scheinbare Größe und Anordnung des vorausfahrenden Fahrzeugs 18 innerhalb des elektronischen Abbilds. Der Prozessor 14 kann die Anordnung und die Größe jedes der Fenster 20, 22, 24 zur Bewertung der Merkmale des elektronischen Abbilds verwenden und eine Wertigkeit bestimmen, die die Wahrscheinlichkeit anzeigt, dass sich das Fahrzeug 18 in einer mit dem entsprechenden Fenster verbundenen Zielentfernung befindet.
  • 3 ist eine Seitenansicht des Systems 10, die die Verwendung des Höhenwinkels bei der Berechnung der Höhe und der Position des Fensters 20 innerhalb des elektronischen Abbilds darstellt. Der Höhenwinkel ist der Winkel zwischen der optischen Achse der Kamera 12 und der Oberfläche der Straße. Die untere Kante des Fensters 20 wird auf der Basis der folgenden Gleichung (1) berechnet: Θ1 = arctan(–r1/hc) (1)wobei hc die Höhe der Kamera 12 über der Straßenoberfläche, r1 die horizontale Entfernung des Fensters 20 von der Kamera 12 und der Modul arctan [0, π] sind.
  • Analog wird die obere Kante des ersten Fensters (20) auf der Basis der folgenden Gleichung (2) berechnet: Θ1h = arctan[r1/(hw – hc)] (2)wobei hw die Höhe des Fensters, hc die Höhe der Kamera 12 über der Straßenoberfläche und r1 die Entfernung des Fensters 20 von der Kamera 12 sind. Die Differenz ΔΘ1 = Θ1 – Θ1h entspricht der Höhe des Fensters im elektronischen Abbild.
  • Bezug nehmend auf 4 entspricht die horizontale Position des Fensters im elektronischen Abbild dem Azimutwinkel. Der Azimutwinkel ist der Winkel über die Breite des vorausfahrenden Fahrzeugs aus der Perspektive der Kamera 12. Die rechte Kante des Auswahlfensters 20 wird nach Gleichung (3) berechnet: Φ1 = arctan [–Breitew/(2·r1)] + (π/2) (3)Analog wird die linke Kante des Auswahlfensters 20 nach folgender Gleichung (4) berechnet: Φ1h = arctan [Breitew/(2·r1)] + (π/2) (4)wobei Breitew der Abstand vom Zentrum des Fensters 20 zu den vertikalen Kanten, r1 die horizontale Entfernung des Fensters 20 von der Kamera 12 und der Modul arctan [–π/2, π/2] sind.
  • Die Fensterpositionen für die zusätzlichen Fenster 22, 24 werden mithilfe der Gleichungen (1) bis (4) berechnet, wobei r1 durch die entsprechenden Zielentfernungen ersetzt wird.
  • In 5A ist das auf das Fenster 20 bezogene elektronische Abbild dargestellt. Es ist zu beachten, dass die Breite des Objekts 26 etwa 30 % der Breite des Fensters 20 beträgt. Wenn für die Fensterbreite eine Breite von 4 m angesetzt ist, also etwa das Zweifache der erwarteten Breite des Fahrzeugs 18, würde die ermittelte Breite des Objekts 26 bei einer Entfernung von r1 gleich 4 m × 0,3 = 1,2 m betragen. Deshalb ist die Wahrscheinlichkeit gering, dass es sich bei dem Objekt 26 um das Fahrzeug 18 in der Entfernung r1 handelt. Außerdem bewertet der Prozessor 14 den vertikalen Versatz und Objekthöhenkriterien. Zum Beispiel wird der Abstand des Objekts 26 von der Unterkante des verarbeitenden Fensters 20 zur Bestimmung der Wahrscheinlichkeit verwendet, dass sich das Objekt 26 in der Zielentfernung befindet. Unter der Annahme, dass die Straße eben ist, würde, wenn sich das Objekt 26 in der Entfernung r1 befände, die unterste Position des Objekts 26 an der Unterkante des Fensters 20 erscheinen, was dem Kontakt des Objekts mit der Straße in der Zielentfernung entspräche. Das Objekt 26 in 5A scheint jedoch über der Straße zu schweben, wodurch die Wahrscheinlichkeit, dass sich das Objekt 26 in der Zielentfernung befindet, sinkt. Außerdem sollte das extrahierte Objekt 26 eine Höhe von 0,5 m oder 1,2 m überdecken. Der Prozessor 14 erkennt ein Objekt bis zur Höhe von einschließlich 0,5 m, falls das Objekt eine Limousine ist, oder bis zur Höhe von einschließlich 1,2 m, falls es sich bei dem Objekt um einen Bus oder einen LKW handelt. Je genauer die Höhe des Objekts 26 mit der erwarteten Höhe übereinstimmt, desto wahrscheinlicher ist das Objekt 26 das Fahrzeug 18 und desto wahrscheinlicher befindet es sich in der Zielentfernung r1. Der voranstehend beschriebene vertikale Versatz kann außerdem die Höhe des Objekts 26 beeinflussen, da der obere Teil des Objekts 26 in 5A durch die Kante des Fensters 20 abgeschnitten ist. Deshalb erscheint das Objekt 26 kleiner als erwartet, was wiederum die Wahrscheinlichkeit verringert, dass das Objekt 26 das Fahrzeug 18 in der Entfernung r1 ist.
  • In 5B ist das auf das Fenster 22 bezogene elektronische Abbild dargestellt. Die Breite des Objekts 27 beträgt etwa 45 % der Breite des Fensters 22. Deshalb liegt die ermittelte Breite des Objekts 27 in der Entfernung r2 mit 4 m × 0,45 = 1,8 m viel näher an der erwarteten Größe des Fahrzeugs 18. In diesem Abbild ist das Objekt 27 nur leicht zur Unterkante des Fensters 22 versetzt, und die gesamte Höhe des Objekts 27 befindet sich noch im Fenster 22.
  • In 5C ist das auf das Fenster 24 bezogene elektronische Abbild dargestellt. Die Breite des Objekts 28 beträgt etwa 80 % der Breite des Fensters 24. Dementsprechend beträgt die ermittelte Breite des Objekts 28 in der Entfernung r3 gleich 4 m × 0,8 = 3,2 m. Deshalb ist die Objektbreite wesentlich größer als die erwartete Breite des Fahrzeugs 18, die gewöhnlich etwa 1,75 m beträgt. Auf der Basis der Objektbreite kann der Prozessor 14 eine Festlegung treffen, dass das Objekt 27 am wahrscheinlichsten dem Fahrzeug 18 und r2 der wahrscheinlichsten Entfernung entspricht. Die Entfernungsgenauigkeit des Systems 10 kann durch Anwendung einer feineren Abstufung der Zielentfernung für jedes Fenster erhöht werden. So wie sich das Fahrzeug 18 näher zur Kamera 12 befindet, ist die Anwendung einer feineren Abstufung zwischen den Fenstern aufgrund des höheren Risikos einer Kollision besonders nützlich. Alternativ wird das Verhältnis zwischen der ermittelten Breite und der erwarteten Breite zur Bestimmung der wahrscheinlichsten Entfernung verwendet.
  • Zur Verbesserung der Entfernungsfensterauswertung wird eine Straßenoberflächenauswertung hinzugefügt. Das elektronische Abbild enthält zahlreiche Merkmale, die es erschweren, ein vorausfahrendes Fahrzeug zu identifizieren. Deshalb ist der Prozessor 14 so konfiguriert, dass er einen der Straßenoberfläche entsprechenden Anteil des elektronischen Abbilds analysiert und eine Gleichung zur Beschreibung der Änderung im Pixelwert der Straße über die Längsrichtung innerhalb des Abbilds berechnet. Die Gleichung kann zum Beispiel unter Verwendung eines Regressionsalgorithmus, wie z. B. einer quadratischen Regression, berechnet werden. Außerdem ist der Prozessor 14 dafür konfiguriert, die Pixelwerte an einer Stelle im Abbild, an der ein Fahrzeug vorhanden sein kann, mit dem erwarteten Pixelwert der Straße zu vergleichen, wobei der erwartete Pixelwert der Straße basierend auf der Gleichung berechnet wird. Ist die Ähnlichkeit zwischen den Pixelwerten und den erwarteten Pixelwerten hoch, so ist die Wahrscheinlichkeit für das Vorhandensein eines Fahrzeugs an der Stelle gering. Folglich ist die resultierende Wertigkeit gering. Ist die Ähnlichkeit gering, so ist die Wertigkeit hoch. Die Ergebnisse des Vergleichs werden mit den Ergebnissen des Entfernungsfensteralgorithmus kombiniert, sodass eine Wertigkeit erzeugt wird, die die Wahrscheinlichkeit für das Vorhandensein eines Fahrzeugs an der identifizierten Stelle kennzeichnet.
  • In 6 ist ein Verfahren zur Verarbeitung eines Abbilds entsprechend der Erfindung dargestellt und mit dem Bezugszeichen 30 gekennzeichnet. Der Block 32 bezeichnet den Start des Verfahrens. In Block 34 wird ein Abbild durch die Kamera 12 erfasst und an den Prozessor 14 übertragen. In Block 36 wendet der Prozessor 14 eine Vertikalkantenverstärkung zur Erzeugung eines kantenverstärkten Abbilds an. In Block 38 richtet der Prozessor 14 ein Entfernungsfenster zur Begrenzung des für eine spezielle Entfernung analysierten Bereichs ein, wodurch mögliche unklare Kanteninformationen ausgeschlossen werden. In Block 40 wird innerhalb des Entfernungsfensters aus dem kantenverstärkten Abbild ein trinäres Abbild erzeugt, in dem der negativen Kante, der positiven Kante und den anderen Kanten "–1", "+1" bzw. "0" zugeordnet wird. In Block 44 wird das trinäre Abbild zur Sortierung der Bildpunkte desselben Werts und einer ähnlichen Anordnung in Linienabschnitte genannte Gruppen segmentiert. In Block 46 werden zwei Abschnitte mit unterschiedlicher Polarität miteinander gruppiert, sodass Objekte gebildet werden, die einem möglichen Fahrzeug entsprechen.
  • In Block 48 wird die Breite eines Objekts mit einem Breitenschwellenwert zwecks Auswahl des Modells verglichen. Wenn die Breite des Objekts kleiner als der Breitenschwellenwert ist, folgt der Algorithmus der Linie 50 zu Block 52, in dem ein einem Motorrad entsprechendes Fahrzeugmodell ausgewählt wird. Ist die Breite des Objekts nicht kleiner als der erste Breitenschwellenwert, folgt der Algorithmus der Linie 54 zu Block 56. In Block 56 wird die Breite eines Objekts mit einem zweiten Breitenschwellenwert verglichen. Wenn die Breite des Objekts kleiner als der zweite Breitenschwellenwert ist, folgt der Algorithmus der Linie 58, und in Block 60 wird ein einer Limousine entsprechendes Fahrzeugmodell ausgewählt. Ist jedoch die Breite des Objekts größer als der zweite Breitenschwellenwert, folgt der Algorithmus der Linie 62 zu Block 64, in dem ein einem Lastkraftwagen entsprechendes Fahrzeugmodell ausgewählt wird.
  • In Block 66 berechnet der Prozessor 14 eine Gleichung, die der erwarteten Änderung der Straßenpixelwerte quer über das Abbild aufgrund der Umgebungsbedingungen entspricht. Die Gleichung wird bei der Straßenoberflächenauswertung verwendet, wie voranstehend beschrieben. Demzufolge vergleicht der Prozessor 14 die Pixelwerte im Objektbereich mit den auf der Gleichung basierenden erwarteten Pixelwerten. Der Prozessor 14 bewertet anschließend in Block 68 die Objekte auf der Basis der Wertigkeit des ausgewählten Modells und des Pixelwertvergleichs. In Block 70 stellt der Prozessor 14 fest, ob jedes der Objekte für dieses Entfernungsfenster bewertet worden ist. Ist nicht jedes der Objekte bewertet worden, folgt der Algorithmus der Linie 72, und die Breite des nächsten Objekts wird analysiert, um, beginnend bei Block 48, ein Fahrzeugmodell auszuwählen. Wenn jedes der Objekte bewertet worden ist, wird in Block 74 das beste Objekt im Fenster (Fensterobjekt) auf der Basis der Wertigkeit bestimmt. Anschließend stellt der Prozessor 14 in Block 76 fest, ob jedes der Fenster vervollständigt worden ist. Ist nicht jedes der Fenster vervollständigt worden, folgt der Algorithmus der Linie 78, und das Fenster wird gewechselt. Nachdem das Fenster gewechselt worden ist, folgt der Algorithmus der Linie 78, und in Block 38 wird das nächste Entfernungsfenster eingerichtet. Wenn jedes der Fenster vervollständigt worden ist, wird in Block 82 auf der Basis der Wertigkeit das beste Objekt aus den Fensterobjekten ausgewählt, und die Entfernung des dem Objekt entsprechenden Fensters wird die veranschlagte Entfernung des vorausfahrenden Fahrzeugs. Der Algorithmus endet in Block 84, bis das nächste Abbild erfasst wird.
  • In 7 ist ein typisches elektronisches Abbild dargestellt, wie es durch die Kamera 12 zu sehen ist, und es wird zur weiteren Beschreibung des durch den Prozessor 14 implementierten Verfahrens zur Bestimmung der Entfernung und der Lateralposition des Fahrzeugs 18 verwendet. Das elektronische Abbild umfasst zusätzliche Merkmale, die für den Prozessor 14 störend sein können, wie z. B. die Fahrbahmnarkierungen 90, ein zusätzliches Fahrzeug 92 und ein Motorrad 94.
  • 8 zeigt ein vertikalkantenverstärktes Abbild. Das elektronische Abbild besteht aus horizontalen Zeilen und vertikalen Spalten von Bildelementen (Pixel). Jedes Pixel umfasst einen der Helligkeit des Abbilds entsprechenden Wert an dieser Zeilen- und Spaltenstelle. Ein typischer kantenverstärkender Algorithmus umfasst die Berechnung des Differentialquotienten der Helligkeit über die horizontalen Zeilen oder die vertikalen Spalten des Abbilds. Jedoch werden viele andere kantenverstärkenden Verfahren in Betracht gezogen, und sie können auf einfache Weise verwendet werden. Außerdem werden die Position und die Größe des Fensters 96 für eine vorgegebene Zielentfernung berechnet. Außerhalb des Fensters 96 angeordnete Kanteninformationen werden ignoriert. In diesem Beispiel können viele der Kanteninformationen vom Auto 98 und vom Motorrad 100 eliminiert werden.
  • Bezug nehmend auf 9 wird das kantenverstärkte Abbild trinarisiert, das heißt, jedes der Pixel wird auf einen Wert „1", „+1" oder „0" gesetzt. Ein typisches Verfahren zur Trinarisierung des Abbilds umfasst das Nehmen des Werts jedes Pixelwerts und das Vergleichen mit einem oberen und einem unteren Schwellenwert, wobei der Pixelwert auf „+1" gesetzt wird, wenn die Helligkeit des Pixelwerts über dem oberen Schwellenwert liegt. Liegt die Helligkeit des Pixelwerts unter dem unteren Schwellenwert, wird der Pixelwert auf „–1" gesetzt. Anderenfalls wird der Pixelwert auf „0" gesetzt. Damit werden die Pixel effektiv in Kantenpixel mit einem Hell-zu-Dunkel-Übergang (negativer Übergang), in Kantenpixel mit einem Dunkel-zu-Hell-Übergang (positiver Übergang) und in Nicht-Kantenpixel eingeteilt. Obwohl das zuvor beschriebene Verfahren schnell und einfach ist, können andere kompliziertere Schwellenwertverfahren einschließlich lokaler Flächenschwellenwert- oder anderer gewöhnlich verwendeter Näherungsverfahren verwendet werden. Anschließend werden die Pixel basierend auf ihrer relativen Position zu anderen Pixeln mit demselben Wert gruppiert. Das Gruppieren dieser Pixel wird Segmentierung genannt, und jede dieser Gruppen wird als Linienabschnitt bezeichnet. Höhen-, Breiten- und Positionsinformationen werden für jeden Linienabschnitt gespeichert.
  • Wenn diese Abschnitte auf das ursprüngliche Abbild rückbezogen werden, so repräsentiert der Abschnitt 102 die Fahrbahnmarkierung auf der Straße. Der Abschnitt 104 repräsentiert den oberen Teil der linken Seite des Fahrzeugs. Der Abschnitt 106 repräsentiert die untere linke Seite des Fahrzeugs. Der Abschnitt 108 repräsentiert den linken Reifen des Fahrzeugs. Der Abschnitt 110 repräsentiert die obere rechte Seite des Fahrzeugs. Der Abschnitt 112 repräsentiert die untere rechte Seite des Fahrzeugs, während der Abschnitt 114 den rechten Reifen repräsentiert.
  • Bezug nehmend auf 10 können Objekte aus zwei Abschnitten erstellt werden. Typischerweise würde ein positiver Abschnitt mit einem negativen Abschnitt gepaart werden. Der Abschnitt 102 und der Abschnitt 104 werden zum Erstellen des Objekts 116 kombiniert. Der Abschnitt 102 und der Abschnitt 106 werden zum Erstellen des Objekts 118 kombiniert. Der Abschnitt 106 und der Abschnitt 112 werden zum Erstellen des Objekts 120 kombiniert. Die Merkmale jedes Objekts werden dann durch die Merkmale eines Modellfahrzeugs bewertet. Für jedes Objekt wird ein Modell auf der Basis der Breite des Objekts ausgewählt. Wenn zum Beispiel die Objektbreite kleiner als ein erster Breitenschwellenwert ist, wird ein einem Motorrad entsprechendes Modell zur Bewertung des Objekts verwendet. Wenn die Objektbreite größer als der erste Breitenschwellenwert, jedoch kleiner als ein zweiter Breitenschwellenwert ist, wird ein einer Limousine entsprechendes Modell verwendet. Wenn alternativ die Objektbreite größer als der zweite Breitenschwellenwert ist, wird das Objekt durch ein einem großen Lastkraftwagen entsprechendes Modell bewertet. Zwar sind nur drei Modelle beschrieben worden, jedoch kann eine größere oder kleinere Anzahl von Modellen verwendet werden.
  • Jedes Modell hat Merkmale, die sich von denen eines anderen Fahrzeugtyps unterscheiden, und zwar entsprechend den Merkmalen des jeweils vorliegenden Fahrzeugtyps. Zum Beispiel ist das Höhen-Seiten-Verhältnis beim Motorradmodell hoch, beim Limousinenmodell jedoch gering. Diese Merkmale entsprechen dem tatsächlichen Fahrzeug, da das Motorrad eine geringe Breite und eine große Höhe aufweist, was bei der Limousine jedoch umgekehrt ist. Die Höhe des Objekts ist beim Lastkraftwagenmodell ziemlich groß, beim Limousinenmodell aber gering. Die drei Modelle ermöglichen dem Algorithmus das genaue Zuweisen von Punkten zu jedem der Objekte.
  • Die Merkmale der Objekte werden mit den Merkmalen der Modelle verglichen. Je genauer die Objektmerkmale mit den Modellmerkmalen übereinstimmen, desto höher ist die Wertigkeit, und desto wahrscheinlicher ist das Objekt ein Fahrzeug des ausgewählten Modelltyps. Für die Bestimmung, ob das Objekt ein Fahrzeug ist, können bestimmte Merkmale als wichtiger bewertet oder betrachtet werden als andere Merkmale. Durch die Verwendung von drei Modellen ist eine genauere Beurteilung möglich als mit einem einzigen Modell, da die drei Fahrzeugtypen hinsichtlich der Breite, der Höhe, der Form und anderer zur Identifizierung notwendiger Kriterien ziemlich verschieden sind. Diese drei Modelle tragen außerdem zu einer Erhöhung der Entfernungsgenauigkeit des Algorithmus bei.
  • Als Ergänzung zur Entfernungsfensterauswertung wird die Straßenoberflächenauswertung durchgeführt. Dabei wird das ursprüngliche erfasste Graustufenabbild dazu verwendet, die Beurteilung, ob ein Objekt ein Fahrzeug ist oder nicht, zu verbessern. Wie in 11 zu erkennen ist, befindet sich ein Fahrzeug 142 vor dem System. Der Graustufen- oder Helligkeitswert eines Hintergrundelements, wie z. B. die Straße, ändert sich im Allgemeinen allmählich. Deshalb kann die Änderung der Helligkeit oder des Pixelwerts durch eine gleichmäßige stetige Gleichung beschrieben werden. Die Gleichung kann oftmals eine einfache lineare Gleichung sein, jedoch werden andere mathematische Beziehungen, wie z. B. quadratische Gleichungen, oder Verweistabellen hier in die Betrachtung einbezogen. Folglich wird ein Straßenbereich 146 zur Bestimmung des Helligkeitsgradienten oder der Helligkeitsänderung der Straße vor dem System verwendet. Der Straßenbereich 146 ist im Abbild zwischen dem System und einem Objektbereich 144 in einem Gebiet angeordnet, das normalerweise einen Leerraum zwischen dem System und dem vorausfahrenden Fahrzeug 142 darstellt. Der Wert der Pixel innerhalb des Straßenbereichs 146 kann zur Berechnung einer Gleichung verwendet werden, die mit den erwarteten Pixelwerten der Straße an verschiedenen Stellen im Abbild korrespondiert. Außerdem kann der Objektbereich 144 auf der Position des Objekts angeordnet sein. Der Wert der Pixel innerhalb des Objektbereichs 144 kann mit dem erwarteten Pixelwert der Straße verglichen werden, und es kann eine Feststellung getroffen oder eine Wertigkeit berechnet werden, die anzeigt, ob sich das Fahrzeug im Objektbereich 144 befindet.
  • Dieser Prozess kann anhand des Schaubilds in 12 weiter erklärt werden. Eine Gruppe von Pixelwerten 150 ist dargestellt und entspricht den innerhalb des Straßenbereichs 146 enthaltenen Pixeln. Die Gruppe von Pixelwerten 150 kann in einem Regressionsalgorithmus, wie z. B. einer linearen Regression, verwendet werden, um eine Gleichung 151 für die erwarteten Pixelwerte im Objektbereich 144 für die Straße einschließlich der Änderung der Straßenhelligkeit quer über das Abbild zu bestimmen. Die zweite Gruppe von Pixelwerten 152 repräsentiert die Pixelwerte des den Standort des Objekts entsprechenden Objektbereichs 144. Der Mittelwert der ersten Gruppe von Pixelwerten 150 ist durch die Linie 153 und der Mittelwert der zweite Gruppe von Pixelwerten 152 durch die Linie 154 gekennzeichnet. Die Differenz zwischen dem Mittelwert 153 und dem Mittelwert 154 beträgt nur etwa 40 Graustufen. Die Differenz ist nicht groß genug im Vergleich zur Intensitätsschwankung der Gruppe von Pixelwerten 150. Die Differenz 156 zwischen dem Mittelwert der zweiten Gruppe von Pixelwerten 152 und dem auf der Gleichung 151 basierenden, auf der entsprechenden Pixelposition (bei etwa 30 auf der Horizontalachse) erwarteten Pixelwert beträgt jedoch etwa 70 Graustufen. Diese Differenz ist viel größer als die Standardabweichung der Regressionslinie. Folglich ist die Gültigkeit der Objektidentifizierung verbessert. Dies ist besonders hilfreich in der in 13 dargestellten Situation, in der das Objekt basierend auf zwei sich in zum System benachbarten Fahrspuren befindlichen Fahrzeugen 157 und 158 erzeugt werden kann. In dieser Situation würden die Pixelwerte des Bereichs 159, ein durch die rechte Kante des Fahrzeugs 157 und die linke Kante des Fahrzeugs 158 erzeugtes Phantomobjekt, im Wesentlichen den aus dem Bereich 160 ermittelten erwarteten Pixelwerten entsprechen. Folglich würde die Wertigkeit des Objekts verringert werden.
  • In einer nachfolgend beschriebenen anderen Ausgestaltung können drei Bereiche zur Feststellung der Gültigkeit des fraglichen Objekts verwendet werden, wie in den 14 und 15 dargestellt. Das Objekt 162 ist im Sichtfeld des Systems angeordnet. Der Bereich 168 wird zur Berechnung einer Gleichung verwendet, die den erwarteten Pixelwert an verschiedenen Stellen auf der Straße aufgrund des Gradienten der Straßenhelligkeit beschreibt. Der Bereich 164 ist auf der Position des Objekts 162 angeordnet. Die Abweichung der Pixelwerte im Bereich 164 wird mit den auf der Gleichung basierenden erwarteten Pixelwerten verglichen. Die Abweichung der Pixelwerte im Bereich 164 von den erwarteten Pixelwerten wird beispielsweise errechnet. Ist die Abweichung klein, wird das Objekt als ein Phantomobjekt (ein durch zwei Fahrzeuge in benachbarten Fahrspuren gebildetes Objekt) beurteilt. Wenn alternativ die Abweichung hoch ist, wird die Wahrscheinlichkeit, dass das Objekt ein Fahrzeug ist, höher bewertet. Ist jedoch die Abweichung der Pixelwerte im Bereich 166 beträchtlich, wird die Wahrscheinlichkeit, dass das Objekt ein Fahrzeug ist, verringert, weil der Schatten anderer Fahrzeuge und Straßenrandobjekte die Intensität in den Bereichen 164 und 166 ändern könnte. Wenn die Pixelwerte im Bereich 168 nicht eine gute lineare Regression (d. h. eine lineare Regression mit kleiner Standardabweichung) ergeben, werden die Pixelwerte im Bereich 166 mit denen im Bereich 164 ohne Verwendung der linearen Regression direkt verglichen.
  • Jetzt wird die in den 14 und 15 dargestellte Dreibereichsverarbeitung ausführlich beschrieben. Außerdem wird ein zwischen den Bereichen 164 und 168 angeordneter Bereich 166 verwendet. Eine erste Gruppe von Pixelwerten 172 entspricht den Pixelwerten des Bereichs 168. Die Gruppe von Pixelwerten 172 wird zum Bestimmen eines mit dem Bezugszeichen 174 gekennzeichneten erwarteten Straßenhelligkeitsgradienten verwendet. Der Straßenhelligkeitsgradient wird in 15 durch eine auf die Gruppe von Pixelwerten 172 angewendete lineare Regression bestimmt. Die Gruppe von Pixelwerten 176 entspricht den Pixelwerten des Bereichs 166 und die Gruppe von Pixelwerten 180 entspricht den Pixelwerten des Bereichs 164. Die Abweichung 182 der Gruppe 180 dA wird aus dem auf dem erwarteten Straßenhelligkeitsgradienten 174 basierenden erwarteten Pixelwert berechnet. Außerdem wird die Abweichung 178 der Gruppe 176 dB vom erwarteten Straßenhelligkeitsgradienten 174 berechnet.
  • Ist dA kleiner oder in derselben Größenordnung wie die Standardabweichung der Regressionsgeraden, wird der Bereich 164 als Phantomnbjekt beurteilt. Ist dA wesentlich größer als die Standardabweichung, besteht im Bereich 164 eine hohe Wahrscheinlichkeit für das Vorhandensein eines Fahrzeugs, und er bekommt eine hohe Wertigkeit. Wenn jedoch dB ebenfalls beträchtlich ist, wird die Wertigkeit verringert, da ein Schatten quer über dem Bereich 166 vorhanden sein dürfte.
  • Bei kurzer Entfernung hat der Bereich der Gruppe von Pixelwerten 172 keine ausreichende Ausdehnung in Längsrichtung (y-Achse in 15). In diesem Fall wird die Intensität der Bereiche 180 und 176 verglichen. Ist der Mittelwert der Intensität ähnlich, so ist die Wertigkeit gering. Ist der Mittelwert sehr verschieden, so ist eine hohe Wertigkeit gegeben. Anschließend wird jedes der Objekte basierend auf den Merkmalen des Objekts bewertet, die die Breite des Objekts, die Höhe des Objekts, die Position des Objekts relativ zur Unterkante des Fensters, die Abschnittbreite, die Abschnitthöhe und den Vergleich der Objektbereichspixelwerte mit den erwarteten Straßenpixelwerten umfassen. Der zuvor beschriebene Prozess wird für mehrere Fenster mit unterschiedlichen Zielentfernungen wiederholt.
  • Eine mit dem Fachgebiet vertraute Person wird leicht erkennen, dass die voranstehende Beschreibung als eine Darstellung der Implementierung der Erfindung aufzufassen ist. Diese Beschreibung ist nicht als Einschränkung des Geltungsbereichs oder der Anwendung der Erfindung gedacht, insofern als dass die Erfindung einer Modifikation, Variation oder Änderung unterworfen werden kann, ohne dass vom Sinn der durch die nachfolgenden Patentansprüche definierten Erfindung abgewichen wird.
  • 10
    System
    12
    Kamera
    14
    Prozessor
    16
    Bereich von Interesse
    18
    Fahrzeug
    20, 22, 24
    Fenster
    26, 27, 28
    Objekt
    30
    Verfahren
    32 bis 40
    Block
    44 bis 48
    Block
    50
    Linie
    52
    Block
    54
    Linie
    56
    Block
    58
    Linie
    60
    Block
    62
    Linie
    64 bis 70
    Block
    72
    Linie
    74 und 76
    Block
    78
    Linie
    82 und 84
    Block
    90
    Fahrbahnmarkierungen
    92
    zusätzliches Fahrzeug
    94
    Motorrad
    96
    Fenster
    98
    Auto
    100
    Motorrad
    102 bis 114
    Abschnitt
    116 bis 120
    Objekt
    142
    Fahrzeug
    144
    Objektbereich
    146
    Straßenbereich
    150
    Gruppe von Pixelwerten
    151
    Gleichung
    152
    Gruppe von Pixelwerten
    153
    Linie bzw. Mittelwert
    154
    Linie bzw. Mittelwert
    156
    Differenz
    157, 158
    Fahrzeug
    159
    Bereich
    160
    Bereich
    162
    Objekt
    164, 166, 168
    Bereich
    172
    Gruppe von Pixelwerten
    174
    erwarteter Straßenhelligkeitsgradient
    176
    Gruppe von Pixelwerten
    178
    Abweichung
    180
    Gruppe von Pixelwerten
    182
    Abweichung

Claims (18)

  1. System (10) zur Bestimmung der Entfernung eines Fahrzeugs (18), umfassend: – eine Kamera (12), die für das Betrachten eines Bereichs von Interesse (16), in dem sich das Fahrzeug (18) befindet, konfiguriert ist und ein elektronisches Abbild des Bereichs erzeugt; – ein mit der Kamera zum Empfangen des elektronischen Abbilds in elektronischer Kommunikation stehender Prozessor (14), der für das Zusammensetzen einer Vielzahl von auf mögliche Fahrzeugstandorte hinweisenden Objekten (26, 27, 28), das Berechnen einer mit einem erwarteten Straßenpixelwert korrespondierenden Beziehung und das Durchführen eines Vergleichs zwischen nahe den Objekten befindlichen Objektpixelwerten und dem erwarteten Straßenpixelwert konfiguriert ist.
  2. System (10) nach Anspruch 1, wobei die Beziehung eine Gleichung (151) ist, die basierend auf den Pixelwerten eines Straßenbereichs (146) berechnet wird.
  3. System (10) nach Anspruch 1 oder 2, wobei die Gleichung (151) eine lineare Gleichung ist.
  4. System (10) nach einem der Ansprüche 1 bis 3, wobei der Prozessor (14) die Beziehung basierend auf einem Regressionsalgorithmus berechnet.
  5. System (10) nach einem der Ansprüche 1 bis 4, wobei der Prozessor (14) für das Berechnen einer Abweichung zwischen den Objektpixelwerten und dem erwarteten Straßenpixelwert konfiguriert ist.
  6. System (10) nach einem der Ansprüche 1 bis 5, wobei der Prozessor (14) für das auf dem Vergleich basierende Berechnen einer Wertigkeit für das Objekt (26, 27, 28) konfiguriert ist.
  7. System (10) nach einem der Ansprüche 1 bis 6, wobei die Entfernung des Fahrzeugs (18) basierend auf der Wertigkeit des Objekts (26, 27, 28) bestimmt wird.
  8. System (10) nach einem der Ansprüche 1 bis 7, wobei der Prozessor (14) für das Identifizieren einer Vielzahl von Fenstern (20, 22, 24) innerhalb des elektronischen Abbilds konfiguriert ist, wobei jedes Fenster der Vielzahl von Fenstern (20, 22, 24) einer vorher festgelegten physikalischen Größe bei einer Zielentfernung zur Kamera (12) entspricht, wobei der Prozessor (14) außerdem für das Ermitteln von Merkmalen des elektronischen Abbilds für jedes der Fenster (20, 22, 24) zwecks Identifizierung des Fahrzeugs (18) konfiguriert ist.
  9. System (10) nach einem der Ansprüche 1 bis 8, wobei die Objekte (26, 27, 28) aus auf dem kantenverstärkten Abbild basierend erzeugten Kantenabschnitten (102, 104, 106, 108, 110, 112, 114) zusammengesetzt sind.
  10. System (10) nach einem der Ansprüche 1 bis 9, wobei die Kantenabschnitte (102, 104, 106, 108, 110, 112, 114) vertikale Kantenabschnitte sind.
  11. System (10) nach einem der Ansprüche 1 bis 10, wobei die Wertigkeit auf einer Höhe der Kantenabschnitte basiert.
  12. System (10) nach einem der Ansprüche 1 bis 10, wobei die Wertigkeit auf einer Breite der Kantenabschnitte basiert.
  13. System (10) nach einem der Ansprüche 1 bis 10, wobei die Wertigkeit auf einer Höhe der Objekte (26, 27, 28) basiert.
  14. System (10) nach einem der Ansprüche 1 bis 10, wobei die Wertigkeit auf einer Breite der Objekte (26, 27, 28) basiert.
  15. System (10) nach Anspruch 1, wobei der Prozessor (14) für das Erzeugen eines auf dem kantenverstärkten Abbild basierenden trinären Abbilds zwecks Ermittlung der möglichen Fahrzeugstandorte konfiguriert ist.
  16. System (10) nach Anspruch 15, wobei positive Kantenelemente durch Anwendung eines vorher definierten oberen Schwellenwerts auf das kantenverstärkte Abbild identifiziert werden.
  17. System (10) nach Anspruch 15 oder 16, wobei negative Kantenelemente durch Anwendung eines vorher definierten unteren Schwellenwerts auf das kantenverstärkte Abbild identifiziert werden.
  18. System (10) nach einem der Ansprüche 15 bis 17, wobei die Objekte (26, 27, 28) aus mindestens einem positiven und mindestens einem negativen Kantenelement der aus dem trinären Abbild erzeugten Kantenelemente zusammengesetzt sind.
DE102006036402A 2005-08-02 2006-08-02 System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs Withdrawn DE102006036402A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/195,427 US20070031008A1 (en) 2005-08-02 2005-08-02 System and method for range measurement of a preceding vehicle
US11/195,427 2005-08-02

Publications (1)

Publication Number Publication Date
DE102006036402A1 true DE102006036402A1 (de) 2007-04-05

Family

ID=37717619

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006036402A Withdrawn DE102006036402A1 (de) 2005-08-02 2006-08-02 System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs

Country Status (2)

Country Link
US (1) US20070031008A1 (de)
DE (1) DE102006036402A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016156377A1 (de) * 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum bereitstellen von höheninformationen eines objekts in einem umgebungsbereich eines kraftfahrzeugs an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichtung und kraftfahrzeug
US11120278B2 (en) 2016-08-16 2021-09-14 Volkswagen Aktiengesellschaft Method and device for supporting an advanced driver assistance system in a motor vehicle
DE102017108358B4 (de) 2016-06-10 2022-02-03 Toyota Jidosha Kabushiki Kaisha Fahrzeugfahrassistenzvorrichtung

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
WO2009030418A2 (de) * 2007-08-28 2009-03-12 Valeo Schalter Und Sensoren Gmbh Verfahren und anordnung zur auswertung von helligkeitswerten in sensorbildern bei bildauswertenden umfelderkennungssystemen
CN102622889B (zh) * 2012-03-30 2014-04-30 深圳市博康智能信息技术有限公司 一种基于图像分析的车辆遮阳板检测方法及装置
US9547805B1 (en) * 2013-01-22 2017-01-17 The Boeing Company Systems and methods for identifying roads in images
CN103559501A (zh) * 2013-10-25 2014-02-05 公安部第三研究所 基于图像分析的车辆遮阳板检测方法及装置
CN109389024B (zh) * 2018-01-30 2020-09-04 长城汽车股份有限公司 基于影像识别路锥的方法、装置、存储介质以及车辆
CN110414357B (zh) * 2019-06-28 2023-04-07 上海工程技术大学 一种基于车辆类型识别的前方车辆定位方法
US11887375B2 (en) 2021-06-18 2024-01-30 Getac Technology Corporation Techniques for capturing enhanced images for pattern identifications

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6772057B2 (en) * 1995-06-07 2004-08-03 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US4556986A (en) * 1983-03-09 1985-12-03 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Optical stereo video signal processor
US4695959A (en) * 1984-04-06 1987-09-22 Honeywell Inc. Passive range measurement apparatus and method
US4669054A (en) * 1985-05-03 1987-05-26 General Dynamics, Pomona Division Device and method for optically correlating a pair of images
IT1224629B (it) * 1988-05-24 1990-10-04 Simimpianti Srl Rispettivamente lo scaricamento di dispositivo per il caricamento una pressa per il trattamento dipannelli.
US5173949A (en) * 1988-08-29 1992-12-22 Raytheon Company Confirmed boundary pattern matching
US4970653A (en) * 1989-04-06 1990-11-13 General Motors Corporation Vision method of detecting lane boundaries and obstacles
EP0567059B1 (de) * 1992-04-24 1998-12-02 Hitachi, Ltd. Gegenstandserkennungssystem mittels Bildverarbeitung
JP2917661B2 (ja) * 1992-04-28 1999-07-12 住友電気工業株式会社 交通流計測処理方法及び装置
US5515448A (en) * 1992-07-28 1996-05-07 Yazaki Corporation Distance measuring apparatus of a target tracking type
JPH06213660A (ja) * 1993-01-19 1994-08-05 Aisin Seiki Co Ltd 像の近似直線の検出方法
US6822563B2 (en) * 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US6430303B1 (en) * 1993-03-31 2002-08-06 Fujitsu Limited Image processing apparatus
US5487116A (en) * 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
JP3169483B2 (ja) * 1993-06-25 2001-05-28 富士通株式会社 道路環境認識装置
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JP3059035B2 (ja) * 1993-12-14 2000-07-04 三菱電機株式会社 距離測定装置
JP3490490B2 (ja) * 1994-01-28 2004-01-26 株式会社東芝 パターン画像処理装置及び画像処理方法
JP3287117B2 (ja) * 1994-07-05 2002-05-27 株式会社日立製作所 撮像装置を用いた車両用の環境認識装置
KR960032262A (ko) * 1995-02-09 1996-09-17 배순훈 차량의 주행 안전 시스템
JP3993259B2 (ja) * 1996-07-31 2007-10-17 アイシン精機株式会社 画像処理装置
JP3216792B2 (ja) * 1996-08-06 2001-10-09 富士電機株式会社 映像による距離検出方法
DE19636028C1 (de) * 1996-09-05 1997-11-20 Daimler Benz Ag Verfahren zur Stereobild-Objektdetektion
US5930383A (en) * 1996-09-24 1999-07-27 Netzer; Yishay Depth sensing camera systems and methods
US6760061B1 (en) * 1997-04-14 2004-07-06 Nestor Traffic Systems, Inc. Traffic sensor
US6256016B1 (en) * 1997-06-05 2001-07-03 Logitech, Inc. Optical detection system, device, and method utilizing optical matching
US6295083B1 (en) * 1998-02-27 2001-09-25 Tektronix, Inc. High precision image alignment detection
JP3463858B2 (ja) * 1998-08-27 2003-11-05 矢崎総業株式会社 周辺監視装置及び方法
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US6704042B2 (en) * 1998-12-10 2004-03-09 Canon Kabushiki Kaisha Video processing apparatus, control method therefor, and storage medium
JP2000293696A (ja) * 1999-04-07 2000-10-20 Matsushita Electric Ind Co Ltd 画像認識装置
US6687386B1 (en) * 1999-06-15 2004-02-03 Hitachi Denshi Kabushiki Kaisha Object tracking method and object tracking apparatus
JP3515926B2 (ja) * 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
JP4233723B2 (ja) * 2000-02-28 2009-03-04 本田技研工業株式会社 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
US6741757B1 (en) * 2000-03-07 2004-05-25 Microsoft Corporation Feature correspondence between images using an image pyramid
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
JP3987264B2 (ja) * 2000-03-24 2007-10-03 富士通株式会社 ナンバープレート読取装置及び方法
JP4414054B2 (ja) * 2000-03-27 2010-02-10 本田技研工業株式会社 物体認識装置
GB2369737B (en) * 2000-05-08 2005-02-02 Automotive Tech Int Vehicular blind spot identification and monitoring system
JP2001324305A (ja) * 2000-05-17 2001-11-22 Minolta Co Ltd 画像対応位置検出装置および該装置を備える測距装置
JP2001351104A (ja) * 2000-06-06 2001-12-21 Matsushita Electric Ind Co Ltd パターン認識方法及びパターン認識装置、並びにパターン照合方法及びパターン照合装置
JP4624594B2 (ja) * 2000-06-28 2011-02-02 パナソニック株式会社 物体認識方法および物体認識装置
JP3539362B2 (ja) * 2000-07-07 2004-07-07 日産自動車株式会社 車線追従走行制御装置
JP2002189075A (ja) * 2000-12-20 2002-07-05 Fujitsu Ten Ltd 道路上方静止物検知方法
JP3780848B2 (ja) * 2000-12-27 2006-05-31 日産自動車株式会社 車両の走行路認識装置
KR100418763B1 (ko) * 2000-12-28 2004-02-18 현대자동차주식회사 노면경사 측정방법 및 이를 이용한 차량 속도 제어 시스템
JP2002216113A (ja) * 2001-01-16 2002-08-02 Fujitsu Ten Ltd 物体認識装置
US20020134151A1 (en) * 2001-02-05 2002-09-26 Matsushita Electric Industrial Co., Ltd. Apparatus and method for measuring distances
JP3759429B2 (ja) * 2001-05-23 2006-03-22 株式会社東芝 障害物検出装置及びその方法
JP3729095B2 (ja) * 2001-06-29 2005-12-21 日産自動車株式会社 走行路検出装置
US6547516B2 (en) * 2001-08-21 2003-04-15 Hon Hai Precision Ind. Co., Ltd. Fan bracket
EP1291668B1 (de) * 2001-09-07 2005-11-30 Matsushita Electric Industrial Co., Ltd. Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
JP2003098424A (ja) * 2001-09-25 2003-04-03 Fujitsu Ten Ltd 画像処理測距装置
JP3880837B2 (ja) * 2001-11-02 2007-02-14 富士重工業株式会社 車外監視装置
JP3739693B2 (ja) * 2001-11-09 2006-01-25 本田技研工業株式会社 画像認識装置
JP3849505B2 (ja) * 2001-11-26 2006-11-22 株式会社デンソー 障害物監視装置及びプログラム
US7212653B2 (en) * 2001-12-12 2007-05-01 Kabushikikaisha Equos Research Image processing system for vehicle
US7477135B2 (en) * 2002-01-22 2009-01-13 Belcher Brian E Access control for vehicle-mounted communications device
US7139432B2 (en) * 2002-04-10 2006-11-21 National Instruments Corporation Image pattern matching utilizing discrete curve matching with a mapping operator
EP1504276B1 (de) * 2002-05-03 2012-08-08 Donnelly Corporation Objektdetektionssystem für ein fahrzeug
JP4023228B2 (ja) * 2002-06-19 2007-12-19 日産自動車株式会社 車載用障害物検知装置
US7409092B2 (en) * 2002-06-20 2008-08-05 Hrl Laboratories, Llc Method and apparatus for the surveillance of objects in images
JP3895238B2 (ja) * 2002-08-28 2007-03-22 株式会社東芝 障害物検出装置及びその方法
US7324665B2 (en) * 2002-09-16 2008-01-29 Massachusetts Institute Of Technology Method of multi-resolution adaptive correlation processing
JP3861781B2 (ja) * 2002-09-17 2006-12-20 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法
JP4155780B2 (ja) * 2002-09-19 2008-09-24 富士通テン株式会社 画像処理方法
JP3868876B2 (ja) * 2002-09-25 2007-01-17 株式会社東芝 障害物検出装置及び方法
US7136506B2 (en) * 2003-03-03 2006-11-14 Lockheed Martin Corporation Correlation based in frame video tracker
JP3987048B2 (ja) * 2003-03-20 2007-10-03 本田技研工業株式会社 車両周辺監視装置
US7764808B2 (en) * 2003-03-24 2010-07-27 Siemens Corporation System and method for vehicle detection and tracking
JP3779280B2 (ja) * 2003-03-28 2006-05-24 富士通株式会社 衝突予測装置
US7660436B2 (en) * 2003-06-13 2010-02-09 Sarnoff Corporation Stereo-vision based imminent collision detection
JP2005025692A (ja) * 2003-07-04 2005-01-27 Suzuki Motor Corp 車両用情報提供装置
US20050015201A1 (en) * 2003-07-16 2005-01-20 Sarnoff Corporation Method and apparatus for detecting obstacles
US6834232B1 (en) * 2003-07-30 2004-12-21 Ford Global Technologies, Llc Dual disimilar sensing object detection and targeting system
JP4253271B2 (ja) * 2003-08-11 2009-04-08 株式会社日立製作所 画像処理システム及び車両制御システム
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
GB2411532B (en) * 2004-02-11 2010-04-28 British Broadcasting Corp Position determination
US6958582B2 (en) * 2004-03-15 2005-10-25 Zippy Technology Corp. Lamp current control circuit
JP4763250B2 (ja) * 2004-04-09 2011-08-31 株式会社デンソー 物体検出装置
US7402353B2 (en) * 2004-04-13 2008-07-22 General Motors Corporation Transient controls to improve fuel cell performance and stack durability
JP3931891B2 (ja) * 2004-07-05 2007-06-20 日産自動車株式会社 車載用画像処理装置
US7231288B2 (en) * 2005-03-15 2007-06-12 Visteon Global Technologies, Inc. System to determine distance to a lead vehicle
JP4970926B2 (ja) * 2006-01-16 2012-07-11 本田技研工業株式会社 車両周辺監視装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016156377A1 (de) * 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum bereitstellen von höheninformationen eines objekts in einem umgebungsbereich eines kraftfahrzeugs an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichtung und kraftfahrzeug
US10354524B2 (en) 2015-03-31 2019-07-16 Valeo Schalter Und Sensoren Gmbh Method for providing height information for an object in a surrounding area of a motor vehicle on a communication interface sensor device, processing device and motor vehicle
DE102017108358B4 (de) 2016-06-10 2022-02-03 Toyota Jidosha Kabushiki Kaisha Fahrzeugfahrassistenzvorrichtung
US11120278B2 (en) 2016-08-16 2021-09-14 Volkswagen Aktiengesellschaft Method and device for supporting an advanced driver assistance system in a motor vehicle
US11657622B2 (en) 2016-08-16 2023-05-23 Volkswagen Aktiengesellschaft Method and device for supporting an advanced driver assistance system in a motor vehicle

Also Published As

Publication number Publication date
US20070031008A1 (en) 2007-02-08

Similar Documents

Publication Publication Date Title
DE102006036402A1 (de) System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs
DE102006057552B4 (de) System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs
DE102006005512B4 (de) System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs
DE102011053002B4 (de) Fahrspurliniebeurteilungsvorrichtung
DE69937699T2 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges
DE102006020192B4 (de) Vorrichtung und Verfahren zum Vorhersagen von Kollision
DE112012002885B4 (de) Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE19934925B4 (de) Fahrzeugbereich-Erkennungsvorrichtung und Fahrzeugbereich-Bestimmungsverfahren
DE102006012914B4 (de) System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug
DE102007043164B4 (de) Nebelerkennungsvorrichtung für Kraftfahrzeuge
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
DE102015213701A1 (de) Sensorsystem für ein Fahrzeug zum Erkennen von Brücken oder Tunneleinfahrten
DE112017003974B4 (de) Geschwindigkeitsregelungsvorrichtung
DE102008003948A1 (de) Vorrichtung zum Bestimmen des Vorhandenseins von Nebel unter Verwendung einer Abbildung, die durch eine in ein Fahrzeug eingebaute Abbildungsvorrichtung erzielt wird
WO2013072231A1 (de) Verfahren zur nebeldetektion
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
EP1612580A1 (de) Objekterkennungsverfahren für Fahrzeuge
DE10324895A1 (de) Verfahren und Vorrichtung zur Objektortung für Kraftfahrzeuge
DE102011001037A1 (de) Fahrzeuginterne Vorrichtung zur Weiß-Linien-Erkennung
DE102005056647A1 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102004046101B4 (de) Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE102014117102A1 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE102018008442A1 (de) Verfahren zur Wetter- und/oder Sichtweitenerkennung
DE102018113559A1 (de) Verfahren zum Erkennen einer Fahrbahnmarkierung durch Validieren anhand der Linienbreite; Steuereinrichtung; Stellplatzerkennungssystem; sowie Fahrerassistenzsystem

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R120 Application withdrawn or ip right abandoned
R120 Application withdrawn or ip right abandoned

Effective date: 20141001