DE10103924A1 - Vorrichtung zur Umgebungsüberwachung eines Fahrzeugs - Google Patents

Vorrichtung zur Umgebungsüberwachung eines Fahrzeugs

Info

Publication number
DE10103924A1
DE10103924A1 DE10103924A DE10103924A DE10103924A1 DE 10103924 A1 DE10103924 A1 DE 10103924A1 DE 10103924 A DE10103924 A DE 10103924A DE 10103924 A DE10103924 A DE 10103924A DE 10103924 A1 DE10103924 A1 DE 10103924A1
Authority
DE
Germany
Prior art keywords
image
point
approaching object
vehicle
approaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10103924A
Other languages
English (en)
Other versions
DE10103924B4 (de
Inventor
Hiroyuki Ogura
Kazutomo Fujinami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Publication of DE10103924A1 publication Critical patent/DE10103924A1/de
Application granted granted Critical
Publication of DE10103924B4 publication Critical patent/DE10103924B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung zur Umgebungsüberwachung eines Fahrzeugs. Hierzu wird die Position eines sich dem Fahrzeug annähernden Objektes auf der Grundlage zweier aufgenommener Bilder ermittelt. Die Bilder werden zu zwei voneinander zeitlich beabstandeten Zeiten in einem vorbestimmten Zeitintervall aufgenommen. Dann wird auf dem sich annähernden Objekt ein unbeweglicher Punkt gesetzt. Ein Anzeige-Rahmen-Bild wird mit Bezug auf den unbeweglichen Punkt erzeugt. Dann wird das Anzeige-Rahmen-Bild auf das aufgenommene Bild projiziert. Das herannahende Objekt kann leicht erkannt werden, da das herannahende Objekt durch einen Rahmen des Anzeige-Rahmen-Bildes eingegrenzt ist.

Description

Die Erfindung betrifft eine Vorrichtung zur Umgebungsüberwachung und insbesondere eine Umgebungs- Überwachungsvorrichtung, die ein herannahendes Objekt auf der Grundlage zweier Bilder ermittelt, die durch eine Aufnahme der Fahrzeugumgebung zu zwei vorbestimmten und zeitlich voneinander beabstandeten Zeitpunkten aufgenommen sind, und die ein Bild anzeigt, auf dem das ermittelte herannahende Objekt auf das aufgenommene Bild überlagert ist.
Mit Bezug auf die Fig. 12A bis 12D wird nachfolgend ein Umgebungs-Überwachungssystem nach dem Stand der Technik erklärt.
Die Fig. 12A bis 12C sind Ansichten, die zur Veranschaulichung einer Veränderung eines durch eine Videokamera 1 aufgenommenen rückwärtigen Bildes dienen. Fig. 12A zeigt eine Situation mit dem betreffenden Fahrzeug. Fig. 12B zeigt ein durch eine Videokamera 1 in einem Zeitpunkt t aufgenommenes Bild der Umgebung des betreffenden Fahrzeugs. Fig. 12C zeigt ein zu einem Zeitpunkt t+δt aufgenommenes Bild.
Es wird nun angenommen, dass das betreffende Fahrzeug auf einer geraden, flachen Straße fährt. Das im rückwärtigen Bild des betreffenden Fahrzeuges aus Fig. 12A befindliche Straßenschild und Gebäude sind aufgenommene Objekte, die gemäß den Fig. 12B und 12C jeweils in einem Zeitpunkt t und t+Δt aufgenommen wurden. Die Bilder sind in Form aufeinanderfolgender Pixel, beispielsweise 512 × 512 Pixel, und mit einer Luminanz von 0-255 Einheiten gespeichert. Beim Bilden eines Kontrastes zwischen den Pixeln mit einer vorbestimmten oder größeren Helligkeitsdifferenz zum jeweiligen Nachbarpixel auf dem gespeicherten Bild werden charakteristische Punkte, wie beispielsweise eine Kontur eines anderen Fahrzeugs extrahiert. Eine Verbindung der entsprechenden charakteristischen Punkte in diesen zwei Bildern liefert jeweilige Geschwindigkeitsvektoren, wie sie in Fig. 12C gezeigt sind. Man spricht hier von "optischen Fluss- oder Bewegungsvektoren" (Optical Flow).
Diese optischen Flussvektoren erstrecken sich radial von einem Punkt, den man Expansionsfokus FOE (Focus of Extension) des Bildes nennt. Dieser Expansionsfokus definiert auch einen Unendlichkeits- oder sich entfernenden Punkt und er entspricht einem Punkt, der der Bewegungsrichtung des Fahrzeugs auf der Fahrbahn direkt entgegengesetzt ist, wenn das Fahrzeug geradeaus fährt. Die beim Fahren des Fahrzeugs erhaltenen optischen Flussvektoren erstrecken sich in Radialrichtung von dem FOE. Die optischen Flussvektoren, die von einem anderen Fahrzeug ausgegeben wurden, das dem betreffenden Fahrzeug folgt oder auf einer angrenzenden Fahrspur fährt, enthalten die Information der Position und der relativen Geschwindigkeit des auf der benachbarten Fahrspur fahrenden Fahrzeugs. Wenn der optische Flussvektor lang ist und vom FOE wegzeigt, ist von einer großen Gefahr auszugehen.
Wenn der ermittelte optische Flussvektor lang ist und auf den FOE gerichtet ist, bestimmt eine herkömmliche Überwachungsvorrichtung, dass sich ein Objekt (nachfolgend einfach als herannahendes Fahrzeug bezeichnet) dem betreffenden Fahrzeug nähert und eine hohe Gefahr darstellt. Auf der Grundlage dieser Bestimmung wird eine die Gefahr anzeigende Warnung ausgegeben und das sich nähernde Fahrzeug auf einer Bildschirmanzeige angezeigt.
Im Stand der Technik ist auch eine Suchtechnik entsprechender Punkte bekannt, bei der zwei Kameras verwendet werden. Ein charakteristischer Punkt Pa eines Objektes wird durch eine Helligkeitsdifferenz zwischen benachbarten Pixeln auf dem von der Kamera aufgenommenen Bild ermittelt. Entsprechend diesem ermittelten charakteristischen Punkt Pa (nicht gezeigt) wird ein Punkt Pb (nicht gezeigt) von einer anderen Kamera aufgenommen. Die Position P des sich herannahenden Fahrzeugs wird mittels der Pixelkoordinaten von Pa und Pb nach vorbestimmten Zeitintervallen berechnet. Auf der Grundlage dieser Position des herannahenden Fahrzeugs wird dem Fahrer ein Warnsignal gegeben, durch das er auf die Anwesenheit des sich herannahenden Fahrzeugs aufmerksam gemacht werden soll. Auch in diesem Fall kann das sich herannahende Fahrzeug auf der Anzeigevorrichtung angezeigt werden.
Wie in Fig. 13 gezeigt, wird das herannahende Fahrzeug angezeigt, so dass seine charakteristischen Punkte R dem aufgenommenen Bild überlagert werden.
Die zu den vorbestimmten Zeitintervallen auf der Grundlage der Helligkeitsdifferenz gemäß obiger Beschreibung ermittelten charakteristischen Punkte des aufgenommenen Bildes mit einem sich in der Helligkeit konstant verändernden Hintergrund bewegen sich jedoch mit Bezug auf das herannahende Fahrzeug. Da eine Mehrzahl charakteristischer Punkte für ein einzelnes herannahendes Fahrzeug erzeugt werden, bewegt sich eine unbegrenzte Anzahl von Punkten auf dem Bild. Obwohl die Mehrzahl charakteristischer Punkte für ein einzelnes herannahendes Fahrzeug erzeugt werden, kann der Fahrer das herannahende Fahrzeug nicht in einem Blick auf seiner Anzeigevorrichtung erkennen, da die charakteristischen Punkte relativ zur Größe des herannahenden Fahrzeugs sehr klein sind.
Unter Beachtung dessen, dass die charakteristischen Punkte als Objektanhäufung für das einzelne herannahende Fahrzeug erzeugt werden, könnte man vorschlagen, einen Anzeige-Rahmen F' vorzusehen, der die Objektanhäufung bezüglich der charakteristischen Punkte eingrenzt (siehe Fig. 13). Da sich jedoch die Größe der Objektanhäufung des herannahenden Fahrzeugs gemäß einer Veränderung des Erscheinungsbildes der charakteristischen Punkte innerhalb eines Zeitablaufs verändert, kann der Fahrer das herannahende Fahrzeug nicht mit einem Blick erkennen.
Aufgabe der Erfindung ist es, eine Vorrichtung zur Umgebungs- Überwachung eines Fahrzeugs zu schaffen, mit der ein herannahendes Objekt leicht visuell erkannt wird, indem es unter Verwendung eines Anzeige-Rahmens eingegrenzt wird.
Zur Lösung obiger Aufgabe ist gemäß der Erfindung eine Vorrichtung zur Umgebungsüberwachung eines Fahrzeugs vorgesehen, die aufweist:
eine zum Aufnehmen eines Bildes auf einem Fahrzeug montierte Bildaufnahmevorrichtung;
eine Anzeigevorrichtung zum Anzeigen des aufgenommenen Bildes;
eine Ermittlungsvorrichtung für ein herannahendes Objekt zum Ermitteln einer Position des sich herannahenden Objektes auf der Grundlage zweier aufgenommener Bilder, die zu zwei Zeitpunkten aufgenommen wurden, die mit einer vorbestimmten zeitlichen Dauer auseinanderliegen;
eine Vorrichtung zum Setzen eines unbeweglichen Punktes auf dem ermittelten herannahenden Objekt;
eine Bilderzeugungsvorrichtung zum Erstellen eines Bildes mit Anzeigerahmen, der das herannahende Objekt mit Bezug auf den unbeweglichen Punkt eingrenzt; und
eine Überlagerungsvorrichtung zum Überlagern des Anzeigerahmen- Bildes mit dem aufgenommenen Bild.
Da das Anzeigerahmen-Bild mit dem das herannahende Objekt mit Bezug auf den unbeweglichen Punkt eingrenzenden Rahmen auf dem herannahenden Objekt vorgesehen ist, kann das von einem stetigen Anzeigerahmen eingegrenzte aufgenommene Bild angezeigt werden.
Bevorzugterweise weist die Vorrichtung zum Ermitteln des herannahenden Objektes eine Vorrichtung zum Extrahieren der charakteristischen Punkte oder einer Objektanhäufung aus einer Mehrzahl charakteristischer Punkte auf dem aufgenommenen Bild zu vorbestimmten Zeitintervallen auf, wobei die charakteristischen Punkte oder deren Objektanhäufung auf den beiden aufgenommenen Bildern dazu verwendet werden, die Position des sich herannahenden Objektes festzustellen; und die Vorrichtung zum Festlegen des unbeweglichen Punktes legt den unbeweglichen Punkt auf der Grundlage der Mehrzahl charakteristischer Punkte fest, die auf dem herannahenden Objekt erscheinen.
Da in dieser Konfiguration der unbewegliche Punkt auf die Positionen der Mehrzahl charakteristischer Punkte gesetzt ist, die an dem herannahenden Objekt erscheinen, kann der unbewegliche Punkt unter Verwendung der charakteristischen Punkte gesetzt werden, die extrahiert werden, um das herannahende Objekt auf dem aufgenommenen Bild zu ermitteln.
Bevorzugterweise weist die Vorrichtung zum Ermitteln eines herannahenden Objektes eine Vorrichtung zum Ermitteln einer Mehrzahl von Bewegungen desselben charakteristischen Punktes oder derselben Objektanhäufung charakteristischer Punkte auf den zwei aufgenommenen Bildern auf, so dass die Position des herannahenden Objektes auf dem aufgenommenen Bild auf der Grundlage der ermittelten Bewegungen festgestellt wird.
Nach dieser Konfiguration kann das herannahende Objekt durch eine einzige Bildaufnahmevorrichtung ermittelt werden.
Bevorzugterweise setzt die Vorrichtung zum Setzen des unbeweglichen Punktes einen Mittelpunkt oder ein Massenschwerpunkts aus einer Mehrzahl von charakteristischen Punkten, die auf dem herannahenden Objekt erscheinen.
Da hier die durchschnittliche Position der Mehrzahl charakteristischer Punkte als unbeweglicher Punkt gesetzt werden kann, wird gemäß dieser Konfiguration, selbst wenn sich die zu vorbestimmten Zeitintervallen extrahierten charakteristischen Punkte verändern, diese Veränderung aufgehoben, um einen im Wesentlichen unbeweglichen Punkt für das herannahende Objekt vorzusehen.
Die Umgebungs-Überwachungsvorrichtung weist überdies vorteilhafterweise auf: eine Vorrichtung zum Ermitteln weißer Linien, um das aufgenommene Bild auf ein Paar weißer Linien zu untersuchen, die an beiden Seiten der Fahrbahn vorliegen; und eine Vorrichtung zum Festlegen von Bereichen linker und rechter angrenzender Fahrbahnen auf der Grundlage der Position obiger weißer Linien. Die Vorrichtung zum Setzen des unbeweglichen Punktes umfasst eine Vorrichtung zum Setzen einer geschätzten Ortskurve des unbeweglichen Punktes auf dem herannahenden Objekt innerhalb der linken und rechten angrenzenden Fahrbahnregion, die eine unbewegliche Vertikallinie auf dem herannahenden Objekt auf der Grundlage der horizontalen Positionen der charakteristischen Punkte festlegt, die in jeder Region des linken und rechten benachbarten Fahrbahnbereichs ermittelt wurden, und sie setzt den Kreuzungspunkt der unbeweglichen Vertikallinie mit der geschätzten Ortskurve des unbeweglichen Punktes.
Wenn das herannahende Objekt auf dem aufgenommenen Bild vertikale Schwingungen ausführt, weil es auf einer unebenen Straße fährt, kann der unbewegliche Punkt nach dieser Konfiguration auf der Grundlage von lediglich den Horizontalpositionen der charakteristischen Punkte in der linken oder der rechten angrenzenden Fahrbahnregion gesetzt werden. Somit vibriert der Anzeigerahmen nicht synchron mit der Vertikalvibration des herannahenden Objektes.
Die Bilderzeugungsvorrichtung schafft vorzugsweise einen Anzeigerahmen mit einer Größe, die der Position des unbeweglichen Punktes auf dem aufgenommenen Bild entspricht. Somit kann das Anzeige-Rahmen-Bild entsprechend der Größe des herannahenden Objektes erzeugt werden.
Die Umgebungs-Überwachungsvorrichtung für ein Fahrzeug weist überdies vorteilhafterweise auf:
eine Vorrichtung zum Ermitteln weißer Linien, um auf dem aufgenommenen Bild ein Paar weiße Linien zu ermitteln, die auf beiden Seiten der Fahrbahn angeordnet sind; und eine Vorrichtung zum Setzten einer Region eines linken und rechten angrenzenden Fahrbahnbereiches auf der Grundlage der Position der weißen Linien. Die Bilderzeugungsvorrichtung schafft ein vergrößertes Anzeige-Rahmen-Bild relativ zur Horizontalposition des unbeweglichen Punktes auf dem herannahenden Objekt, das sich in der linken oder rechten angrenzenden Fahrbahnregion dem linken oder rechten Ende des aufgenommenen Bildes annähert.
Gemäß dieser Konfiguration kann das herannahende Objekt in dem Anzeige-Rahmen-Bild eingegrenzt sein, dessen Größe genau der Größe des herannahenden Objektes entspricht.
Die Umgebungs-Überwachungsvorrichtung für ein Fahrzeug weist vorteilhafterweise auf:
eine Vorrichtung zum Ermitteln weißer Linien, um auf dem aufgenommenen Bild weiße Linien zu ermitteln, die auf beiden Seiten der Fahrbahn vorliegen;
eine Vorrichtung zum Setzen einer Region von einem linken und einem rechten angrenzenden Fahrbahnbereich auf der Grundlage der Positionen der weißen Linien. Die Bilderzeugungsvorrichtung schafft ein vergrößertes Anzeige-Rahmen-Bild relativ zur Vertikalposition des unbeweglichen Punktes auf dem herannahenden Objekt, das in einem Bereich der Fahrbahn ermittelt wurde und sich dem unteren Ende des aufgenommenen Bildes annähert.
Gemäß dieser Konfiguration kann das herannahende Objekt von dem Anzeige-Rahmen-Bild eingegrenzt sein, dessen Größe genau der Größe des herannahenden Objektes entspricht.
Die Bilderzeugungsvorrichtung schafft bevorzugterweise ein vorläufiges Anzeige-Rahmen-Bild mit Bezug auf den zuvor gesetzten unbeweglichen Punkt, wenn das herannahende Objekt noch nicht ermittelt worden ist, und die Vorrichtung zur Überlagerung überlagert das vorläufige Anzeige-Rahmen-Bild mit dem aufgenommenen Bild für eine vorbestimmte Zeit.
Selbst wenn die charakteristischen Punkte nicht extrahiert und ein Ermitteln des herannahenden Objektes unterbrochen wird, kann nach dieser Konfiguration der Anzeigerahmen des herannahenden Objektes kontinuierlich angezeigt werden.
Die Erfindung wird nun nachfolgend mit Bezug auf die beigefügte Zeichnung näher beschrieben. In dieser zeigen:
Fig. 1 ein Grundschaltbild eines Umgebungs- Überwachungssystems für ein Fahrzeug gemäß der Erfindung;
Fig. 2 ein Blockschaltbild einer erfindungsgemäßen Ausführungsform des Umgebungs-Überwachungssystems;
Fig. 3 ein das Verarbeitungsverfahren einer CPU der in Fig. 2 gezeigten Umgebungs-Überwachungsvorrichtung darstellendes Fließbild;
Fig. 4 ein von einer Kamera aufgenommenes Bild;
Fig. 5 ein durch ein Extrahierverfahren charakteristischer Punkte von dem aufgenommenen Bild differenziertes Bild;
Fig. 6 eine die Arbeitsweise zur Ermittlung von weißen Linien erklärende Darstellung;
Fig. 7 eine die Arbeitsweise zum Setzen von Regionen erklärende Darstellung;
Fig. 8A und 8B die Arbeitsweise zur Ermittlung optischer Flussvektoren;
Fig. 9 eine das Verfahren zur Ermittlung eines herannahenden Objektes erläuternde Darstellung;
Fig. 10 auf der Bildanzeige angezeigtes Bild;
Fig. 11 eine die Arbeitsweise zum Setzen eines unbeweglichen Punktes erläuternde Darstellung;
Fig. 12A bis 12D Ansichten zur Veranschaulichung von Veränderungen in dem von der Kamera aufgenommenen Bild; und
Fig. 13 eine Ansicht zum Erläutern der Arbeitsweise einer Anzeigevorrichtung für ein herannahendes Objekt nach dem Stand der Technik.
Nachfolgend werden nun verschiedene Ausführungsformen der Erfindung erläutert.
Ausführungsform 1
Fig. 2 zeigt ein Blockschaltbild einer erfindungsgemäßen Ausführungsform eines Umgebungs-Überwachungssystems. Wie in Fig. 2 gezeigt, dient eine Kamera als eine Bildaufnahmevorrichtung, die an einer Position eines Fahrzeuges angeordnet ist, an der die Aufnahme der Umgebung des Fahrzeuges möglich ist. Die Kamera 1 fokussiert ein Bild über einen Blickwinkel, der durch eine Linse 1a auf der Bildebene 1b definiert ist.
Ein Speicherabschnitt 2 weist einen ersten Rahmen-Speicher 2a, einen zweiten Rahmen-Speicher 2b, einen Differenzialrahmen- Speicher 2c und einen "divergierenden optischen Fluss"-Speicher 2d auf. Der erste und der zweite Rahmen-Speicher 2a und 2b speichern zeitlich gemäß D2 und D3 die Pixel in einer m-n- Matrix (z. B. 512 × 512 Pixel mit einer Luminanz von 0-255 Einheiten), die aus den auf der Bildebene 1b der Kamera 1 aufgenommenen Bilddaten D1 konvertiert sind, und die dann an einen Mikrocomputer 5 weitergegeben wird.
Der erste Rahmen-Speicher 2a und der zweite Rahmen-Speicher 2b speichern nacheinander die m-n-Pixeldaten D2 und D3, die von dem aufgenommenen Bild in vorbestimmten Zeitintervallen Δt konvertiert wurden, so dass sie zu einem Zeitpunkt t in dem ersten Rahmen-Speicher 2a gespeichert sind, in dem zweiten Rahmen-Speicher 2b zum Zeitpunkt t+Δt, u. s. w.
Der Differenzialbild-Speicher 2c speichert die differenzierten Bilddaten D4, die durch Differenzieren der Pixeldaten D2 und D3 erhalten werden. Der Speicher 2d des divergierenden optischen Flusses speichert optische Flusvektor-Daten D5 in einer divergierenden Richtung und führt diese an den Mikrocomputer 5.
Der Mikrocomputer 5 ist an einem Fahrtrichtungsmesschalter 4 angeschlossen. Der Fahrtrichtungsmesschalter, der mit einem Fahrtrichtungsmechanismus des Fahrzeugs verbunden ist, liefert ein Fahrtrichtungswechselsignal S1, um Instruktionsinformationen S1 von dem Fahrtrichtungsmechanismus an den Mikrocomputer 5 zu geben. Der Fahrtrichtungsmechanismus arbeitet, wenn das Fahrzeug durch einen Fahrer nach rechts oder nach links gelenkt wird.
Der Warnsignalabschnitt 4 hat einen Lautsprecher 4a und eine Anzeigevorrichtung 4b. Die Anzeigevorrichtung 4b gibt das aufgenommene Bild wieder oder zeigt das Bild des herannahenden Fahrzeugs an, das durch einen Anzeigerahmen auf dem aufgenommenen Bild eingegrenzt ist, wenn entschieden wurde, dass eine Gefahr besteht, mit einem anderen Fahrzeug zu kollidieren, das sich dem betreffenden Fahrzeug abrupt angenähert hat, wobei der Fahrer durch ein Bild über die Gefahr informiert wird. Der Lautsprecher 5a gibt ein Warnsignal wieder, d. h. er erzeugt eine hörbare Anweisung oder warnt auf der Grundlage eines Schallsignals S2, das von dem Mikrocomputer 5 erzeugt wird, wenn entschieden wurde, dass eine Gefahr aufgrund einer Kollision oder eines Kontaktes mit einem anderen Fahrzeug besteht.
Der Mikrocomputer 5 hat eine CPU 5a, die gemäß einem Steuerprogramm arbeitet, ein ROM 5b zum Speichern des Steuerprogramms für die CPU 5a und vorbestimmter Werte, und ein RAM 5c zum temporären Speichern von Daten, die zum Ausführen des Bearbeitungsprozesses der CPU 5a erforderlich sind.
Nachfolgend wird die Arbeitsweise eines Umgebungs- Überwachungssystems mit oben beschriebener Konfiguration erläutert. Zunächst nimmt die CPU 5a das in Fig. 4 gezeigte Bild in Form von Bilddaten D1 mit der Kamera 1 auf. Die CPU 5a veranlasst, die Pixeldaten D2 entsprechend der aufgenommenen Bilddaten D1 in dem ersten Rahmen-Speicher 2a zu speichern (Schritt S1). Das aufgenommene Bild besteht aus einer Straße 10, weißen Linien, die auf der Straße 10 aufgezeichnet sind, und Wänden, die sich auf beiden Seiten der Straße 10 nach oben erstrecken, welche Bestandteile an einem Zentralpunkt in einer Horizontalrichtung auf dem Bild verschwinden.
Da die Kamera 1 nach obiger Beschreibung an der rückwärtigen Seite des Fahrzeugendes angeordnet ist, entspricht deren rechte Seite der linken Fahrtrichtungsseite, wobei die linke Seite der Kamera der rechten Fahrtrichtungsseite entspricht.
Die CPU 5a veranlasst, die Pixeldaten D3 des zu einem Zeitpunkt t+Δt aufgenommenen Bildes in dem zweiten Rahmen-Speicher 2b zu speichern (Schritt S2). Somit sind die Pixeldaten D2 und D3 der in vorbestimmten Intervallen aufgenommenen Bildern nacheinander in dem ersten und in dem zweiten Rahmen-Speicher 2a, 2b gespeichert.
Die CPU 5a führt eine Verarbeitung der Daten zum Extrahieren der charakteristischen Punkte (Schritt S3) aus, wie das später beschrieben wird. Durch den Verarbeitungsprozess mittels der CPU 5a werden Pixeldaten D2 mit einer Luminanz Im,n für die Pixel der m-ten Reihe und n-ten Reihe horizontal in Fig. 4 gescannt oder abgetastet, so dass eine Differenz in der Luminanz (Im,n+1 - Im,n) zwischen dem entsprechenden Pixel und dem angrenzenden Pixel erhalten wird. Wenn deren Wert größer als ein vorbestimmter Wert ist, wird eine Luminanz von Im,n = 1 angenommen. Wenn deren Wert kleiner als ein vorbestimmter Wert ist, wird eine Luminanz von Im,n = 0 angenommen. Die Pixeldaten D2 werden auf gleiche Weise vertikal gescannt. Auf diese Weise wird ein differenziertes Bild erzeugt (siehe Fig. 5), das sich lediglich aus den charakteristischen Punkten zusammensetzt, die die Kontur des annähernden Fahrzeugs auf dem aufgenommenen Bild nach Fig. 5 darstellen. In diesem Fall werden die Pixel mit einer jeweiligen Luminanz von "1" als die charakteristischen Punkte extrahiert. Die aus diesem differenzierten Bild gewonnenen differenzierten Bilddaten D4 werden einem Differntialbild-Speicher 2c zugeführt. Im Schritt S3 dient die CPU 5a als Vorrichtung zum Extrahieren der charakteristischen Punkte für die Vorrichtung zum Ermitteln des herannahenden Objektes.
Nachfolgend führt die CPU 5a das Verfahren zum Ermitteln weißer Linien (Schritt S4) aus, das nachfolgend beschrieben wird. Zunächst wird eine Referenzlinie VSL gemäß Fig. 6 in das differenzierte Bild gesetzt. Die Referenzlinie VSL ist so gesetzt, dass sie auf dem differenzierten Bild durch den Mittelpunkt einer Horizontallinie vertikal verläuft. Das heißt, dass die Referenzlinie VSL in das Zentrum der Horizontallinie derjenigen Fahrbahn gesetzt ist, auf der das Fahrzeug fährt und die durch die weißen Linien 12, 13 geschnitten ist.
Nach dem Setzen der Referenzlinie VSL wird ein Suchvorgang der charakteristischen Punkte eines Paars aus weißen Linien 12 und 13 ausgeführt, die an beiden Seiten der betreffenden Fahrbahn vorliegen. Der Suchvorgang der charakteristischen Punkte der weißen Linien 12 und 13 wird von einer Horizontallinie H(LO) nach oben hin ausgeführt, die am unteren Rand des in Fig. 6 gezeigten Bildschirms angeordnet ist. Die charakteristischen Punkte werden von dem untersten Ende P(SO) auf der Referenzlinie VSL in Richtung beider Enden der Horizontallinie gesucht. Somit wird der den Rand der weißen Linie 12 bildende charakteristische Punkt P(LO) und der den Rand der weißen Linie 13 bildende charakteristische Punkt P(RO) erhalten, die jeweils auf der linken Seite und der rechten Seite der Referenzlinie VSL liegen.
Nachfolgend werden die charakteristischen Punkte von dem Punkt PS1, der an dem zweiten Punkt vom untersten Ende aus angeordnet ist, in Richtung beider Enden der Horizontallinie gesucht. Somit werden die charakteristischen Punkte P(L1) der weißen Linie 12 und P(R1) der weißen Linie 13 erhalten, die jeweils auf der linken Seite und der rechten Seite der Referenzlinie liegen.
Dieser Prozess wird in sukzessiver Weise zum Ermitteln der charakteristischen Punkte auf dem differenzierten Bild ausgeführt. Somit werden die charakteristischen Punkte P(L(m+2)). P(R(m+2)), P(L(m+2)), P(R(m+2)) des dem betreffenden Fahrzeug folgenden Fahrzeugs ermittelt, so dass nur die charakteristischen Punkte auf derselben Linie weiter extrahiert werden. Im Ergebnis werden nur die charakteristischen Punkte des Paars weißer Linien verfolgt, die auf beiden Seiten derjenigen Fahrbahn verlaufen, auf der das Fahrzeug fährt.
Näherungsweise ermittelte Linie werden durch die extrahierten charakteristischen Punkte durch das Gesetz der kleinsten Quadrate erzeugt und als die weißen Linien 12 und 13 ermittelt. Folglich kann die CPU 5a als Vorrichtung zur Erkennung weißer Linien arbeiten.
Die CPU 5a verlängert die angenommenen Linien, um den Kreuzungspunkt als den FOE zu setzen (FOE-Verfahrensschritt: Schritt S5). Bei dem FOE-Verfahrensschritt kann die CPU 5a als Vorrichtung zum Setzen des FOEs arbeiten. In ähnlicher Weise werden die Pixeldaten D3 des nach der Zeitspanne Δt aufgenommenen Bildes einem Extrahierverfahren der charakteristischen Punkte, einem Extrahierverfahren für weiße Linien und einen FOE-Setzverfahren unterzogen.
Nachfolgend führt die CPU 5a einen Verarbeitungsschritt (Schritt S6) zum Setzen von Regionen aus, der nachfolgend erläutert wird. Zunächst dienen die in Schritt S5 gesetzten weißen Linien 12 und 13 und der gesetzte FOE als Grundlage. Wie in Fig. 7 gezeigt, wird eine rechte obere Endlinie HUR, die eine sich in eine Horizontalrichtung von dem FOE nach rechts erstreckende Grenzlinie ist, und eine linke obere Endlinie HUL gesetzt, die eine sich in der Horizontalrichtung von dem FOE nach linkes erstreckende Grenzlinie ist. Unter Verwendung dieser rechten oberen Endlinie HUR, der linken oberen Endlinie HUL, und der weißen Linien 12 (OL) und 13 (OR) wird eine angrenzende rechte Fahrbahnregion SV(R) der betreffenden Fahrbahn SV(S) und eine angrenzende linke Fahrbahnregion SV(L) bestimmt. In Schritt S6 kann die CPU 5a als Vorrichtung zum Bestimmen der Regionen arbeiten.
Nachfolgend führt die CPU 5a ein Ermittlungsprozess eines optischen Flussvektors zum Aufnehmen der Fahrtrichtungsänderungs-Information S1 aus, die von der Fahrtrichtungsmesseinheit 3 erzeugt wird, um den optischen Fluss für die Region entsprechend der Fahrtrichtungsänderungs- Information S1 zu ermitteln. Insbesondere dann, wenn die Fahrtrichtungsänderungs-Information S1 den Wunsch eines Fahrbahnwechsels auf die rechte angrenzende Fahrbahn anzeigt, wird der optische Fluss für die rechte angrenzende Fahrbahnregion SV(R) ermittelt. Wenn die obige Information den Wunsch eines Fahrbahnwechsels zur linken angrenzende Fahrbahn darstellt, wird der optische Fluss für die linke angrenzende Fahrbahnregion SV(L) ermittelt. Ergibt obige Information, dass die Fahrbahn nicht gewechselt wird, wird der optische Fluss für die betreffende Fahrbahnregion SV(S) ermittelt.
Mit Bezug auf Fig. 8 wird nun das Verfahren zum Ermitteln des optischen Flusses erläutert.
Zunächst werden die Pixeldaten D2 von dem ersten Rahmen- Speicher 2a erhalten und auf dem zu einem Zeitpunkt t aufgenommenen Bild wird ein kleines Fenster um einen bestimmten charakteristischen Punkte P in einer Radialrichtung des nach obiger Beschreibung gesetzten FOE gesetzt (das heißt in der Richtung der Verbindung des FOE1 zu dem charakteristischem Punkt P). Nachfolgend werden die Pixeldaten D3 von dem zweiten Rahmen-Speicher 2b aufgenommen und auf dem zu dem Zeitpunkt t+Δt aufgenommenen Bild wird während einem Verschieben des Fensters Punkt um Punkt in der Radialrichtung von dem FOE aus der Absolutwert der Luminanzdifferenz zwischen jedem der Pixel berechnet, die das Fenster zum Zeitpunkt t bilden und jedem entsprechenden Pixel, die zusammen das Fenster zum Zeitpunkt t+Δt bilden.
Das heißt, dass der Absolutwert der Luminanzdifferenz zwischen dem charakteristischen Punkt P im Zeitpunkt t (Fig. 8A) und dem charakteristischen Punkt Q zum Zeitpunkt t+Δt berechnet wird. Der Grad der Bewegung des Fensters während einer derartigen Berechnung der Luminanzdifferenzen wird als der optische Flussvektor des charakteristischen Punktes t genommen. Obiger Vorgang wird für alle charakteristischen Punkte gemäß der Fahrtrichtungsänderungs-Information S1 wiederholt, wodurch die optischen Flussvektoren innerhalb der Region erstellt werden. Zur Ermittlung der weißen Linie kann in Schritt S7 die CPU 5a als Vorrichtung zur Feststellung des Bewegungsgrades fungieren.
Mit Bezug auf die Fig. 8A und 8 ist wird betont, dass obwohl der Bewegungsgrad des einzelnen charakteristischen Punktes als der optische Fluss bestimmt wurde, der Bewegungsgrad einer Gruppe aus einer Mehrzahl charakteristischer Punkte als der optische Flussvektor genommen werden kann.
Nachfolgend bestimmt die CPU 5a, ob sich auf der Grundlage der in Schritt S7 erhaltenen optischen Flussvektoren ein Objekt, wie beispielsweise ein anderes Fahrzeug, annähert (S8). Wenn der optische Fluss in Richtung des FOE konvergiert, bedeutet dass, dass ein anderes Fahrzeug auf der benachbarten Fahrbahn oder dem Fahrzeug auf derselben Fahrbahn folgend mit einer geringeren Geschwindigkeit fährt, und sich daher dem Fahrzeug nicht annähert. Divergiert demgegenüber der optische Fluss von dem FOE, bedeutet das, dass sich das Objekt dem betreffenden Fahrzeug annähert.
Die optischen Flussvektoren, die durch die umliegende Landschaft in dem aufgenommenen Bild erzeugt wurden oder Markierungen auf der Fahrbahn darstellen, konvergieren alle zum FOE. So können diese Objekte verglichen mit dem anderen Fahrzeug ausgesondert werden, das sich auf einer angrenzenden Fahrbahn oder dem betreffenden Fahrzeug folgend annähert. Die Länge des optischen Flusses, der von dem anderen herannahenden Fahrzeug aufgenommen wird, ist proportional zu seiner Geschwindigkeit dem betreffenden Fahrzeug gegenüber. Wenn die Länge des optischen Flusses, der von dem FOE divergiert, eine vorbestimmte Länge überschreitet, wird bestimmt, dass das andere Fahrzeug sich abrupt dem betreffenden Fahrzeug annähert ("ja" in Schritt S8). Um den Fahrer von diesem Tatbestand zu informieren, wird ein Warnsignal "Annäherung eines Fahrzeuges!" durch beispielsweise einen Lautsprecher 5a ausgegeben (Schritt S9).
Nachfolgend wird das Verfahren zum Ermitteln eines herannahenden Objektes auf der Grundlage der in Schritt S7 ermittelten optischen Flussvektoren ausgeführt (Schritt S10). In diesem Verfahrensschritt wird die Position des herannahenden Objektes auf dem aufgenommenen Bild ermittelt. Mit Bezug auf Fig. 9 wird nachfolgend der Verfahrensschritt zur Ermittlung des herannahenden Objektes erläutert. Die Erläuterung bezieht sich dabei auf den Fall, bei dem die Fahrtrichtungsänderungs- Information S1 den Wunsch eines Fahrbahnwechsels auf die rechte angrenzende Fahrbahn anzeigt, das heißt wo die optischen Flussvektoren nur für die rechte angrenzende Fahrbahnregion ermittelt werden.
Wie in Fig. 9 gezeigt, werden charakteristische Punkte ermittelt, die den optischen Fluss bilden, der eine vorbestimmte Länge überschreitet. Wie das gezeigt ist, kann eine große Anzahl charakteristischer Punkte für ein einzelnes sich annäherndes Fahrzeug als Objektanhäufung mit einer bestimmten Größe ermittelt werden. Auf dieser Grundlage können Objektanhäufungen von charakteristischen Punkten ermittelt werden. Liegt nur eine einzelne Objektanhäufung von charakteristischen Punkten vor, bedeutet das, dass ein weiteres einzelnes annäherndes Fahrzeug vorliegt. Liegen zwei Objektanhäufungen charakteristischer Punkte vor, bedeutet das, dass zwei annähernde Fahrzeuge vorliegen. Es kann bestimmt werden, dass das annähernde Fahrzeug innerhalb eines Bereiches aufgenommen worden ist, in dem die Objektanhäufung(en) vorlieg(t)(en).
Im Folgenden wird nun das Verfahren zum Ermitteln der Objektanhäufung charakteristischer Punkte erläutert. Zunächst extrahiert die CPU 5a die Reihen und Spalten, in denen die charakteristischen Punkte in dem aufgenommenen Bild vorliegen. Auf der Grundlage des Abstands zwischen den extrahierten Reihen wird eine Reihenanhäufung (s) ermittelt. In gleicher Weise wird eine Spaltenanhäufung (s) ermittelt. In Fig. 9 wurden Reihenanhäufungen C1 und C2 und Spaltenanhäufungen C3 und C4 ermittelt. Die Bereiche R1, R2, R3 und R4 werden durch Überschneidung der jeweiligen Spaltenanhäufungen miteinander ermittelt. Überdies ist bestimmt, dass ein herannahendes Objekt in jedem dieser Bereiche R1 und R3 aufgenommen worden ist, in welchen Bereichen die charakteristischen Punkte gegenwärtig vorliegen. In dem Schritt der Ermittlung des herannahenden Objektes fungiert die CPU 5a als eine Vorrichtung zum Ermitteln eines herannahenden Objektes.
Nachfolgend führt die CPU 5a einen Verarbeitungsschritt zum Setzen eines unbeweglichen Punktes auf dem herannahenden Objekt aus, das auf der Grundlage der Positionen der charakteristischen Punkte innerhalb der Regionen R1 und R3 (Schritt S11) basiert. Beispielsweise wird der Mittelpunkt oder der Schwerpunkt als unbeweglicher Punkt auf dem herannahenden Objekt gesetzt. Der Mittelpunkt oder der Schwerpunkt stellt einen durchschnittlichen Punkt der Positionen der charakteristischen Punkte dar. So wird selbst dann, wenn eine Veränderung der charakteristischen Punkte vorliegt, die gemäß einer zeitlichen Verschiebung extrahiert wurden, die Veränderung aufgehoben, so dass derjenige Punkt erhalten werden kann, der einen nahezu unbeweglichen Punkt des herannahenden Objektes ist. Im Schritt S11 zum Setzen des unbeweglichen Punktes arbeitet die CPU 5a als eine Vorrichtung zum Setzen eines unbeweglichen Punktes.
Nachfolgend führt die CPU 5a den Bilderzeugungs- Verfahrensschritt zum Erzeugen eines Anzeige-Rahmen-Bildes um den nach obigem Verfahren erhaltenen unbeweglichen Punkt aus, welcher Rahmen das herannahende Objekt in dem aufgenommenen Bild eingrenzt (Schritt S12). Der Bilderzeugungs- Verfahrensschritt für die linke und rechte angrenzende Fahrbahnregion wird nun nachfolgend erläutert (Schritt S12). Auf dem aufgenommenen Bild ist nach Fig. 4 zu sehen, dass das auf der linken oder rechten angrenzenden Fahrbahn fahrende Fahrzeug sich dem linken oder rechten Ende des Bildes beim Annähern an das betreffende Fahrzeug nähert. Mit dem Herannahen des Objektes wird es mit zunehmender Größe aufgenommen.
Unter Beachtung des obigen Tatbestandes wird mit einer Annäherung des unbeweglichen Punktes in der Horizontalrichtung auf dem herannahenden Objekt zum linken oder rechten Ende der Anzeigerahmen vergrößert und das Anzeige-Rahmen-Bild um den unbeweglichen Punkt erzeugt. Somit kann der Anzeigerahmen mit der Größe des herannahenden Objektes auf dem aufgenommenen Bild synchron vergrößert werden. Deshalb kann auch in der linken oder rechten angrenzenden Fahrbahnregion die Sicht des herannahenden Objektes weiter verbessert sein.
Nachfolgend wird nun der Bilderzeugungsverfahrensschritt für die betreffende Fahrbahn erläutert. Auf dem aufgenommenen Bild folgt dem betreffenden Fahrzeug ein weiteres Fahrzeug auf derselben Fahrbahn und nähert sich dem unteren Ende des aufgenommenen Bildes an, wenn es sich dem betreffenden Fahrzeug (nicht gezeigt) annähert. Das herannahende Objekt wird dabei mit zunehmender Größe aufgenommen, wenn es sich dem betreffenden Fahrzeug annähert.
Diesbezüglich vergrößert sich mit dem Herannahen des unbeweglichen Punktes auf dem herannahenden Objekt in Vertikalrichtung an das untere Ende des aufgenommenen Bildes der Anzeigerahmen und das Anzeige-Rahmen-Bild um den unbeweglichen Punkt wird erzeugt. Somit kann der Anzeigerahmen mit der Größe des herannahenden Objektes auf dem aufgenommenen Bild synchron vergrößert werden.
Überdies führt die CPU 5a einen Verfahrensschritt zur Überlagerung des mithilfe des Bilderzeugungsprozesses geschaffenen Anzeige-Rahmen-Bildes mit dem aufgenommenen Bild aus (Schritt S13). In diesem Schritt arbeitet die CPU 5a als Überlagerungsvorrichtung, die auf der Anzeige 4b das Bild anzeigen kann, in dem das herannahende Fahrzeug auf dem aufgenommenen Bild durch einen Anzeigerahmen F11 um einen unbeweglichen Punkt D1 eingegrenzt ist.
Nach dem Verfahrensschritt der Überlagerung kehrt das Verfahren zu Schritt S2 zurück.
Wenn die Anwesenheit des herannahenden Objektes nicht in Schritt S8 ermittelt wurde ("NEIN" in Schritt S8), wird bestimmt, ob eine vorbestimmte Zeit von dem Zeitpunkt an durchlaufen worden ist, in dem das herannahende Objekt zuvor erkannt worden ist ("NEIN" in Schritt S8). Wurde die vorbestimmte Zeit von dem Zeitpunkt aus, in dem das herannahende Objekt zuvor erkannt wurde, nicht durchlaufen ("NEIN" in Schritt S14), wird das im vorigen Schritt S12 erzeugte Anzeige-Rahmen-Bild als ein vorläufiges Anzeige- Rahmen-Bild gesetzt. Das Verfahren fährt dann mit Schritt S13 fort.
Im Verarbeitungsschritt von Schritt S15 wird das vorläufige Anzeige-Rahmen-Bild auf das aufgenommene Bild projiziert, bis die vorbestimmte Zeitdauer von dem Zeitpunkt an durchlaufen ist, in dem kein herannahendes Fahrzeug erkannt wurde. Deshalb wird selbst dann, wenn kein charakteristischer Punkt extrahiert wurde und die Ermittlung eines herannahenden Fahrzeugs unterbrochen wird, der Anzeigerahmen des herannahenden Fahrzeugs kontinuierlich angezeigt. Überdies kann in Schritt S15 der unbewegliche Punkt des gegenwärtigen herannahenden Objektes aufgrund des unbeweglichen Punktes geschätzt werden, der auf der Grundlage des vorigen Verfahrens zum Setzen eines unbeweglichen Punktes erhalten wird, um ein vorläufiges Anzeige-Rahmen-Bild hinsichtlich des geschätzten Rahmens zu schaffen.
Nach obiger Beschreibung kann das Bild mit dem durch einen stetigen Anzeigerahmen eingegrenzten herannahenden Objektes angezeigt werden, selbst wenn eine Mehrzahl charakteristischer Punkte, die auf dem herannahenden Objekt erscheinen, gemäß vorbestimmten Zeitabläufen variieren, da das Anzeige-Rahmen- Bild um den unbeweglichen Punkt auf dem herannahenden Objekt erzeugt wird.
Ausführungsform 2
Wenn das herannahende Fahrzeug auf einer unebenen Straße fährt, kann es vertikale Schwingungen ausführen. Deshalb vibriert das Anzeige-Rahmen-Bild vertikal in synchroner Weise mit der vertikalen Vibration des herannahenden Objektes, wenn, wie bei der ersten Ausführungsform, der Mittelpunkt oder der Schwerpunkt der charakteristischen Punkte als unbeweglicher Punkt gesetzt wird und das Anzeige-Rahmen-Bild um den unbeweglichen Punkt erzeugt wird. Wenn das Anzeige-Rahmen-Bild vertikal vibriert, ist der Anzeigerahmen schwer zu sehen, so dass es schwierig wird, das herannahende Fahrzeug zu erkennen. Um dieses Problem zu lösen, kann der Verfahrensschritt zum Setzen des unbeweglichen Punktes für die linke und rechte angrenzende Fahrbahnregion SV(L) und SV(R) folgendermaßen ausgeführt werden.
Wie in Fig. 11 gezeigt, wird zunächst eine unbewegliche Vertikallinie VUD auf dem herannahenden Fahrzeug unter Verwendung der Mehrzahl charakteristischer Punkte in der Horizontallinie gesetzt. Die unbewegliche Vertikallinie VUD kann beispielsweise eine durch den Mittelpunkt oder den Schwerpunkt der Mehrzahl charakteristischer Punkte verlaufende Vertikallinie sein.
Der Mittelpunkt oder Schwerpunkt ist ein gemittelter Punkt der charakteristischen Punkte in der Horizontalrichtung. Deshalb wird selbst dann, wenn sich die extrahierten charakteristischen Punkte verändern, diese Veränderung aufgehoben, so dass ein Punkt auf der unbeweglichen Vertikallinie VUD erhalten werden kann, die im Wesentlichen für das herannahende Objekt unbeweglich ist.
Nachfolgend wird eine geschätzte Ortskurve LE des unbeweglichen Punktes auf dem herannahenden Objekt, der in der linken oder rechten angrenzenden Fahrbahnregion SV(L) oder SV(R) ermittelt wurde, auf der Grundlage von beispielsweise der Position der weißen Linie oder der Position des FOE gesetzt. Der Kreuzungspunkt der unbeweglichen Vertikallinie VUD und der geschätzten Ortskurve LE wird als unbeweglicher Punkt D2 gesetzt. Ein Anzeige-Rahmen-Bild F2 wird um den unbeweglichen Punkt D2 erzeugt. Auf diese Weise vibriert der Anzeigerahmen nicht in der Vertikalrichtung mit der Vertikalvibration des herannahenden Fahrzeugs, da der unbewegliche Punkt auf der Grundlage von lediglich horizontalen Positionen der charakteristischen Punkte gesetzt ist, wodurch ein stetiges Anzeige-Rahmen-Bild auf dem aufgenommenen Bild erzeugt wird.
Obwohl gemäß der ersten Ausführungsform der Mittelpunkt oder der Schwerpunkt der Mehrzahl charakteristischer Punkte des herannahenden Fahrzeugs als unbeweglicher Punkt gesetzt wurde, kann beispielsweise im Falle eines kleinen vorbestimmten Zeitintervalls Δt die durchschnittliche Position der Mittelpunkte oder Schwerpunkte als unbeweglicher Punkt verwendet werden, welche Mittelpunkte oder Schwerpunkte mehrere Male in vorbestimmten Intervallen Δt berechnet werden.
In der ersten und zweiten Ausführungsform wurde das herannahende Fahrzeug durch Erfassen des Bewegungsgrades desselben charakteristischen Punktes in den zwei zu zwei verschiedenen Zeiten innerhalb eines vorbestimmten Zeitintervalls aufgenommenen Bildern ermittelt. Die Erfindung kann jedoch auch in dem Fall angewendet werden, wenn sie noch ein weiteres Fahrzeug dem herannahenden Fahrzeug annähert, wobei zwei Kameras verwendet werden. Es ist jedoch zu beachten, dass dann die Kosten höher sind, wenn zwei Kameras verwendet werden.

Claims (9)

1. Vorrichtung zur Umgebungsüberwachung eines Fahrzeugs, aufweisend: eine an dem Fahrzeug befestigte Bildaufnahmevorrichtung zum Aufnehmen einer Umgebung des betreffenden Fahrzeuges;
eine Anzeigevorrichtung (4b) zum Anzeigen des aufgenommenen Bildes;
eine Vorrichtung zum Ermitteln einer Position eines sich an das betreffende Fahrzeug annähernden Objektes auf der Grundlage zweier aufgenommener Bilder, die in einem vorbestimmten zeitlichen Abstand aufgenommen wurden;
eine Vorrichtung zum Setzen eines unbeweglichen Punktes auf dem ermittelten herannahenden Objekt;
eine Bilderzeugungsvorrichtung zur Erzeugung eines Anzeige- Rahmen-Bildes, bei dem das herannahende Objekt mit Bezug auf den unbeweglichen Punkt eingegrenzt ist; und
eine Vorrichtung zum Überlagern des Anzeige-Rahmen-Bildes mit dem aufgenommenen Bild.
2. Vorrichtung nach Anspruch 1, wobei die Vorrichtung zur Ermittlung des herannahenden Objektes eine Vorrichtung zum Extrahieren eines charakteristischen Punktes (P(SO), P(LO), P(LO), P(L1), P(R1)) oder einer Anhäufung einer Mehrzahl charakteristischer Punkte auf dem aufgenommenen Bild zu vorbestimmten Zeitintervallen aufweist, wobei die charakteristischen Punkte oder deren Anhäufung auf den zwei aufgenommenen Bildern dazu verwendet werden, die Position des herannahenden Objektes zu ermitteln, und wobei die Vorrichtung zum Setzen des unbeweglichen Punktes den unbeweglichen Punkt auf der Grundlage der Mehrzahl charakteristischer Punkte (P(SO), P(LO), P(LO), P(L1), P(R1)) setzt, die auf dem herannahenden Objekt erscheinen.
3. Vorrichtung nach Anspruch 1, wobei die Vorrichtung zum Ermitteln des herannahenden Objektes eine Vorrichtung zum Ermitteln eines Bewegungsgrades desselben charakteristischen Punktes (P(SO), P(LO), P(LO), P(L1), P(R1)) oder derselben Anhäufung charakteristischer Punkte auf den zwei aufgenommenen Bildern aufweist, so dass die Position des herannahenden Objektes auf dem aufgenommenen Bild auf der Grundlage des ermittelten Bewegungsgrades ermittelt wird.
4. Vorrichtung nach Anspruch 2 oder 3, wobei die Vorrichtung zum Setzen des unbeweglichen Punktes einen Mittelpunkt oder Schwerpunkt der Mehrzahl charakteristischer Punkte (P(SO), P(LO), P(LO), P(L1), P(R1)) die auf dem herannahenden Objekt erscheinen, als den unbeweglichen Punkt setzt.
5. Vorrichtung nach Anspruch 2 oder 3, die überdies eine Vorrichtung zum Ermitteln einer weißen Linie (12, 13), welche Vorrichtung das aufgenommene Bild verarbeitet, um ein Paar weißer Linien (12, 13) zu ermitteln, die auf beiden Seiten der betreffenden Fahrbahn vorliegen und eine Vorrichtung zum Setzen einer Region (SV(R), SV(L)) in der linken und rechten angrenzenden Fahrbahn auf der Grundlage der Position der weißen Linien (12, 13) aufweist, wobei die Vorrichtung zum Setzen des unbeweglichen Punktes eine Vorrichtung zum Erzeugen einer geschätzten Ortskurve des unbeweglichen Punktes auf dem herannahenden Objekt innerhalb der linken und rechten angrenzenden Fahrbahnregion aufweist, welche Vorrichtung eine unbewegliche Vertikallinie (V(UD)) auf dem herannahenden Objekt auf der Grundlage der horizontalen Positionen der charakteristischen Punkte (P(SO), P(LO), P(LO), P(L1), P(R1)) setzt, die in der linken und rechten angrenzenden Fahrbahnregion ermittelt wurden, und die den Kreuzungspunkt der unbeweglichen Vertikallinie (V(UD)) mit der geschätzten Ortskurve des unbeweglichen Punktes setzt.
6. Vorrichtung nach Anspruch 1, wobei die Bilderzeugungsvorrichtung einen Anzeigerahmen erzeugt, der eine Größe entsprechend der Position des unbeweglichen Punktes auf dem aufgenommenen Bild hat.
7. Vorrichtung nach Anspruch 6, die überdies aufweist: eine Vorrichtung zum Ermitteln einer weißen Linie (12, 13), welche Vorrichtung das aufgenommene Bild verarbeitet, um ein Paar weißer Linien (12, 13) zu ermitteln, die auf beiden Seiten der betreffenden Fahrbahn vorliegen; und eine Vorrichtung zum Setzen einer Region (SV(R), SV(L)) in der linken und rechten angrenzenden Fahrbahn auf der Grundlage der Position der weißen Linien (12, 13), wobei die Bilderzeugungsvorrichtung ein vergrößertes Anzeige-Rahmen-Bild schafft, entsprechend so, wie sich die Horizontalposition des unbeweglichen Punktes auf dem herannahenden Objekt, das in der linken oder rechten angrenzenden Fahrbahnregion ermittelt wurde, dem linken oder rechten Ende des aufgenommenen Bildes annähert.
8. Vorrichtung nach Anspruch 6, die überdies aufweist: eine Vorrichtung zum Ermitteln einer weißen Linie (12, 13), welche Vorrichtung das aufgenommene Bild verarbeitet, um ein Paar weißer Linien (12, 13) zu ermitteln, die auf beiden Seiten der betreffenden Fahrbahn vorliegen; und eine Vorrichtung zum Setzen einer linken und rechten angrenzenden Fahrbahn auf der Grundlage der Position der weißen Linien (12, 13), wobei die Bilderzeugungsvorrichtung ein vergrößertes Anzeige-Rahmen-Bild schafft, entsprechend so, wie sich die Vertikalposition des unbeweglichen Punktes auf dem herannahenden Objekt, das in einer Region (SV(R), SV(L)) der entsprechenden Fahrbahn ermittelt wurde, dem unteren Ende des aufgenommenen Bildes annähert.
9. Vorrichtung nach Anspruch 1, wobei die Bilderzeugungsvorrichtung ein vorläufiges Anzeige-Rahmen-Bild mit Bezug auf den zuvor gesetzten unbeweglichen Punkt erzeugt, wenn das herannahende Objekt nicht ermittelt worden ist, und wobei die Überlagerungsvorrichtung das vorläufige Anzeige- Rahmen-Bild für eine vorbestimmte Zeit mit dem aufgenommenen Bild überlagert.
DE10103924A 2000-01-31 2001-01-30 Vorrichtung zur Umgebungsüberwachung eines Fahrzeugs Expired - Fee Related DE10103924B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000022117A JP2001216520A (ja) 2000-01-31 2000-01-31 車両用周辺監視装置
JP2000-022117 2000-01-31

Publications (2)

Publication Number Publication Date
DE10103924A1 true DE10103924A1 (de) 2001-08-16
DE10103924B4 DE10103924B4 (de) 2005-05-25

Family

ID=18548451

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10103924A Expired - Fee Related DE10103924B4 (de) 2000-01-31 2001-01-30 Vorrichtung zur Umgebungsüberwachung eines Fahrzeugs

Country Status (3)

Country Link
US (1) US20010010540A1 (de)
JP (1) JP2001216520A (de)
DE (1) DE10103924B4 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10317044A1 (de) * 2003-04-11 2004-10-21 Daimlerchrysler Ag Freiraumüberwachung bei Kraftfahrzeugen
DE102004046261A1 (de) * 2004-09-23 2006-03-30 Shih-Hsiung Li Bordeigene Überwachungsvorrichtung zum Gewähleisten von sicherem Aussteigen aus einem Transportmittel
DE102004046101A1 (de) * 2004-09-23 2006-09-21 Daimlerchrysler Ag Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE102008063121B4 (de) 2007-12-26 2022-04-28 Denso Corporation Belichtungssteuervorrichtung und Belichtungssteuerprogramm für elektronische Fahrzeugkamera

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132349A (ja) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd 描画装置
JP2003150941A (ja) * 2001-11-19 2003-05-23 Daihatsu Motor Co Ltd 移動物体の認識装置及び認識方法
JP3656056B2 (ja) * 2002-03-25 2005-06-02 株式会社東芝 割り込み車両検出装置及びその方法
JP2005301603A (ja) * 2004-04-09 2005-10-27 Denso Corp 走行車線検出装置
WO2008103929A2 (en) * 2007-02-23 2008-08-28 Johnson Controls Technology Company Video processing systems and methods
JP4389999B2 (ja) * 2007-12-26 2009-12-24 株式会社デンソー 露出制御装置及び露出制御プログラム
JP4433045B2 (ja) * 2007-12-26 2010-03-17 株式会社デンソー 露出制御装置及び露出制御プログラム
TW201008812A (en) * 2008-08-22 2010-03-01 shi-xiong Li Auxiliary video warning device for vehicle
JP2010087598A (ja) * 2008-09-29 2010-04-15 Fujifilm Corp 撮影装置及び撮影制御方法ならびにそのプログラム、画像表示装置及び画像表示方法ならびにそのプログラム、撮影システム及びその制御方法ならびにそのプログラム
DE102009038078A1 (de) * 2009-08-19 2011-03-10 Audi Ag Verfahren zur Ermittlung eines Ein- oder Ausschervorgangs eines dem eigenen Kraftfahrzeug vorausfahrenden Fahrzeugs
JP5329582B2 (ja) 2011-02-09 2013-10-30 本田技研工業株式会社 車両用周辺監視装置
JP5724570B2 (ja) * 2011-04-18 2015-05-27 日産自動車株式会社 走行支援装置及び走行支援方法
JP5626147B2 (ja) * 2011-07-04 2014-11-19 株式会社デンソー 車両接近物検知装置
CN102509457B (zh) * 2011-10-09 2014-03-26 青岛海信网络科技股份有限公司 一种车辆跟踪的方法及装置
WO2016063309A1 (ja) * 2014-10-20 2016-04-28 日産ライトトラック株式会社 障害物検出装置及び障害物検出方法
JP6224029B2 (ja) * 2015-05-21 2017-11-01 富士通テン株式会社 画像処理装置および画像処理方法
CN109492609B (zh) * 2018-11-27 2020-05-15 上海芯仑光电科技有限公司 一种检测车道线的方法和车辆、及计算设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
DE4332612C2 (de) * 1992-09-25 1996-02-22 Yazaki Corp Außenansichts-Überwachungsverfahren für Kraftfahrzeuge
JP3585071B2 (ja) * 1996-06-25 2004-11-04 矢崎総業株式会社 車両周辺監視装置
JP3583873B2 (ja) * 1996-09-12 2004-11-04 株式会社日立製作所 自動車の走行制御装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10317044A1 (de) * 2003-04-11 2004-10-21 Daimlerchrysler Ag Freiraumüberwachung bei Kraftfahrzeugen
EP1470958A2 (de) * 2003-04-11 2004-10-27 DaimlerChrysler AG Freiraumüberwachung bei Kraftfahrzeugen
EP1470958A3 (de) * 2003-04-11 2005-09-14 DaimlerChrysler AG Freiraumüberwachung bei Kraftfahrzeugen
US7136754B2 (en) 2003-04-11 2006-11-14 Daimlerchrysler Ag Free space monitoring system for motor vehicles
DE102004046261A1 (de) * 2004-09-23 2006-03-30 Shih-Hsiung Li Bordeigene Überwachungsvorrichtung zum Gewähleisten von sicherem Aussteigen aus einem Transportmittel
DE102004046101A1 (de) * 2004-09-23 2006-09-21 Daimlerchrysler Ag Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE102004046101B4 (de) * 2004-09-23 2007-01-18 Daimlerchrysler Ag Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE102008063121B4 (de) 2007-12-26 2022-04-28 Denso Corporation Belichtungssteuervorrichtung und Belichtungssteuerprogramm für elektronische Fahrzeugkamera

Also Published As

Publication number Publication date
US20010010540A1 (en) 2001-08-02
JP2001216520A (ja) 2001-08-10
DE10103924B4 (de) 2005-05-25

Similar Documents

Publication Publication Date Title
DE10103924B4 (de) Vorrichtung zur Umgebungsüberwachung eines Fahrzeugs
DE60009976T2 (de) Rück- und Seitenblickmonitor mit Kamera für Fahrzeug
DE102017130566B4 (de) Sichtsystem zur Erfassung einer Fahrzeugumgebung und Spiegelersatzsystem für ein Fahrzeug mit einem Sichtsystem
DE60219730T2 (de) Anzeigevorrichtung zur Fahrunterstützung
DE10017072C2 (de) Hecküberwachungssystem für ein Fahrzeug
DE69932021T2 (de) Dreidimensionales Darstellungssystem mit einer einzelnen Kamera für Fahrzeuge
DE102013205950B4 (de) Verfahren zum Detektieren von Straßenrändern
DE10247371B4 (de) Fahrzeuginformation-Bereitstellungsvorrichtung
DE10251880B4 (de) Bilderkennungsvorrichtung
DE102014107156B4 (de) System und Verfahren zum Bereitstellen einer verbesserten perspektivischen Bilderzeugung in einem Frontbordstein-Visualisierungssystem
DE60308782T2 (de) Vorrichtung und Methode zur Hinderniserkennung
DE10296593B4 (de) Fahrunterstützungsvorrichtung
DE60005426T2 (de) Rückblicksüberwachungssystem für Fahrzeuge
DE69707886T2 (de) Verfahren und gerät zum lokalisieren einer sich bewegenden zone und bestimmung der schnellheit und richtung der bewegung eines gebietes von relativer bewegung in einer szene
DE602005003856T2 (de) Überwachung der Umgebung eines mobilen Körpers
DE10102884A1 (de) Seitenüberwachungsvorrichtung für ein Kraftfahrzeug
DE10152883B4 (de) Nachführvorrichtung
WO2018103795A1 (de) Kameravorrichtung sowie verfahren zur situationsangepassten erfassung eines umgebungsbereichs eines fahrzeugs
DE10108646A1 (de) Gefahrenentscheidungsvorrichtung für ein Kraftfahrzeug und Umgebungsüberwachungsvorrichtung für dasselbe
DE102010000385A1 (de) Fahrzeugperipherieanzeigevorrichtung
DE10030421A1 (de) Fahrzeugumgebungsüberwachungssystem
DE112015004971T5 (de) Parkunterstützungsvorrichtung
DE102005056645A1 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102007014012A1 (de) Fahrzeugumgebung-Überwachungsgerät, Fahrzeugumgebung-Überwachungsverfahren und Fahrzeugumgebung-Überwachungsprogramm
DE102019105630B4 (de) Anzeigesteuervorrichtung, Fahrzeugumgebungsanzeigesystem und Computerprogramm

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8339 Ceased/non-payment of the annual fee