DE4344485C2 - Fahrumgebungs-Überwachungsgerät - Google Patents

Fahrumgebungs-Überwachungsgerät

Info

Publication number
DE4344485C2
DE4344485C2 DE4344485A DE4344485A DE4344485C2 DE 4344485 C2 DE4344485 C2 DE 4344485C2 DE 4344485 A DE4344485 A DE 4344485A DE 4344485 A DE4344485 A DE 4344485A DE 4344485 C2 DE4344485 C2 DE 4344485C2
Authority
DE
Germany
Prior art keywords
obstacle
unit
driving environment
size
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4344485A
Other languages
English (en)
Other versions
DE4344485A1 (de
Inventor
Minoru Nishida
Yoshihiko Utsui
Noriyuki Inoue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE4344485A1 publication Critical patent/DE4344485A1/de
Application granted granted Critical
Publication of DE4344485C2 publication Critical patent/DE4344485C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

Die Erfindung betrifft ein Fahrumgebungs-Überwa­ chungsgerät gemäß Patentanspruch 1 zum Erfassen von Hindernissen vor einem fahrenden Fahrzeug, um einen Fahrer in der Weise zu informieren, daß er die Anwe­ senheit der Hindernisse leicht erkennen kann.
Von den Technologien dieser Art ist eine vom aktiven Typ bekannt, die in der japanischen Patentveröffent­ lichung (Kokoku) Nr. 60-4011 offenbart ist, bei der eine Mikrowelle oder Infrarot-Laserlicht ausgesandt und das an Hindernissen und dergleichen reflektierte Signal empfangen wird, um den Abstand zwischen Fahr­ zeugen, die Anwesenheit der Hindernisse, den relati­ ven Abstand, die relative Geschwindigkeit und so wei­ ter festzustellen, und eine vom passiven Typ (offen­ bart in der japanischen Patentveröffentlichung (Koko­ ku) Nr. 63-38085, in der japanischen Patentveröffent­ lichung (Kokoku) Nr. 63-46363 und in der japanischen Patentveröffentlichung (Kokai) Nr. 63-52300), bei der ein Bildsensor verwendet wird, um einen Gegen­ stand vor dem Fahrzeug als Bilddaten zu erfassen und ein Hindernis (einschließlich eines anderen Fahr­ zeugs) durch Bildverarbeitung festzustellen, wodurch der Abstand zum Hindernis auf der Grundlage des Prin­ zips der Dreiecksmessung durch zwei Sätze von opti­ schen Systemen ermittelt wird. Diese beiden bekannten Technologien erfassen, obwohl sie einander unter­ schiedlich sind, die An- oder Abwesenheit eines Hin­ dernisses im vorderen Umkreis des fahrenden eigenen Fahrzeugs, den relativen Abstand zum Hindernis und die relative Geschwindigkeit, um die Abstandsdaten oder die Geschwindigkeitsdaten für den Fahrer des ei­ genen Fahrzeugs auszugeben.
Fig. 1 ist eine Draufsicht auf ein bekanntes Fahrum­ gebungs-Überwachungsgerät, das beispielsweise in der japanischen Patentveröffentlichung (Kokoku) Nr. 61- 6349 dargestellt ist. Hierin ist ein Fahrzeug 1 mit einem Laserradar 4 ausgerüstet, ein Hindernis 2 (bei­ spielsweise ein an einer Straßenseite haltendes Fahr­ zeug) befindet sich in Fahrtrichtung des Fahrzeugs 1 auf der linken Seite, und ein anderes Hindernis 3 (beispielsweise ein Briefkasten) befindet sich in Fahrtrichtung des Fahrzeugs 1 auf der rechten Seite.
Der Laserradar 4 befindet sich an der vordersten Stelle des Fahrzeugs 1, um einen Lichtstrahl 6 auszu­ senden, damit eine Abtastung im Bereich von -10° < θ < 10° in Bezug auf den Mittelpunkt des vorderen Endes des Fahrzeugs durchgeführt werden kann. Im Laserradar 4 wird ein Abtastintervall Δθ (d. h. ein Intervall zwischen benachbarten Lichtstrahlen 6) auf 0,1° ein­ gestellt.
Es erfolgt nun eine Beschreibung der Arbeitsweise.
Wenn der Laserradar 4 aufeinanderfolgend den Licht­ strahl 6 emittiert, wobei beginnend mit dem äußersten linken Ende (N = 0) zur rechten Seite hin geschwenkt wird, kehren die Lichtstrahlen 6 von N = g bis N = i auf­ grund der Anwesenheit des Hindernisses 2 als reflek­ tierte Lichtstrahlen zum Fahrzeug 1 zurück und der Laserradar 4 empfängt das reflektierte Licht. Hierbei ist festzustellen, daß der Laserradar 4 nicht den Lichtstrahl 6 für N = i + 1 empfangen kann, da die Reflexion an einer Seitenfläche des Hindernisses 2 erfolgt.
Es wird angenommen, daß P1 einen Reflexionspunkt des Lichtstrahls 6 am äußersten rechten Ende (N = i) dar­ stellt, von dem das am Hindernis 2 reflektierte Licht noch vom Laserradar 4 empfangen werden kann. Demgemäß kann ein Abstand QP1 als QP1 = R1 auf der Grundlage einer Reflexionszeit festgestellt werden, und ein Ab­ stand P1P3 (= Y1) von P1 zur Mittellinie (Z-Achse) des Fahrzeugs kann wie folgt ausgedrückt werden:
p1p3 = Y1 ≈ R1 θi (1)
worin θi einen Ablenkungswinkel des Lichtstrahls 6 für N = i bedeutet (der Ablenkungswinkel θi ist eine bekannte Zahl für den Laserradar 4). Weiterhin wird angenommen, daß P2 einen Reflexionspunkt des Licht­ strahls 6 am äußersten linken Ende (N = g) darstellt, von dem das am Hindernis 2 reflektierte Licht vom La­ serradar 4 empfangen werden kann. Dadurch ist es in gleicher Weise möglich, einen Abstand QP2 als QP2 = R2 auf der Grundlage der Reflexionszeit festzustellen. Ein Abstand P2P4 (= Y2) vom Punkt P2 zur Mittellinie (Z-Achse) des Fahrzeugs kann wie folgt ausgedrückt werden:
P2P4 = y2 ≈ R2θg (2)
worin θg einen Ablenkungswinkel des Lichtstrahls für N = g bedeutet (der Ablenkungswinkel θg ist eine bekannte Zahl für den Laserradar 4). Demgemäß ermög­ licht die Feststellung der Positionen P1 und P2 die Feststellung des relativen Abstands oder des Azimut vom Fahrzeug 1 zum Hindernis 2.
Die Feststellung des Hindernisses 3 erfolgt auf glei­ che Weise wie die des Hindernisses 2, und daher wird auf die entsprechende Beschreibung verzichtet.
Da das Erfassungsverfahren in einer Höhenrichtung der Hindernisse 2 und 3 im Prinzip mit dem in der hori­ zontalen Richtung identisch ist, wird auf die ent­ sprechende Beschreibung ebenfalls verzichtet. In die­ sem Zusammenhang zeigt Fig. 2 den vom Laserradar 4 emittierten Lichtstrahl 6, der sich in der Höhenrich­ tung erstreckt.
Das bekannte Fahrumgebungs-Überwachungsgerät ist wie vorbeschrieben ausgebildet. Es ist daher erforder­ lich, ein kurzes Intervall Δθ zwischen den vom Laser­ radar 4 emittierten Lichtstrahlen 6 vorzusehen, um den relativen Abstand oder den Azimut vom Fahrzeug 1 zu den Hindernissen 2 und 3 mit großer Genauigkeit festzustellen. Wenn jedoch das Intervall Δθ zwischen den Lichtstrahlen 6 kleiner wird, wird eine längere Zeit benötigt, um die Hindernisse 2 und 3 zu erfas­ sen. Als Folge hiervon ergeben sich Probleme dahinge­ hend, daß beispielsweise Echtzeitdaten von den erfaß­ ten Fahrzeugen 2 und 3 nicht zur Verfügung stehen, und das bekannte Gerät ist nicht praktisch für ein Fahrzeug im Fahrzustand.
Aus der Veröffentlichung der Technischen Rundschau, Heft 31, 1990, Seiten 30-34, ist ein Fahrumgebungs- Überwachungsgerät mit einer Bilderfassungseinheit zum Erfassen zweidimensionaler Bilder bekannt. Bei der Bilderfassungseinheit werden aus dem Gesamtbild der Fahrumgebung Bildfenster, die die Fahrbahnbegren­ zung enthalten, extrahiert. Innerhalb des zweidimen­ sionalen Bildes, das von der Bilderfassungseinheit ermittelt wurde, werden die Abbildung eines Objekts und die Position der Objektabbildung erkannt, wobei die Kantenerkennung verwendet wird.
Aus der DE 41 10 132 A1 ist ein Fahrzeugabstandssteu­ ergerät bekannt, das mit einer Bilderfassungseinheit arbeitet. Durch Vergleich des erfaßten Bildes, mit einem, einen kurzen Zeitabstand vorher erfaßten Bild, wird die Abbildung eines Objekts im zweidimensionalen Bild erkannt.
In der DE 38 32 720 A1 ist ein Laser-Impulsradar be­ schrieben, mit dem zur Überwachung der Fahrumgebung eines Fahrzeugs Abstands- und Winkelmessungen möglich sind, und der mit einer Hinderniserfassungseinheit, welche mit Ultraschall arbeitet, kombiniert wird.
Es ist daher die Aufgabe der vorliegenden Erfindung, ein Fahrumgebungs-Überwachungsgerät zu schaffen, das eine Erfassung mit großer Geschwindigkeit, auch für den Fall einer genauen Feststellung eines Abstands und eines Azimuts von einem Fahrzeug zu einem Hinder­ nis ermöglicht, das die Größe einer Bewegung eines Hindernisses vorhersagt und anzeigt, um den Fahrer genauer über die Möglichkeit einer Kollision zu in­ formieren, durch das der Fahrer leicht und unmittel­ bar die Größe des Hindernisses erkennen kann, das ein Hindernis, welches zwar klein ist, aber eine ernste Gefahr darstellt, deutlich anzeigen kann, und das den Fahrer über das Vorhandensein eines Hindernisses in­ formieren kann, selbst wenn ein vorübergehender Feh­ ler bei der Bildverarbeitung auftritt.
Diese Aufgabe wird erfindungsgemäß durch die Merkmale im Hauptanspruch gelöst.
Bei dem Fahrumgebungs-Überwachungsgerät nach der Er­ findung ist eine Bildverarbeitungs-Bereichsbegren­ zungseinheit vorgesehen, um den Bereich, in welchem ein Objekt vorhanden ist, in Abhängigkeit von dem durch die Objekterfassungseinheit festgestellten Azi­ mut zu bestimmen, zur Ableitung eines zweidimensiona­ len Bildes, entsprechend dem bestimmten Bereich durch die Bilderfassungseinheit. Hierdurch hat eine Hinder­ niserkennungseinheit in einer nachfolgenden Stufe ein Hindernis vor dem Objekt nur aus dem zweidimensiona­ len Bild entsprechend dem bestimmten Bereich zu un­ terscheiden, wodurch sich eine verringerte Verarbei­ tungszeit ergibt. Weiterhin wird für das Hindernis von der Hinderniserkennungseinheit aus dem zweidimen­ sionalen Bild ein Größenindex berechnet. Daher kann die Objekterfassungseinheit einen solchen Grad der Erfassungsgenauigkeit haben, daß die Anwesenheit des Objekts erfaßt werden kann (d. h. eine Genauigkeit bis zu einem solchen Grad, daß eine Positionsbestimmung eines Hindernisses genau als unnötig erkannt werden kann), wodurch die Erfassungszeit im Vergleich mit einem bekannten Gerät beträchtlich reduziert wird.
Durch die in den Unteransprüchen angegebenen und im folgenden näher erläuterten Maßnah­ men sind vorteilhafte Weiterbildungen und Verbesse­ rungen möglich:
Das Fahrumgebungs-Überwachungsgerät nach der Erfin­ dung weist eine Korrektureinheit auf, um den durch die Bildverarbeitungs-Bereichsbegrenzungseinheit bei­ stimmten Bereich entsprechend dem von der Objekter­ fassungseinheit festgestellten Abstand zu begrenzen, wodurch die Verarbeitungszeit in einer Hinderniser­ kennungseinheit noch weiter reduziert wird.
Bei dem Fahrumgebungs-Überwachungsgerät nach der Er­ findung sind eine Vorhersageeinheit zum Vorhersagen der Größe der Bewegung des Hindernisses in Abhängig­ keit vom Abstand und vom Azimut, die gegenwärtig von der ersten Fahrumgebungs-Ausgabeeinheit festgestellt werden, und vom vorher festgestellten Abstand und Azimut, und eine zweite Fahrumgebungs-Ausgabeeinheit vorgesehen, um die Position zu bestimmen, in der das Hindernis in der wahren räumlichen Koordinate in Be­ zug auf die Fahrtstrecke des Fahrzeugs in Abhängig­ keit vom Abstand und vom Azimut, die gegenwärtig von der ersten Fahrumgebungs-Ausgabeeinheit festgestellt werden, vorhanden ist, um das Bild darzustellen, das den Größenindex und die Größe der Bewegung des Hin­ dernisses an der bestimmten Position anzeigt. Dadurch kann ein Fahrer erkennen, in welchem Ausmaß sich das Hindernis bewegt, und kann die Möglichkeit einer Kol­ lision erfassen.
Das Fahrumgebungs-Überwachungsgerät nach der Erfin­ dung weist weiterhin eine Fahrumgebungs-Ausgabeein­ heit zur Anzeige des Größenindex und der Größe der Bewegung des Hindernisses durch die Größe des Kreises und zur Anzeige des die Größe der Bewegung darstel­ lenden Kreises durch einen konzentrischen Kreis, der auf dem äußeren Umfang des den Größenindex des Hin­ dernisses darstellenden Kreises angeordnet ist, auf. Hierdurch kann ein Fahrer leicht und unmittelbar die Größe und dergleichen des Hindernisses erkennen, wo­ durch er die Möglichkeit einer Kollision abschätzen kann.
Bei dem Fahrumgebungs-Überwachungsgerät der Erfindung sind eine Vorhersageeinheit zur Vorhersage der Größe und der Richtung der Bewegung des Hindernisses in Ab­ hängigkeit vom Abstand und vom Azimut, die gegenwär­ tig von der ersten Fahrumgebungs-Ausgabeeinheit fest­ gestellt werden, und vom vorher festgestellten Ab­ stand und Azimut, und eine zweite Fahrumgebungs- Ausgabeeinheit vorgesehen, zum Bestimmen der einen Position, an der sich das Hindernis befindet, in Ab­ hängigkeit vom Abstand und vom Azimut, die gegenwär­ tig von der ersten Fahrumgebungs-Ausgabeeinheit fest­ gestellt werden, und der anderen Position, an der sich das Hindernis nach der Bewegung befinden wird, in Abhängigkeit von der Größe und der Richtung der Bewegung in einer wahren räumlichen Koordinate in Be­ zug auf die Fahrtstrecke des Fahrzeugs, um das den Größenindex des Hindernisses anzeigende Bild an der einen Position, an der sich das Hindernis befindet, und eine die Größe der Bewegung anzeigendes anderes Bild an der anderen Position, an der sich das Hinder­ nis nach der Bewegung befinden wird, darzustellen. Hierdurch kann ein Fahrer erkennen, in welcher Rich­ tung und in welchem Ausmaß sich das Hindernis bewegt.
Die zweite Fahrumgebungs-Ausgabeeinheit des Fahrumge­ bungs-Überwachungsgeräts zeigt den Größenindex und die Größe der Bewegung des Hindernisses jeweils durch die Größe von Kreisen und zur Anzeige der Linie, die die gemeinsame Tangentenlinie für jeden Kreis sein könnte, an. Hierdurch kann ein Fahrer leicht und un­ mittelbar die Größe, die Bewegungsrichtung und der­ gleichen des Hindernisses erkennen.
Die erste Fahrumgebungs-Ausgabeeinheit zeigt den Grö­ ßenindex des Hindernisses durch das dreidimensionale Bild mit der Größe entsprechend dem Index an. Hier­ durch ist es möglich, daß ein Fahrer leicht und un­ mittelbar die Größe des Hindernisses erkennen kann.
Die zweite Fahrumgebungs-Ausgabeeinheit zeigt den Größenindex und die Größe der Bewegung des Hindernis­ ses durch ein dreidimensionales Bild mit der Größe entsprechend dem Index und der Größe der Bewegung an. Dadurch kann ein Fahrer leicht und unmittelbar die Größe und dergleichen des Hindernisses erkennen.
Bei dem Fahrumgebungs-Überwachungsgerät nach der Er­ findung erweitert die Hinderniserkennungseinheit den durch die Berechnung bestimmten Größenindex des Hin­ dernisses für den Fall, daß die Höhe des Hindernisses größer als dessen Breite ist. Hierdurch kann ein Hin­ dernis in großem Ausmaß angezeigt werden, das zwar klein ist, aber eine ernste Gefahr darstellt.
Bei dem Fahrumgebungs-Überwachungsgerät nach der Er­ findung ist weiterhin eine Hinderniserkennungs- Hilfseinheit vorgesehen, für die Bezugnahme auf den Größenindex des Hindernisses, der entsprechend dem Abstand zum Hindernis voreingestellt ist, für den Fall, daß der Abstand und der Azimut des Hindernisses durch die Objekterfassungseinheit festgestellt sind und die Hinderniserkennungseinheit keinen Größenindex des Hindernisses ausgibt, und zur Ausgabe des Grö­ ßenindexes des Hindernisses entsprechend dem von der Objekterfassungseinheit festgestellten Abstand an die Fahrumgebungs-Ausgabeeinheit. Hierdurch kann ein Fah­ rer auch dann von der Anwesenheit des Hindernisses informiert werden, wenn ein vorübergehender Fehler bei der Bildverarbeitung auftreten sollte oder die Berechnung des Indexes nicht vollständig beendet sein sollte.
Bei dem Fahrumgebungs-Überwachungsgerät nach der Er­ findung ist eine Datensubstitutionseinheit vorgese­ hen, zur Ausgabe eines Ersatzindexes anstelle des von der Hinderniserkennungs-Hilfseinheit ausgegebenen Größenindexes des Hindernisses, der einen höheren Wert hat als der Größenindex an die Fahrumgebungs- Ausgabeeinheit, für den Fall, daß die Objekterfas­ sungseinheit den Abstand und den Azimut zum Hindernis feststellt und die Hinderniserkennungseinheit keinen Größenindex des Hindernisses ausgibt, selbst nachdem die vorbestimmte Zeit oder mehr seit der Feststellung des Abstandes und des Azimuts verstrichen ist. Hier­ durch ist es möglich, einen Fahrer von der Anwesen­ heit des Hindernisses zu unterrichten, selbst wenn ein vorübergehender Fehler bei der Bildverarbeitung auftreten sollte, sowie von der Möglichkeit einer ernsthaften Gefahr.
Bei dem Fahrumgebungs-Überwachungsgerät nach der Er­ findung ist eine Fehlfunktions-Anzeigeeinheit vorge­ sehen zur Entscheidung, daß eine Fehlfunktion auf­ tritt, um diese anzuzeigen, für den Fall, daß die Ob­ jekterfassungseinheit den Abstand und den Azimut zum Hindernis feststellt und die Hinderniserkennungsein­ heit den Größenindex des Hindernisses nicht ausgibt, selbst nachdem die vorbestimmte Zeitspanne oder mehr seit der Feststellung des Abstandes und des Azimuts verstrichen ist. Hierdurch kann der Fahrer über das Auftreten eines Fehlers bei der Bildverarbeitung in­ formiert werden.
Die Erfindung wird im Folgenden anhand von in den Fi­ guren dargestellten Ausführungsbeispielen erläutert. Es zeigen:
Fig. 1 die Draufsicht auf ein bekanntes Fahrumge­ bungs-Überwachungsgerät,
Fig. 2 eine das bekannte Fahrumgebungs- Überwachungsgerät zeigende Schnittansicht,
Fig. 1 ein Blockschaltbild eines Fahrumgebungs- Überwachungsgeräts nach dem ersten Ausfüh­ rungsbeispiel der Erfindung,
Fig. 4 eine Draufsicht auf das Fahrumgebungs- Überwachungsgerät nach dem ersten Ausfüh­ rungsbeispiel der Erfindung,
Fig. 5 eine erläuternde Darstellung zur Illustration der Anwesenheit von Hindernissen,
Fig. 6 eine erläuternde Darstellung zur Illustration der Anwesenheit der Hindernisse,
Fig. 7 eine Wiedergabe der Umrisse der Hindernisse,
Fig. 8 die Darstellung einer die Anwesenheit der Hindernisse wiedergebenden Anzeige,
Fig. 9 ein Blockschaltbild eines Fahrumgebungs- Überwachungsgeräts nach dem dritten Ausfüh­ rungsbeispiel der Erfindung,
Fig. 10 eine Draufsicht zur Illustration der Positio­ nen, an denen Hindernisse vorhanden sind,
Fig. 11 eine erläuternde Darstellung von Bereichen zur Ableitung zweidimensionaler Bilder,
Fig. 12 eine erläuternde Darstellung der Bereiche zur Ableitung der zweidimensionalen Bilder,
Fig. 13 ein Blockschaltbild eines Fahrumgebungs- Überwachungsgeräts nach dem vierten Ausfüh­ rungsbeispiel der Erfindung,
Fig. 14 (14A und 14B) eine Anzeige zur Darstellung der Anwesenheit des Hindernisses,
Fig. 15 ein Flußdiagramm zur Darstellung der Be­ triebsweise des Fahrumgebungs-Überwachungs­ geräts nach dem vierten Ausführungsbeispiel der Erfindung,
Fig. 16 eine Anzeige zur Darstellung der Anwesenheit des Hin­ dernisses,
Fig. 17 eine Anzeige zur Darstellung der Anwesenheit des Hin­ dernisses,
Fig. 18 eine Anzeige zur Darstellung der Anwesenheit des Hin­ dernisses,
Fig. 19 eine Anzeige zur Darstellung der Anwesenheit des Hin­ dernisses,
Fig. 20 eine Anzeige zur Darstellung der Anwesenheit des Hin­ dernisses,
Fig. 21 eine Anzeige zur Darstellung der Anwesenheit des Hin­ dernisses,
Fig. 22 eine Anzeige zur Darstellung der Anwesenheit des Hin­ dernisses,
Fig. 23 eine Anzeige zur Darstellung der Anwesenheit des Hin­ dernisses,
Fig. 24 eine Anzeige zur Darstellung der Anwesenheit des Hin­ dernisses,
Fig. 25 ein Blockschaltbild eines Fahrumgebungs- Überwachungsgeräts nach dem neunten Ausfüh­ rungsbeispiel der Erfindung,
Fig. 26 die Umrisse der Hindernisse,
Fig. 27 ein Blockschaltbild eines Fahrumgebungs- Überwachungsgeräts nach dem zehnten Ausfüh­ rungsbeispiel der Erfindung,
Fig. 28 ein die Beziehung zwischen einem Index und einem Abstand wiedergebendes Diagramm,
Fig. 29 eine Anzeige zur Darstellung der Anwesenheit des Hin­ dernisses,
Fig. 30 ein Blockschaltbild eines Fahrumgebungs- Überwachungsgeräts nach dem elften Ausfüh­ rungsbeispiel der Erfindung,
Fig. 31 ein die Bewegung des Hindernisses wiederge­ bendes Zeitdiagramm,
Fig. 32 ein Blockschaltbild eines Fahrumgebungs- Überwachungsgeräts nach dem zwölften Ausfüh­ rungsbeispiel der Erfindung, und
Fig. 33 ein die Bewegung des Hindernisses wiederge­ bendes Zeitdiagramm.
Beispiel 1
Fig. 3 zeigt ein Blockschaltbild eines Fahrumgebungs- Überwachungsgeräts nach dem ersten Ausführungsbei­ spiel der Erfindung und Fig. 4 gibt eine Draufsicht auf das Fahrumgebungs-Überwachungsgerät nach dem er­ sten Ausführungsbeispiel der Erfindung wieder. In den Zeichnungen werden dieselben Bezugszahlen für solche Teile verwendet, die identisch oder gleichwertig mit denen beim bekannten Gerät sind, und auf deren Be­ schreibung wird verzichtet.
Laserradarvorrichtungen 11 bis 14 tasten irgendeinen von vier geteilten Umfangsbereichen I bis IV in Fahrtrichtung eines Fahrzeugs 1 ab, um, wenn sich Ob­ jekte, die Hindernisse 2 und 20 sein können, im Ab­ tastbereich befinden, einen Abstand und einen Azimut vom Fahrzeug 1 zu den Hindernissen 2 und 20 festzu­ stellen. Die Laserradarvorrichtungen 11 bis 14 sind in Frontbereichen P1 bis P4 des Fahrzeugs befestigt und entsprechen jeweils den Bereichen I, II, III und IV. Eine Objekterfassungseinheit 15 enthält die La­ serradarvorrichtungen 11 bis 14.
Ein Bildsensor 16 (eine Bilderfassungseinheit) wie eine CCD-Kamera ist an einer Position P5 unmittelbar vor dem Fahrersitz des Fahrzeugs 1 befestigt, um zweidimensionale Bilder der Umgebungsbereiche I bis IV zu erfassen. Eine Bildverarbeitungs-Bereichsbe­ grenzungseinheit 17 bestimmt einen Bereich, in wel­ chem sich die Objekte bzw. Hindernisse 2 und 20 be­ finden in Abhängigkeit von durch die Laserradarvor­ richtungen 11 bis 14 festgestellten Azimutwinkeln θ1 bis θ4, um das zweidimensionale Bild entsprechend dem bestimmten Bereich vom Bildsensor 16 abzuleiten. Eine Hinderniserkennungseinheit 18 bestimmt die Hindernis­ se 2 und 20 aus dem von der Bildverarbeitungs-Be­ reichsbegrenzungseinheit 17 gelieferten Bild und be­ rechnet Größenindizes S der Hindernisse 2 und 20. Ei­ ne Fahrumgebungs-Ausgabeeinheit 19 bestimmt Positio­ nen, an denen sich die Hindernisse 2 und 20 befinden in einer wahren räumlichen Koordinate mit Bezug auf eine Fahrstrecke des Fahrzeugs 1 auf der Grundlage der von den Laserradarvorrichtungen 11 bis 14 festge­ stellten Abstände und Azimutwinkel, um Bilder wieder­ zugeben, die die Größenindizes S der Hindernisse 2 und 20 an den bestimmten Positionen anzeigen.
Es folgt nun eine Beschreibung der Arbeitsweise.
Die Laserradarvorrichtungen 11 bis 14 emittieren in einem vorbestimmten Zeitintervall impulsförmiges La­ serlicht in Vorwärtsrichtung und empfangen das an den Objekten bzw. Hindernissen 2 und 20 reflektierte La­ serlicht, wenn sich die Hindernisse 2 und 20 vor dem Fahrzeug 1 befinden, um die Reflexionszeit zu messen, wodurch die Abstände zu den Hindernissen 2 und 20 fest­ gestellt werden. Gemäß Fig. 4 befindet sich das Hin­ dernis 2 in den Bereichen I und II und das Hindernis 20 befindet sich im Bereich III. Daher können die La­ serradarvorrichtungen 11, 12 und 13 das reflektierte Licht empfangen, während die Laserradarvorrichtung 14 kein reflektiertes Licht empfängt.
Die Laserradarvorrichtungen 11 bis 14 sind für jeden Bereich angeordnet, so daß die Laserradarvorrichtung 11 das den Bereich I darstellende Azimutsignal θ1 ausgibt, wenn die Laserradarvorrichtung 11 das Hin­ dernis erfaßt. Demgemäß geben im Fall der Fig. 4 die Laserradarvorrichtungen 11, 12 und 13 die jeweiligen Azimutsignale θ1, θ2 und θ3 aus, da die Laserradarvor­ richtungen 11 bis 13 die Hindernisse erfassen.
Die Beschreibung der Arbeitsweise erfolgt nun unter Bezug auf einen Zustand vor dem Fahrzeug 1, der in Fig. 5 gezeigt ist. In Fig. 5 sind andere Fahrzeuge 21 bis 23 wiedergegeben, die als Hindernisse anzuse­ hen sind.
Gemäß Fig. 5 befinden sich die Hindernisse 21 bis 23 in den Bereichen I und II, so daß die Laserradarvor­ richtungen 11 und 12 das reflektierte Licht empfangen (die Laserradarvorrichtungen 13 und 14 empfangen kein reflektiertes Licht, da die Hindernisse 21 bis 23 nicht in den Bereichen III und IV vorhanden sind).
Daher messen die Laserradarvorrichtungen 11 und 12 die Reflexionszeiten, um die Abstände zu den Hinder­ nissen 21 bis 23 zu bestimmen für die Ausgabe von Sig­ nalen, die die Abstände r1, r2 und r3 und die Azimut­ winkel θ1 und θ2 anzeigen.
Weiterhin empfängt die Bildverarbeitungs-Bereichs­ begrenzungseinheit 17 die die Azimutwinkel θ1 und θ2 anzeigenden Signale von den Laserradarvorrichtungen 11 und 12, wodurch die Anwesenheit des Hindernisses 21 im Bereich I und die Anwesenheit der Hindernisse 22 und 23 im Bereich II erkannt werden.
Zweidimensionale Bilder in den Bereich I bis IV wer­ den durch den Bildsensor 16 abgebildet. Die Bildver­ arbeitungs-Bereichsbegrenzungseinheit 17 leitet je­ doch nur die zweidimensionalen Bilder entsprechend den Bereichen I und II vom Bildsensor 16 ab (siehe Fig. 6), da in den Bereichen III und IV kein Hinder­ nis vorhanden ist. Danach gibt die Bildverarbeitungs- Bereichsbegrenzungseinheit 17 die zweidimensionalen Bilder entsprechend den Bereichen I und II zu der Hinderniserkennungseinheit 18 in einer nachfolgenden Stufe aus. Dies wird durchgeführt, weil die Hinder­ niserkennungseinheit 18 betrieben wird, um Hindernis­ se zu bestimmen, und der Hinderniserkennungsvorgang für den Bereich unnötig ist, in dem sich kein Hinder­ nis befindet.
Nachfolgend bestimmt die Hinderniserkennungseinheit 18 die Hindernisse 21 bis 23 aus den zweidimensiona­ len Bildern entsprechend den Bereichen I und II und berechnet die Größenindizes S der Hindernisse 21 bis 23. In diesem Fall werden die Hindernisse 21 bis 23 durch eine bekannte Bildverarbeitung bestimmt (z. B. grundlegende Bildverarbeitung wie Kantenerfassung oder Linienerfassung), und es folgt eine kurze Be­ schreibung der Bildverarbeitung, während auf eine de­ taillierte Beschreibung hiervon verzichtet wird.
Bei der Bildverarbeitung wird das zweidimensionale Bild in horizontaler und vertikaler Richtung für die Kantenextraktion differenziert, und danach werden al­ le benachbarten Punkte in der extrahierten Kante mit­ einander verbunden (Linienverbindung), um einen sichtbaren Umriß eines Gegenstandes zu erhalten, der als Umriß des Hindernisses angesehen wird.
Um die Art des Objektes zu bestimmen, ist ein Extrak­ tionsrahmen entsprechend einer äußeren Dimension bei­ spielsweise des Fahrzeugs an einer Position vorgese­ hen, an der das Objekt wie zum Beispiel das Fahrzeug vorhanden sein kann, auf der Grundlage der von den Laserradarvorrichtungen 11 bis 14 gelieferten Ab­ standsdaten. Wenn der Extraktionsrahmen mit dem Umriß des Objekts übereinstimmt, kann der Umriß des Gegen­ stands als das Hindernis wie zum Beispiel das Fahr­ zeug angesehen werden. Andernfalls wird der Umriß als ein Hintergrundobjekt oder ein anderes Objekt wie beispielsweise ein Straßenobjekt betrachtet.
Andererseits werden die Umrisse der Hindernisse 21 bis 23 wie in Fig. 7 durch die Bildverarbeitung gege­ ben und der Größenindex S des Hindernisses kann be­ rechnet werden jeweils durch die Breite x und die Hö­ he y der Hindernisse 21 bis 23. Das heißt, der Grö­ ßenindex S1 des Hindernisses 21, der Größenindex S2 des Hindernisses 22 und der Größenindex S3 des Hin­ dernisses 23 können wie folgt ausgedrückt werden:
Wie vorbeschrieben ist, berechnet die Hinderniserken­ nungseinheit 18 die Größenindizes S1, S2 und S3 der Hindernisse 21 bis 23 und gibt sie an die Fahrumge­ bungs-Ausgabeeinheit 19 aus. Daher kann die Fahrumge­ bungs-Ausgabeeinheit 19 die Positionen bestimmen, an denen die Hindernisse 21 bis 23 in den wahren räumli­ chen Koordinaten mit Bezug auf die Fahrstrecke des Fahrzeugs 1 vorhanden sind, abhängig von den von den Laserradarvorrichtungen 11 und 12 festgestellten Ab­ ständen r1, r2 und r3 und den Azimutwinkeln θ1 und θ2 (siehe Fig. 8).
Da sich in diesem Fall nur ein Hindernis im Bereich I befindet, kann die Position des Hindernisses 21 durch den Abstand r1 und den Azimutwinkel θ1 bestimmt wer­ den. Andererseits befinden sich zwei Hindernisse im Bereich II, so daß die Fahrumgebungs-Ausgabeeinheit 19 eine seitliche Beziehung zwischen den Positionen der Hindernisse 22 und 23 bestimmt in Abhängigkeit vom vom Bildsensor 16 ausgegebenen zweidimensionalen Bild und die Positionen der Hindernisse 22 und 23 auf der Grundlage der sich ergebenden Bestimmung und der Ab­ stände r2 und r3 zu den Hindernissen 22 und 23 fest­ legt.
Schließlich zeigt, wie in Fig. 8 dargestellt ist, die Fahrumgebungs-Ausgabeeinheit 19 Kreise an, deren Ra­ dien proportional zu den Größenindizes S1 bis S3 der Hindernisse 21 bis 23 sind, die von der Hinderniser­ kennungseinheit 18 an den bestimmten Positionen be­ stimmt wurden.
Hierdurch kann ein Fahrer die Positionen und die Grö­ ßen der Hindernisse 21 bis 23 erkennen.
Beim ersten Ausführungsbeispiel ist es möglich, die Bildverarbeitung mit hoher Geschwindigkeit durchzu­ führen und eine Echtzeit-Verarbeitung vorzunehmen, da der Bildverarbeitungsbereich begrenzt ist. Für den Fall, daß ein wesentliches Problem bei der Echtzeit- Verarbeitung aufgrund einer langen Zeit, die für die Bildverarbeitung benötigt wird, auftritt, kann der Umgebungsbereich weiter in sechs Bereiche oder acht Bereiche statt in vier Bereiche aufgeteilt werden, um die Größe des zu verarbeitenden zweidimensionalen Bildes herabzusetzen. Es ist hierdurch möglich, eine Bildverarbeitung mit höherer Geschwindigkeit ohne ir­ gendein Problem bei der Echtzeit-Verarbeitung durch­ zuführen.
Beispiel 2
Beim ersten Ausführungsbeispiel wurde eine Objekter­ fassungseinheit 15 beschrieben, die vier an vorbe­ stimmten Positionen befestigte Laserradarvorrichtun­ gen 11 bis 14 enthält. Alternativ hierzu kann eine Laserradarvorrichtung vorgesehen sein, die einen wei­ teren Abtastbereich aufweist als die Laserradarvor­ richtungen 11 bis 14. In diesem Fall ist es auch nicht erforderlich, wie beim bekannten Gerät mit ei­ nem kleinen und sehr genauen Winkel abzutasten, und ein Abtastbereich kann in vier Bereiche wie beim er­ sten Ausführungsbeispiel oder etwa acht Bereiche un­ terteilt werden. Es treten keine Probleme bei einer Echtzeit-Verarbeitung auf, wenn die Abtastung mit ho­ her Geschwindigkeit durchgeführt wird, bei der alle Bereiche in einem Intervall von etwa 10 ms oder weni­ ger verarbeitet werden können.
Beispiel 3
Fig. 9 zeigt ein Blockschaltbild eines Fahrumgebungs- Überwachungsgerätes nach der Erfindung. Hierin ist eine zusätzliche Bildverarbeitungs-Bereichsbegren­ zungseinheit 24 vorgesehen zur Begrenzung eines durch die Bildverarbeitungs-Bereichsbegrenzungseinheit 17 bestimmten Bereichs entsprechend einem durch die La­ serradarvorrichtungen 11 bis 14 (d. h. die Hinder­ niserfassungseinheit 15) festgestellten Abstand und zum Ableiten eines zweidimensionalen Bildes entspre­ chend dem begrenzten Bereich von der Bildverarbei­ tungs-Bereichsbegrenzungseinheit 17.
Es folgt nun eine Beschreibung der Arbeitsweise.
Wie in Fig. 10 gezeigt ist, stellt die Laserradarvor­ richtung 12 die Anwesenheit eines Objektes in einem Bereich II an einer durch einen Abstand rn getrennten Position fest, und die Laserradarvorrichtung 13 stellt die Anwesenheit eines anderen Objektes in ei­ nem Bereich III an einer durch einen Abstand rf ge­ trennten Position fest.
Hierdurch leitet die Bildverarbeitungs-Bereichsbe­ grenzungseinheit 17 zweidimensionale Bilder in den Bereichen II und III ab, das heißt die zweidimensio­ nalen Bilder von einem Bildsensor 16 entsprechen den schraffierten Bereichen in Fig. 11.
Dann leitet die zusätzliche Bildverarbeitungs-Be­ reichsbegrenzungseinheit 24 die zweidimensionalen Bilder entsprechend den schraffierten Bereichen in Fig. 12 aus der Bildverarbeitungs-Bereichsbegren­ zungseinheit 17 gemäß den festgestellten Abständen rn und rf ab.
Das heißt, die zweidimensionalen Bilder können ver­ kleinert werden, da es möglich ist, abhängig von den festgestellten Abständen rn und rf angenäherte Posi­ tionen zu erfassen, an denen die Hindernisse vorhan­ den sind. Durch die Verkleinerung ist es möglich, die Hindernisse mittels einfacher Durchführung der Bild­ verarbeitung nur für durch die Abstände rn und rf ge­ trennte Bereiche zu entdecken, da die Hindernisse in den durch die Abstände rn und rf getrennten Umfangs­ bereichen vorhanden sind. Es ist hierdurch möglich, die Bildverarbeitung in der Hinderniserkennungsein­ heit 18 in einer nachfolgenden Stufe mit höherer Ge­ schwindigkeit durchzuführen.
Beispiel 4
Fig. 13 enthält ein Blockschaltbild eines Fahrumge­ bungs-Überwachungsgeräts nach dem vierten Ausfüh­ rungsbeispiel der Erfindung. Eine Vorhersageeinheit 25 dient zur Vorhersage einer Größe SD der Bewegung eines Hindernisses abhängig von einem Abstand und ei­ nem Azimut, die gegenwärtig durch die Laserradarvor­ richtungen 11 bis 14 festgestellt werden, und einem anderen Abstand und einem anderen Azimut, die vorher festgestellt wurden. Eine Fahrumgebungs-Ausgabeein­ heit 26 stellt ein Bild dar, das die Größe SD der Be­ wegung des Hindernisses an einer durch die Fahrumge­ bungs-Ausgabeeinheit 19 bestimmten Position anzeigt.
Es folgt die Beschreibung der Arbeitsweise.
Die Teile mit Ausnahme der Vorhersageeinheit 25 und der Fahrumgebungs-Ausgabeeinheit 26 sind identisch mit den beim ersten Ausführungsbeispiel beschriebe­ nen, und auf die Erläuterung ihrer Arbeitsweise wird verzichtet. Aus Gründen der Einfachheit erfolgt die Beschreibung nur für den Fall, daß ein Hindernis 21 vorhanden ist.
Da nur das Hindernis 21 betrachtet wird, wird ange­ nommen, daß die Fahrumgebungs-Ausgabeeinheit 19 ein Bild entsprechend dem in Fig. 14A gezeigten wieder­ gibt.
Die Vorhersageeinheit 25 speichert eine Position des Hindernisses 21, die von der Fahrumgebungs-Ausgabe­ einheit 19 als ein Positionsvektor (t1) des Hinder­ nisses 21 zu einem Zeitpunkt t1 bestimmt ist (Schritt ST1 in Fig. 15) (nachfolgend wird jeder Vektor durch einen Buchstaben in gotischer Schrift ausgedrückt, zum Beispiel r(t1)). Der Positionsvektor r(t1) ist ein Positionsvektor mit der Mitte der Vorderseite eines Fahrzeugs als Ursprung, und er kann bestimmt werden durch einen Abstand r(t1) und einen Azimut θ(t) zum Hindernis 21 im Zeitpunkt t1.
Nachfolgend leitet die Vorhersageeinheit 25 eine Po­ sition des Hindernisses zu einem Zeitpunkt t2 von der Fahrumgebungs-Ausgabeeinheit 19 ab, um die Position als den Positionsvektor r(t2) des Hindernisses 21 zum Zeitpunkt t2 zu definieren (Schritt ST2). Somit stellt die Fahrumgebungs-Ausgabeeinheit 19 ein Bild gemäß Fig. 14B dar, in welcher ein anderes Bild nur zu Illustrationszwecken durch gestrichelte Linien wiedergegeben ist, das tatsächlich nicht dargestellt wird.
Schließlich bestimmt die Vorhersageeinheit 25 eine Differenz zwischen dem Positionsvektor r(t2) und dem Positionsvektor r(t1) zur Bestimmung eines Vektors d(t2) für die vorhergesagte Bewegung (Schritte ST3 und ST4) und bestimmt einen Absolutwert des Bewe­ gungsvektors d(t2) zur Festlegung der Größe SD der Bewegung wie folgt (Schritt ST5):
d(t2) = k(r(t2) - r(t1))
SD = | k | . | (r(t2) - r(t1)) |
worin k eine Konstante ist. Die bestimmte Größe SD der Bewegung wird in die Fahrumgebungs-Ausgabeeinheit 26 eingegeben. Wie in Fig. 16 gezeigt ist, addiert die Fahrumgebungs-Ausgabeeinheit 26 eine Länge a, die sich proportional zur Größe SD der Bewegung erstreckt zu einem Radius b eines Kreises, der sich proportio­ nal zu einem Größenindex S1 des Hindernisses 21 er­ streckt, um die Größe SD der Bewegung als einen kon­ zentrischen Kreis darzustellen, der auf einer äußeren Peripherie des den Index S1 anzeigenden Kreises posi­ tioniert ist. Daher kann ein Radius S* des die Größe SD der Bewegung anzeigenden Kreises ausgedrückt wer­ den als S* = a + b.
Hierdurch wird, selbst wenn Hindernisse dieselbe Ab­ messung haben, das Hindernis größer dargestellt, da es sich schneller bewegt, so daß leichter entschieden werden kann, ob die Gefahr ernsthaft ist oder nicht.
Obgleich das vierte Ausführungsbeispiel unter Bezug auf die Zeitpunkte t1 und t2 beschrieben wurde, wird tatsächlich derselbe Prozeß für jeweils einen Zeitab­ schnitt Δt wiederholt, um einen Vektor d(t) für die vorhergesagte Bewegung und die Größe SD der Bewegung zu jeder Zeit zu bestimmen zur Anzeige konzentrischer Kreise.
Beispiel 5
Das vierte Ausführungsbeispiel wurde mit Bezug auf den Fall beschrieben, in welchem ein eine Größe SD der Bewegung anzeigender Kreis als ein konzentrischer Kreis dargestellt wird, der auf einem äußeren Umfang eines einen Größenindex eines Hindernisses anzeigen­ den Kreises angeordnet ist. Wie jedoch in Fig. 17 ge­ zeigt ist, kann eine vorhergesagte Position eines Hindernisses 21 zu einem Zeitpunkt t3 entsprechend einem Vektor d(t2) für die vorhergesagte Bewegung und die Größe SD der Bewegung, entsprechend der Bestim­ mung durch die Vorhersageeinheit 25 bestimmt werden, und ein Kreis mit einem Radius, der sich proportional zu der Größe SD der Bewegung erstreckt, kann an der Position wiedergegeben werden.
In der Zeichnung stellen die gestrichelten Linien je­ weils gemeinsame Tangenten für jeden Kreis dar zum Zweck der Anzeige der Bewegungsrichtung.
Gemäß dem fünften Ausführungsbeispiel ist es somit möglich, den Grad der Gefahr in der Bewegungsrichtung des Hindernisses zu bestimmen.
Beispiel 6
Im fünften Ausführungsbeispiel wurde der Fall be­ schrieben, daß ein Größenindex eines Hindernisses durch die Größe eines Kreises angezeigt wird. Wie je­ doch in Fig. 18 gezeigt ist, kann der Größenindex S1 des Hindernisses durch die Größe der Bodenfläche ei­ ner Säule angezeigt werden.
Hierdurch bestehen Vorteile dadurch, daß es möglich ist, eine stereoskope Darstellung vorzusehen und das Erfassen eines Gesamtbildes der Fahrumgebung gegen­ über dem vorstehenden Ausführungsbeispiel zu verein­ fachen.
In diesem Fall schneiden sich Koordinatenachsen ent­ sprechend den Achsen in einer Vorderrichtung und in einer Seitenrichtung eines Fahrzeugs untereinander nicht in einem rechten Winkel, sondern diagonal.
Beispiel 7
Im sechsten Ausführungsbeispiel wurde der Fall be­ schrieben, daß ein Größenindex S1 eines Hindernisses durch die Größe der Bodenfläche einer Säule angezeigt wird. Wie jedoch in den Fig. 19 und 20 gezeigt ist, kann der Größenindex S1 des Hindernisses durch einen Kegel mit kreisförmigem Querschnitt oder eine gloc­ kenförmige Gestalt mit dem Größenindex S1 als Höhe angezeigt werden.
Da der Größenindex S1 des Hindernisses der Höhe ent­ spricht, wie vorstehend dargelegt ist, ergeben sich Vorteile dadurch, daß es möglich ist, eine visuelle Differenz des Index S1 klarer anzugeben und ein Ge­ samtbild einer Fahrumgebung zu vereinfachen. Weiter­ hin kann die Möglichkeit der Darstellung eines ent­ fernten Hindernisses erhöht werden, ohne daß es im Schatten eines nahen Hindernisses liegt.
Obgleich das siebente Ausführungsbeispiel in Bezug auf einen kreisförmigen Kegel oder eine Glockenform beschrieben wurde, kann die vorliegende Erfindung je­ de gewünschte Form verwenden, bei der der Größenindex S1 des Hindernisses in drei Dimensionen angezeigt werden kann.
Beispiel 8
Das sechste und das siebente Ausführungsbeispiel wur­ den in Bezug auf einen Fall beschrieben, bei welchem eine dreidimensionale Figur auf der Grundlage des Größenindex S1 eines Hindernisses wiedergegeben wird. Wie jedoch in den Fig. 21 bis 24 gezeigt ist, kann die dreidimensionale Figur auf der Grundlage des Grö­ ßenindexes S1 und einer Größe SD der Bewegung des Hindernisses wiedergegeben werden.
Gemäß Fig. 21 werden der Größenindex S1 und die Größe der Bewegung des Hindernisses durch die Bodenfläche der dreidimensionalen Figur angezeigt, und gemäß Fig. 22 entsprechen die Bödenfläche und die Höhe jedes kreisförmigen Kegels dem Index S1 und der Größe SD der Bewegung.
Gemäß Fig. 23 ist ein Scheitelpunkt auf einem Kreis entsprechend dem Index S1 vorgesehen, und Fig. 24 il­ lustriert eine dreidimensionale Figur, in welcher ein Scheitelpunkt im Flächenmittelpunkt beider Kreise vorgesehen ist.
Obgleich das achte Ausführungsbeispiel mit Bezug auf den kreisförmigen Kegel oder dergleichen beschrieben wurde, kann die vorliegende Erfindung jede gewünschte Form verwenden, die den Größenindex S1 des Hindernis­ ses in drei Dimensionen anzeigen kann.
Beispiel 9
Fig. 25 zeigt ein Blockschaltbild eines Fahrumge­ bungs-Überwachungsgeräts nach dem neunten Ausfüh­ rungsbeispiel der Erfindung. Eine Hinderniserken­ nungseinheit 27 dient zum Bestimmen eines Hindernis­ ses aus einem von der Bildverarbeitungs-Bereichsbe­ grenzungseinheit 17 vorgegebenen zweidimensionalen Bild, um einen Größenindex S des Hindernisses zu be­ rechnen, und zum Erweitern des Indexes S, wenn das Hindernis eine Höhe y hat, die größer als dessen Breite x ist.
Es erfolgt nun eine Beschreibung der Arbeitsweise.
Wenn beispielsweise zwei Hindernisse vorhanden sind, wird angenommen, daß die Hinderniserkennungseinheit 27 die Hindernisse wie beim ersten Ausführungsbei­ spiel bestimmt, wodurch sich die Umrisse der Hinder­ nisse gemäß Fig. 26 ergeben.
Während wie beim ersten Ausführungsbeispiel die Hin­ derniserkennungseinheit 27 die Größenindizes S1, S2 der Hindernisse 21 und 22 entsprechend den Gleichungen (3) und (4) berechnet, werden die resultierenden In­ dizes S1 und S2 nicht als endgültige Bestimmung ver­ wendet, und der Betrieb wird gemäß folgender Verar­ beitung weitergeführt.
Das heißt, die Hinderniserkennungseinheit 27 bestimmt weiterhin Verhältnisse ∈1 = y1/x1, ∈2 = y2/x2 zur Mul­ tiplikation der vorher bestimmten Indizes S1 und S2 mit den Erweiterungskoeffizienten entsprechend den Verhältnissen ∈1 und ∈2 wie folgt:
S1 = Erweiterungskoeffizient × S1 (6)
S2 = Erweiterungskoeffizient × S2 (7).
Jeder Erweiterungskoeffizient entsprechend dem Ver­ hältnis ∈ wird wie folgt eingestellt:
  • A) Der Erweiterungskoeffizient ist gleich 1 für ∈ < 1. In diesem Fall ist die Höhe des Hindernisses grö­ ßer als dessen Breite, so daß die durch die Glei­ chungen (3) und (4) erhaltenen Indizes S als end­ gültige Indizes S ausgegeben werden.
  • B) Der Erweiterungskoeffizient ist a für 1 < ∈ < ∈a (a < 1). In diesem Fall wird ein oberer Grenzwert ∈a (zum Beispiel ∈a = 2) so eingestellt, daß das Verhältnis von Höhe zu Breite in einem Bereich entsprechend einem Motorrad ist, und der Erweiterungskoeffi­ zient a wird beispielsweise auf 2 eingestellt.
  • C) Der Erweiterungskoeffizient ist b für ∈a < ∈ < ∈b (b < 1 und b < a). In diesem Fall werden ein unterer Grenz­ wert ∈a und ein oberer Grenzwert (zum Beispiel ∈b = 3) so eingestellt, daß das Verhältnis von Höhe zu Breite in einem Bereich entsprechend dem eines menschlichen Körpers ist; und der Erweiterungs­ koeffizient wird beispielsweise auf 4 eingestellt.
    Wenn daher das Verhältnis ∈1 des Hindernisses 21 die Bedingung A und das Verhältnis ∈2 des Hinder­ nisses 22 die Bedingung B erfüllen, können die Größenindizies S1, S2 der Hindernisse 21 und 22 wie folgt ausgedrückt werden:
    S1 = 1 × S1 (8)
    S2 = a × S2 (9).
Wie vorstehend dargestellt ist, wird beim neunten Ausführungsbeispiel der Erweiterungskoeffizient im Hinblick auf das Verhältnis von Höhe zu Breite des Hindernisses multipliziert. Es ist hierdurch möglich, das Hindernis wie ein Motorrad oder ein menschlicher Körper, das klein, aber sehr gefährlich ist, sehr groß darzustellen und den Grad der Gefahr deutlicher anzuzeigen, wodurch sich eine angemessene Entschei­ dung über die Möglichkeit einer Kollision ergibt.
Beispiel 10
Fig. 27 enthält das Blockschaltbild eines Fahrumge­ bungs-Überwachungsgeräts nach dem zehnten Ausfüh­ rungsbeispiel der Erfindung. Eine Hinderniserken­ nungs-Hilfseinheit 28 bezieht sich auf einen Grö­ ßenindex S0(r) eines Hindernisses, der entsprechend einem Abstand r zum Hindernis voreingestellt ist für den Fall, daß der Abstand r und ein Azimut θ zum Hin­ dernis von den Laserradarvorrichtungen 11 bis 14 er­ faßt werden, und für den Fall, daß die Hinderniser­ kennungseinheit 18 keinen Größenindex S des Hinder­ nisses ausgibt, und sie gibt den Größenindex S0(r) des Hindernisses entsprechend dem von den Laserradar­ vorrichtungen 11 bis 14 erfaßten Abstand r an die Fahrumgebungs-Ausgabeeinheit 19 aus.
Die Arbeitsweise wird nachfolgend beschrieben.
Als Beispiel erfolgt die Beschreibung eines Falles, bei dem nur ein Hindernis vorhanden ist und die La­ serradarvorrichtung 11 das Hindernis 21 erfaßt.
Typischerweise berechnet die Hinderniserkennungsein­ heit 18 den Größenindex S1 des Hindernisses und gibt diesen aus, wenn die Laserradarvorrichtung 11 das Hindernis 21 erfaßt. Wenn jedoch eine Fehlfunktion bei der Bildverarbeitung auftritt oder die Berechnung für den Index nicht vollständig beendet ist, gibt die Hinderniserkennungseinheit 18 manchmal keinen Index S1 aus, selbst wenn die Laserradarvorrichtung 11 den relativen Abstand r1 und den Azimut θ1 zum Hindernis 21 feststellt.
Folglich bezieht sich die Hinderniserkennungs- Hilfseinheit 28 auf Entscheidungsbezugsdaten Sth(r1), die mit dem Abstand r1 in Entscheidungsbezugsdaten Sth(r) verbunden sind, die entsprechend dem Abstand r zum Hindernis 21 voreingestellt sind, wenn die Laser­ radarvorrichtung 11 den Abstand r1 und den Azimut θ1 zum Hindernis 21 feststellt (siehe Fig. 28). Dann vergleicht die Hinderniserkennungs-Hilfseinheit 28 die Entscheidungsbezugsdaten Sth(r1) mit von der Hin­ derniserkennungseinheit 18 ausgegebenen Daten S (wel­ che beispielsweise Daten mit dem Wert 0 ausgibt, wenn sie keinen Index S1 ausgibt).
Wenn die Daten S größer als die Entscheidungsbezugs­ daten Sth(r1) sind, entscheidet die Hinderniserken­ nungs-Hilfseinheit 28 normalerweise, daß der Index S1 von der Hinderniserkennungseinheit 18 ausgegeben wird, und beliefert die Fahrumgebungs-Ausgabeeinheit 19 mit dem Index S1, so wie er ist. Wenn jedoch die Daten S kleiner als die Entscheidungsbezugsdaten Sth(r1) sind, entscheidet die Hinderniserkennungs- Hilfseinheit 28, daß irgendeine Fehlfunktion bei der Bildverarbeitung auftritt. Dann bezieht sich die Hin­ derniserkennungs-Hilfseinheit 28 auf Entscheidungsbe­ zugsdaten S0(r1), die mit dem Abstand r1 in Entschei­ dungsbezugsdaten S0(r) verbunden sind, die entspre­ chend dem Abstand r zum Hindernis voreingestellt sind (siehe Fig. 28), und gibt den Index S0(r1) an die Fahrumgebungs-Ausgabeeinheit 19 aus.
Fig. 29 zeigt ein illustratives Ausgangssignal der Fahrumgebungs-Ausgabeeinheit 19.
Wie vorbeschrieben ist, gibt beim zehnten Ausfüh­ rungsbeispiel, wenn die Hinderniserkennungseinheit 18 keinen Index S1 ausgibt, die Hinderniserkennungs- Hilfseinheit 28 den Index S0(r1) aus. Als Folge hier­ von ist es möglich, einen Fahrer über das gegenwärti­ ge Hindernis zu informieren, selbst wenn bei der Bildverarbeitung eine Fehlfunktion auftritt.
Beispiel 11
Fig. 30 enthält das Blockschaltbild eines Fahrumge­ bungs-Überwachungsgeräts nach dem elften Ausführungs­ beispiel der Erfindung. Eine Datenersetzungseinheit 29 dient zur Ausgabe eines Substitutionsindexes Sx(r) anstelle eines von der Hinderniserkennungs- Hilfseinheit 28 ausgegebenen Größenindexes S0(r) ei­ nes Hindernisses, der einen größeren Wert als der Größenindex S0(r) hat, an die Fahrumgebungs- Ausgabeeinheit 19 für den Fall, daß die Laserradar­ vorrichtungen 11 bis 14 einen relativen Abstand r und einen Azimut θ zum Hindernis feststellen und die La­ serradarvorrichtungen 11 bis 14 keinen Größenindex S des Hindernisses ausgeben, selbst wenn eine vorbe­ stimmte Zeit T0 oder mehr seit der Feststellung des Abstandes r und des Azimuts θ verstrichen ist.
Es folgt nun eine Beschreibung der Arbeitsweise.
Fig. 31 zeigt einen Zustand, bei dem das Hindernis 21 sich aus einem Bereich I in einem Bereich II bewegt, das heißt einen Zustand, bei dem das Hindernis 21 für eine Zeitspanne von t1 bis t3 im Bereich I vorhanden ist und in den Bereich II zu einem Zeitpunkt t3 ein­ tritt.
In diesem Ausführungsbeispiel ist, während die Hin­ derniserkennungseinheit 18 normalerweise einen Grö­ ßenindex S(r2) des Hindernisses 21 unmittelbar vor dem Zeitpunkt t3 ausgibt, die Berechnung eines Grö­ ßenindexes S(r3) des Hindernisses 21 abhängig von ei­ nem Abstand r3 und einem Azimut θ2 nicht vollständig beendet, unmittelbar nachdem das Hindernis 21 in den Bereich II eintritt (d. h. zum Zeitpunkt t3). Daher bezieht sich die Hinderniserkennungs-Hilfseinheit 28 als ein einleitender Schritt auf den Index S0(r3) und gibt diesen aus in Verbindung mit dem Abstand r3 wie beim zehnten Ausführungsbeispiel.
Jedoch entscheidet bei diesem Ausführungsbeispiel die Datenersetzungseinheit 29, da die Hinderniserken­ nungseinheit 18 keinen Index S(r3) ausgibt, selbst nachdem die vorbestimmte Zeitspanne T0 seit der Aus­ gabe des Index S0(r3) durch die Hinderniserkennungs- Hilfseinheit 28 verstrichen ist, daß irgendeine Fehl­ funktion bei der Bildverarbeitung auftritt. In diesem Zusammenhang wird die vorbestimmte Zeitspanne T0 aus­ reichend länger als die Zeitspanne Tc eingestellt, die für die Berechnung des Index S(r3) bei der norma­ len Durchführung der Bildverarbeitung benötigt wird.
Demgemäß gibt die Datenersetzungseinheit 29 einen Wert Sx(r3) aus anstelle des von der Hinderniserken­ nungs-Hilfseinheit 28 ausgegebenen Indexes S0(r3), der größer als S0(r3) ist, um die Fehlfunktion in der Bildverarbeitung klarzustellen, damit der Fahrer auf deren Auftreten aufmerksam gemacht wird.
Sx(r) ist ein Index, der vorhanden ist entsprechend dem Abstand r zum Hindernis wie im Fall von S0(r).
Wie vorstehend dargestellt ist, gibt beim elften Aus­ führungsbeispiel die Datenersetzungseinheit 29, wenn die Hinderniserkennungseinheit 18 keinen Index S(r3) ausgibt, selbst nachdem die vorbestimmte Zeitspanne T0 oder mehr seit der Ausgabe des Indexes S0(r3) durch die Hinderniserkennungs-Hilfseinheit 28 verstrichen ist, einen Wert Sx(r3) anstelle von S0(r3) aus. Als Folge wird ein vergrößertes Bild dargestellt, um die Aufmerksamkeit des Fahrers sicherer auf die Fehlfunk­ tion zu lenken.
Das elfte Ausführungsbeispiel wurde beschrieben mit Bezug auf den Fall, bei dem der Abstand r entspre­ chend den repräsentativen Azimutwinkeln θ1, θ2, θ3 und θ4 und die Ein-/Ausgabe des Indexes S parallel verar­ beitet werden. Jedoch kann ein Register vorgesehen sein, um die jeweiligen Daten für eine vorbestimmte Zeitspanne zu halten und um die Ein-/Ausgabe und Übertragung von Daten in Reihe über eine einzige Übertragungsleitung durchzuführen in Synchronisation mit einem Takt mit kurzem Zyklus, der ein Viertel oder weniger als die Zeitspanne zwischen den Zeit­ punkten t1 und t2 beträgt.
Beispiel 12
Das elfte Ausführungsbeispiel wurde mit Bezug auf ei­ nen Fall beschrieben, bei dem eine Datenersetzungs­ einheit 29 den Index Sx(r3) anstelle des Indexes S0(r3) ausgibt. Alternativ kann, wie in den Fig. 32 und 33 gezeigt ist, für den Fall, daß die Hinder­ niserkennungseinheit 18 einen Größenindex S(r) eines Hindernisses nicht ausgibt, selbst nachdem eine vor­ bestimmte Zeitspanne Tx oder mehr von der Feststel­ lung eines relativen Abstands r und eines Azimuts θ durch die Laserradarvorrichtungen 11 bis 14 verstri­ chen ist, eine Fehlfunktions-Bestimmungseinheit 30 (eine Fehlfunktions-Anzeigeeinheit) entscheiden, daß irgendeine Fehlfunktion auftritt, und eine Fehlfunk­ tionszustands-Ausgabeeinheit 31 (eine Fehlfunktions- Anzeigeeinheit) kann das Auftreten der Fehlfunktion anzeigen.
Als ein Beispiel der Ausgabe der Fehlfunktionszu­ stands-Ausgabeeinheit 31 kann eine konische Figur entsprechend dem Hindernis in Fig. 19 aufflackern, oder Buchstaben wie "Fehler" können auf derselben An­ zeige wiedergegeben werden. Alternativ kann ein be­ kanntes Stimmenerzeugungsgerät verwendet werden, um eine Sprachansage wie "Fehler im Bildverarbeitungssy­ stem" zu erzeugen, oder eine Alarmvorrichtung kann zur Erzeugung eines Pieptons verwendet werden.
Beispiel 13
Die Ausführungsbeispiele wurden mit Bezug auf ein Sy­ stem beschrieben, um ein Hindernis in einem Umfangs­ bereich vor einem Fahrzeug 1 zu überwachen. Jedoch kann die Erfindung auf ein System angewendet werden, um das Hindernis in einem Umgebungsbereich in einer Seitenrichtung oder hinter dem Fahrzeug 1 zu überwa­ chen.

Claims (12)

1. Fahrumgebungs-Überwachungsgerät mit einer Objekt­ erfassungseinheit (15) zum Abtasten einer Mehr­ zahl von geteilten Umgebungsbereichen in Fahrt­ richtung eines Fahrzeugs (1), um, wenn sich ein Objekt in den Umgebungsbereichen befindet, einen Abstand und einen Azimut vom Fähr­ zeug (1) zum Objekt festzustellen,
einer Bilderfassungseinheit (16) zum Erfassen zweidimensionaler Bilder in den Umgebungsberei­ chen, einer Bildverarbeitungs- Bereichsbegrenzungseinheit (17) zum Bestimmen des Umgebungsbereiches, in welchem sich das Objekt befindet, in Abhängigkeit von dem durch die Objekterfassungseinheit (15) festgestellten Azimut, um ein zweidimensionales Bild entsprechend dem bestimmten Umgebungsbereich von der Bilderfas­ sungseinheit (16) abzuleiten,
einer Hinderniserkennungseinheit (18) zur Unter­ scheidung von Hindernissen von anderen Objekten anhand ihrer äußeren Dimension durch Verarbeitung des von der Bildverarbeitungs-Bereichsbegrenzungs­ einheit (17) abgeleiteten zweidimensionalen Bildes auf der Grundlage der von der Objekterfassungsein­ heit (15) gelieferten Abstandsdaten und zum Be­ rechnen eines Größenindexes eines Hindernisses (2, 20, 21-23), und
einer ersten Fahrumgebungs-Ausgabeeinheit (19) zum Bestimmen einer Position, an der das Hindernis (2, 20, 21-23) sich befindet, mittels einer räumlichen Koordinate in bezug auf eine Fahrtstrecke des Fahrzeugs (1) in Abhängigkeit vom Abstand und vom Azimut, die von der Objekterfassungseinheit (15) festgestellt wurden, um ein Bild wiederzugeben, das den Größenindex des Hindernisses (2, 20, 21-23) an der bestimmten Position anzeigt.
2. Fahrumgebungs-Überwachungsgerät nach Anspruch 1, gekennzeichnet durch eine Korrektureinheit (24) zum Begrenzen des durch die Bildverarbeitungs- Bereichsbegrenzungseinheit (17) bestimmten Be­ reichs, entsprechend dem von der Objekterfassungs­ einheit (15) festgestellten Abstand, um ein zwei­ dimensionales Bild entsprechend dem begrenzten Be­ reich von der Bildverarbeitungs-Bereichsbegren­ zungseinheit (17) abzuleiten.
3. Fahrumgebungs-Überwachungsgerät nach Anspruch 1, gekennzeichnet durch eine Vorhersageeinheit (25) zum Vorhersagen der Größe einer Bewegung des Hin­ dernisses (2, 20, 21-23) in Abhängigkeit von dem Ab­ stand und dem Azimut, die gegenwärtig von der er­ sten Fahrumgebungs-Ausgabeeinheit (19) festge­ stellt werden, und von dem Abstand und dem Azimut, die vorher festgestellt wurden, und eine zweite Fahrumgebungs-Ausgabeeinheit (26) zum Bestimmen einer Position, an der das Hindernis (2, 20, 21-23) sich befindet, in einer räumlichen Koordinate in bezug auf eine Fahrtstrecke des Fahrzeugs (1) in Abhängigkeit vom Abstand und vom Azimut, die ge­ genwärtig von der Objekterfassungseinheit (15) festgestellt werden, um ein Bild wiederzugeben, das den Größenindex und die Größe der Bewegung des Hindernisses, (2, 20, 21-23) an der bestimmten Posi­ tion anzeigt.
4. Fahrumgebungs-Überwachungsgerät nach Anspruch 3, dadurch gekennzeichnet, daß die zweite Fahrumge­ bungs-Ausgabeeinheit (26) den Größenindex und die Größe der Bewegung des Hindernisses (2, 20, 21-23) jeweils durch die Größe von Kreisen anzeigt, und daß sie einen der Kreise, der die Größe der Bewegung darstellt, durch einen konzentrischen Kreis anzeigt, der auf einem äußeren Umfang des anderen der Kreise, der den Größenindex des Hindernisses (2, 20, 21-23) dar­ stellt, angeordnet ist.
5. Fahrumgebungs-Überwachungsgerät nach Anspruch 1, gekennzeichnet durch eine Vorhersageeinheit (25) zum Vorhersagen der Größe und der Richtung einer Bewegung des Hindernisses (2, 20, 21-23) in Abhän­ gigkeit von dem Abstand und dem Azimut, die gegen­ wärtig von der ersten Fahrumgebungs-Ausgabeeinheit (19) festgestellt werden, und von dem Abstand und dem Azimut, die vorher festgestellt wurden, und eine zweite Fahrumgebungs-Ausgabeeinheit (26) zum Bestimmen einer Position, an der sich das Hinder­ nis (2, 20, 21-23) befindet, in Abhängigkeit vom Ab­ stand und vom Azimut, die gegenwärtig von der Ob­ jekterfassungseinheit (15) festgestellt werden, und der anderen Position, an der sich das Hinder­ nis (2, 20, 21-23) nach der Bewegung befinden wird, in Abhängigkeit von der Größe und der Richtung der Bewegung, die von der Vorhersageeinheit (25) vor­ hergesagt wurden, in einer räumlichen Koordinate in bezug auf eine Fahrtstrecke eines Fahrzeugs (1), um ein Bild, das den Größenindex des Hinder­ nisses (2, 20, 21-23) an der Position anzeigt, an der das Hindernis (2, 20, 21-23) sich befindet, und ein anderes Bild, das die Größe der Bewegung an der Position anzeigt, an der sich das Hindernis (2, 20, 21-23) nach der Bewegung befindet, darzu­ stellen.
6. Fahrumgebungs-Überwachungsgerät nach Anspruch 5, dadurch gekennzeichnet, daß die zweite Fahrumge­ bungs-Ausgabeeinheit (26) den Größenindex und die Größe der Bewegung des Hindernisses (2, 20, 21-23) jeweils durch die Größe von Kreisen, und eine Linie, die eine gemeinsame Tangente für jeden der Kreise dar­ stellt, anzeigt.
7. Fahrumgebungs-Überwachungsgerät nach Anspruch 1, dadurch gekennzeichnet, daß die erste Fahrumgebungs- Ausgabeeinheit (19) den Größenindex des Hindernisses (2, 20, 21-23) durch eine dreidimensionale Figur mit einer dem Index entsprechenden Größe anzeigt.
8. Fahrumgebungs-Überwachungsgerät nach Anspruch 3 oder 5, dadurch gekennzeichnet, daß die zweite Fahr­ umgebungs-Ausgabeeinheit (26) den Größenindex und die Größe der Bewegung des Hindernisses (2, 20, 21-23) durch eine dreidimensionale Figur mit einer Größe entsprechend dem Index und der Größe der Bewegung an­ zeigt.
9. Fahrumgebungs-Überwachungsgerät nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß die Hinderniserkennungseinheit (27) den durch die Berech­ nung bestimmten Größenindex des Hindernisses (22) er­ weitert, wenn die Höhe des Hindernisses (22) größer als dessen Breite ist.
10. Fahrumgebungs-Überwachungsgerät nach einem der Ansprüche 1, 3 oder 5, gekennzeichnet durch eine Hin­ derniserkennungs-Hilfseinheit (28) für die Bezugnahme auf einen entsprechend einem Abstand zum Hindernis (2, 20, 21-23) voreingestellten Größenindex eines Hin­ dernisses (2, 20, 21-23) für den Fall, daß der Abstand und ein Azimut zu dem Hindernis (2, 20, 21-23) durch die Objekterfassungseinheit (15) festgestellt werden und die Hinderniserkennungseinheit (18) keinen Grö­ ßenindex des Hindernisses (2, 20, 21-23) ausgibt, und für die Ausgabe des Größenindexes des Hindernisses (2, 20, 21-23) zu der ersten Fahrumgebungs- Ausgabeeinheit (19), entsprechend dem von der Objekt­ erfassungseinheit (15) festgestellten Abstand.
11. Fahrumgebungs-Überwachungsgerät nach Anspruch 10, gekennzeichnet durch eine Datensubstitutionsein­ heit (29) zur Ausgabe eines Substitutionsindexes an­ stelle des von der Hinderniserkennungs-Hilfseinheit (28) ausgegebenen Größenindexes des Hindernisses (2, 20, 21-23), der einen größeren Wert hat als der Größenindex an die erste Fahrumgebungs-Ausgabeeinheit (19), für den Fall, daß die Objekterfassungseinheit (15) den Abstand und den Azimut zum Hindernis (2, 20, 21-23) feststellt und die Hinderniserkennungs­ einheit (18) keinen Größenindex des Hindernisses (2, 20, 21-23) ausgibt, selbst nachdem eine vorbestimm­ te Zeitspanne oder mehr seit der Feststellung des Ab­ standes und des Azimuts verstrichen ist.
12. Fahrumgebungs-Überwachungsgerät nach Anspruch 10, gekennzeichnet durch eine Fehlfunktions- Anzeigeeinheit (30) zur Feststellung, daß irgendeine Fehlfunktion stattfindet, um diese anzuzeigen, wenn die Objekterfassungseinheit (15) den Abstand und den Azimut zum Hindernis (2, 20, 21-23) feststellt und wenn die Hinderniserkennungseinheit (18) keinen Größenin­ dex des Hindernisses (2, 20, 21-23) ausgibt, selbst nachdem eine vorbestimmte Zeitspanne oder mehr seit der Feststellung des Abstandes und des Azimuts ver­ strichen ist.
DE4344485A 1992-12-22 1993-12-21 Fahrumgebungs-Überwachungsgerät Expired - Fee Related DE4344485C2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP34242792 1992-12-22
JP2521493 1993-02-15
JP30052893A JP3263699B2 (ja) 1992-12-22 1993-11-30 走行環境監視装置

Publications (2)

Publication Number Publication Date
DE4344485A1 DE4344485A1 (de) 1994-06-23
DE4344485C2 true DE4344485C2 (de) 1999-07-22

Family

ID=27284937

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4344485A Expired - Fee Related DE4344485C2 (de) 1992-12-22 1993-12-21 Fahrumgebungs-Überwachungsgerät

Country Status (3)

Country Link
US (1) US5475494A (de)
JP (1) JP3263699B2 (de)
DE (1) DE4344485C2 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10148062A1 (de) * 2001-09-28 2003-04-10 Ibeo Automobile Sensor Gmbh Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
US7570793B2 (en) 2001-06-15 2009-08-04 Ibeo Automobile Sensor Gmbh Correction method for data of a plurality of optoelectronic sensors
US9171217B2 (en) 2002-05-03 2015-10-27 Magna Electronics Inc. Vision system for vehicle
US9191634B2 (en) 2004-04-15 2015-11-17 Magna Electronics Inc. Vision system for vehicle
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
US9440535B2 (en) 2006-08-11 2016-09-13 Magna Electronics Inc. Vision system for vehicle
DE102012102320B4 (de) * 2011-03-22 2020-03-05 Subaru Corporation Fahrzeugumfeldüberwachungsvorrichtung und Fahrzeugumfeldüberwachungsverfahren

Families Citing this family (224)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US5910854A (en) * 1993-02-26 1999-06-08 Donnelly Corporation Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices
JPH07225276A (ja) * 1994-02-10 1995-08-22 Mitsubishi Electric Corp 車両用光レーダ装置
JP3156817B2 (ja) * 1994-03-14 2001-04-16 矢崎総業株式会社 車両周辺監視装置
US5754099A (en) * 1994-03-25 1998-05-19 Nippondenso Co., Ltd. Obstacle warning system for a vehicle
US5668663A (en) 1994-05-05 1997-09-16 Donnelly Corporation Electrochromic mirrors and devices
JP3212218B2 (ja) * 1994-05-26 2001-09-25 三菱電機株式会社 車両用障害物検出装置
JP3240835B2 (ja) * 1994-06-09 2001-12-25 株式会社日立製作所 車両用距離計測装置
JP2854805B2 (ja) * 1994-06-15 1999-02-10 富士通株式会社 物体認識方法および視覚装置
JPH08122060A (ja) * 1994-10-21 1996-05-17 Mitsubishi Electric Corp 車両周辺監視システム
JPH08138053A (ja) * 1994-11-08 1996-05-31 Canon Inc 被写体情報処理装置及び遠隔装置
US5642093A (en) * 1995-01-27 1997-06-24 Fuji Jukogyo Kabushiki Kaisha Warning system for vehicle
JPH08285942A (ja) * 1995-04-11 1996-11-01 Yazaki Corp 車両用レーザレーダ
US5617199A (en) * 1995-04-26 1997-04-01 Laser Technology, Inc. Device, and associated method, for determining distances between moving objects
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
DE19546506A1 (de) * 1995-12-13 1997-06-19 Daimler Benz Ag Fahrzeug-Navigationssystem und Signalverarbeitungsverfahren für ein solches Navigationssystem
DE19546507A1 (de) * 1995-12-13 1997-06-19 Daimler Benz Ag Fahrzeug-Navigationssystem und Signalverarbeitungsverfahren für ein solches Navigationssystem
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
JPH09264954A (ja) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd レーダを用いた画像処理システム
JP3619628B2 (ja) * 1996-12-19 2005-02-09 株式会社日立製作所 走行環境認識装置
DE19700793A1 (de) * 1997-01-13 1998-07-16 Mackert Roland Dr Dipl Kaufm Vorrichtung zur Überwachung des nachfolgenden Straßenverkehrs
US5889582A (en) * 1997-03-10 1999-03-30 Virtek Vision Corporation Image-directed active range finding system
US6124886A (en) 1997-08-25 2000-09-26 Donnelly Corporation Modular rearview mirror assembly
US8294975B2 (en) 1997-08-25 2012-10-23 Donnelly Corporation Automotive rearview mirror assembly
US6326613B1 (en) 1998-01-07 2001-12-04 Donnelly Corporation Vehicle interior mirror assembly adapted for containing a rain sensor
US6172613B1 (en) 1998-02-18 2001-01-09 Donnelly Corporation Rearview mirror assembly incorporating vehicle information display
JP3280893B2 (ja) * 1997-09-13 2002-05-13 本田技研工業株式会社 車両用操舵制御装置
DE59809476D1 (de) * 1997-11-03 2003-10-09 Volkswagen Ag Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
JPH11139229A (ja) * 1997-11-11 1999-05-25 Mitsubishi Electric Corp 走行環境監視警報装置
US6055042A (en) * 1997-12-16 2000-04-25 Caterpillar Inc. Method and apparatus for detecting obstacles using multiple sensors for range selective detection
US8288711B2 (en) 1998-01-07 2012-10-16 Donnelly Corporation Interior rearview mirror system with forwardly-viewing camera and a control
US6445287B1 (en) 2000-02-28 2002-09-03 Donnelly Corporation Tire inflation assistance monitoring system
DE19806150C1 (de) * 1998-02-14 1999-09-16 Daimler Chrysler Ag Fahrzeug mit Objekterfassungseinrichtung
EP0949818A3 (de) * 1998-04-07 2000-10-25 Matsushita Electric Industrial Co., Ltd. Bildanzeigegerät an Bord eines Fahrzeugs, Bildsendersystem, Bildsendegerät, und Bildaufnahmegerät
US6477464B2 (en) 2000-03-09 2002-11-05 Donnelly Corporation Complete mirror-based global-positioning system (GPS) navigation solution
US6329925B1 (en) 1999-11-24 2001-12-11 Donnelly Corporation Rearview mirror assembly with added feature modular display
US6693517B2 (en) 2000-04-21 2004-02-17 Donnelly Corporation Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants
JP3986671B2 (ja) * 1998-07-15 2007-10-03 本田技研工業株式会社 物体検知装置
JP3986678B2 (ja) * 1998-08-07 2007-10-03 本田技研工業株式会社 物体検知装置
DE19845048A1 (de) * 1998-09-30 2000-04-06 Volkswagen Ag Verfahren und Einrichtung zur Erfassung von Hindernissen
JP3923200B2 (ja) * 1998-10-23 2007-05-30 本田技研工業株式会社 車両の障害物検知方法
JP2000161915A (ja) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd 車両用単カメラ立体視システム
JP3990836B2 (ja) * 1999-03-01 2007-10-17 矢崎総業株式会社 車両用周辺監視装置
JP2000337871A (ja) * 1999-05-27 2000-12-08 Fujitsu Ltd 測距装置
JP4118452B2 (ja) * 1999-06-16 2008-07-16 本田技研工業株式会社 物体認識装置
JP3515926B2 (ja) * 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
AU5531999A (en) * 1999-09-02 2001-03-26 Lee, Eung Do A device for recording image of driving circumstances around automobile
JP4308381B2 (ja) 1999-09-29 2009-08-05 富士通テン株式会社 周辺監視センサ
AU2001243285A1 (en) 2000-03-02 2001-09-12 Donnelly Corporation Video mirror systems incorporating an accessory module
US7004593B2 (en) 2002-06-06 2006-02-28 Donnelly Corporation Interior rearview mirror system with compass
US7167796B2 (en) 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
US7370983B2 (en) 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
DE10011263A1 (de) * 2000-03-08 2001-09-13 Bosch Gmbh Robert Objektdetektionssystem
US6396408B2 (en) 2000-03-31 2002-05-28 Donnelly Corporation Digital electrochromic circuit with a vehicle network
US7852462B2 (en) * 2000-05-08 2010-12-14 Automotive Technologies International, Inc. Vehicular component control methods based on blind spot monitoring
DE10025678B4 (de) * 2000-05-24 2006-10-19 Daimlerchrysler Ag Kamerabasiertes Precrash-Erkennungssystem
US7581859B2 (en) 2005-09-14 2009-09-01 Donnelly Corp. Display device for exterior rearview mirror
US7255451B2 (en) 2002-09-20 2007-08-14 Donnelly Corporation Electro-optic mirror cell
EP1363810B1 (de) 2001-01-23 2007-05-30 Donnelly Corporation Verbessertes fahrzeugbeleuchtungssystem
DE10114932B4 (de) * 2001-03-26 2005-09-15 Daimlerchrysler Ag Dreidimensionale Umfelderfassung
US6882287B2 (en) 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
US7697027B2 (en) 2001-07-31 2010-04-13 Donnelly Corporation Vehicular video system
DE50206591D1 (de) * 2001-08-22 2006-06-01 Ibeo Automobile Sensor Gmbh Verfahren zur erkennung und verfolgung von objekten
DE10148064A1 (de) * 2001-09-28 2003-04-10 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
JP3880837B2 (ja) * 2001-11-02 2007-02-14 富士重工業株式会社 車外監視装置
KR20030050150A (ko) * 2001-12-18 2003-06-25 현대자동차주식회사 도로 상황 판정 시스템 및 그 방법
DE10301468B4 (de) * 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
US6862537B2 (en) * 2002-03-21 2005-03-01 Ford Global Technologies Llc Sensor fusion system architecture
US6918674B2 (en) 2002-05-03 2005-07-19 Donnelly Corporation Vehicle rearview mirror system
US7329013B2 (en) 2002-06-06 2008-02-12 Donnelly Corporation Interior rearview mirror system with compass
US7310177B2 (en) 2002-09-20 2007-12-18 Donnelly Corporation Electro-optic reflective element assembly
US7274501B2 (en) 2002-09-20 2007-09-25 Donnelly Corporation Mirror reflective element assembly
DE10253510A1 (de) * 2002-11-16 2004-05-27 Robert Bosch Gmbh Vorrichtung und Verfahren zur Verbesserung der Sicht in einem Kraftfahrzeug
JP2004240480A (ja) * 2003-02-03 2004-08-26 Matsushita Electric Ind Co Ltd 運転支援装置
JP3879848B2 (ja) 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
US7289037B2 (en) 2003-05-19 2007-10-30 Donnelly Corporation Mirror assembly for vehicle
US7392118B2 (en) * 2003-08-18 2008-06-24 Fico Mirrors, Sa System and method for monitoring the external environment of a motor vehicle
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
US20050060090A1 (en) * 2003-09-17 2005-03-17 Kouji Sasano Vehicle-type measurement system
US7446924B2 (en) 2003-10-02 2008-11-04 Donnelly Corporation Mirror reflective element assembly including electronic component
US7308341B2 (en) 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
JP3925488B2 (ja) * 2003-11-11 2007-06-06 日産自動車株式会社 車両用画像処理装置
JP2005145301A (ja) * 2003-11-17 2005-06-09 Denso Corp 車両の運転支援装置
JP4206928B2 (ja) * 2004-01-19 2009-01-14 株式会社デンソー 衝突可能性判定装置
US7881496B2 (en) 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
US7720580B2 (en) 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
EP1883855B1 (de) 2005-05-16 2011-07-20 Donnelly Corporation Fahrzeugspiegelanordnung mit zeichen am reflektierenden teil
CN101535087B (zh) 2005-11-01 2013-05-15 唐纳利公司 具有显示装置的内部后视镜
CN1967147B (zh) * 2005-11-09 2011-08-17 日产自动车株式会社 车辆用驾驶操作辅助装置及具有该装置的车辆
US8194132B2 (en) 2006-01-20 2012-06-05 Old World Industries, Llc System for monitoring an area adjacent a vehicle
DE102006008275A1 (de) * 2006-02-22 2007-08-23 Siemens Ag Verfahren zur Detektion von Objekten mit einer schwenkbaren Sensoreinrichtung
JP2007233440A (ja) * 2006-02-27 2007-09-13 Omron Corp 車載用画像処理装置
EP1991905B1 (de) 2006-03-09 2011-05-11 Gentex Corporation Fahrzeugrückspiegelanordnung mit anzeige von hoher intensität
JP2008176555A (ja) * 2007-01-18 2008-07-31 Fujitsu Ten Ltd 障害物検知装置および障害物検知方法
EP2122599B1 (de) 2007-01-25 2019-11-13 Magna Electronics Inc. Radarerfassungssystem für ein fahrzeug
JP5132164B2 (ja) * 2007-02-22 2013-01-30 富士通株式会社 背景画像作成装置
JP5160114B2 (ja) 2007-03-26 2013-03-13 本田技研工業株式会社 車両の通り抜け判断装置
US7914187B2 (en) 2007-07-12 2011-03-29 Magna Electronics Inc. Automatic lighting system with adaptive alignment function
US8017898B2 (en) 2007-08-17 2011-09-13 Magna Electronics Inc. Vehicular imaging system in an automatic headlamp control system
WO2009036176A1 (en) 2007-09-11 2009-03-19 Magna Electronics Imaging system for vehicle
WO2009046268A1 (en) 2007-10-04 2009-04-09 Magna Electronics Combined rgb and ir imaging sensor
US8154418B2 (en) 2008-03-31 2012-04-10 Magna Mirrors Of America, Inc. Interior rearview mirror system
JP4377439B1 (ja) * 2008-06-12 2009-12-02 本田技研工業株式会社 車両周辺監視装置
JP5624266B2 (ja) * 2008-06-24 2014-11-12 株式会社東芝 赤外線撮像装置および赤外線撮像方法
JP5624267B2 (ja) * 2008-06-24 2014-11-12 株式会社東芝 赤外線撮像装置および赤外線撮像方法
TWM348676U (en) * 2008-07-22 2009-01-11 Iner Aec Executive Yuan Environmental survey robot
US20100020170A1 (en) 2008-07-24 2010-01-28 Higgins-Luthman Michael J Vehicle Imaging System
US8885039B2 (en) * 2008-07-25 2014-11-11 Lg Electronics Inc. Providing vehicle information
JP5345350B2 (ja) * 2008-07-30 2013-11-20 富士重工業株式会社 車両の運転支援装置
JP2010064725A (ja) * 2008-09-15 2010-03-25 Denso Corp 車載撮影画像表示制御装置、車載撮影画像表示制御装置用のプログラム、および車載撮影画像表示システム
US9487144B2 (en) 2008-10-16 2016-11-08 Magna Mirrors Of America, Inc. Interior mirror assembly with display
WO2010099416A1 (en) 2009-02-27 2010-09-02 Magna Electronics Alert system for vehicle
US8376595B2 (en) 2009-05-15 2013-02-19 Magna Electronics, Inc. Automatic headlamp control
JP2010009607A (ja) * 2009-07-03 2010-01-14 Mazda Motor Corp 車両の障害物警報装置
DE102009034026A1 (de) * 2009-07-21 2011-01-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Erkennung von Objekten in der Umgebung eines Sensorsystems, insbesondere eines Sensorsystems eines Fahrzeugs
US8874317B2 (en) 2009-07-27 2014-10-28 Magna Electronics Inc. Parking assist system
US9495876B2 (en) 2009-07-27 2016-11-15 Magna Electronics Inc. Vehicular camera with on-board microcontroller
EP2473871B1 (de) 2009-09-01 2015-03-11 Magna Mirrors Of America, Inc. Abbildungs- und anzeigesystem für fahrzeuge
US8890955B2 (en) 2010-02-10 2014-11-18 Magna Mirrors Of America, Inc. Adaptable wireless vehicle vision system based on wireless communication error
US9117123B2 (en) 2010-07-05 2015-08-25 Magna Electronics Inc. Vehicular rear view camera display system with lifecheck function
WO2012068331A1 (en) 2010-11-19 2012-05-24 Magna Electronics Inc. Lane keeping system and lane centering system
US9900522B2 (en) 2010-12-01 2018-02-20 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
JP2012141691A (ja) * 2010-12-28 2012-07-26 Fujitsu Ten Ltd 映像処理装置
US9085261B2 (en) 2011-01-26 2015-07-21 Magna Electronics Inc. Rear vision system with trailer angle detection
US9194943B2 (en) 2011-04-12 2015-11-24 Magna Electronics Inc. Step filter for estimating distance in a time-of-flight ranging system
WO2012145819A1 (en) 2011-04-25 2012-11-01 Magna International Inc. Image processing method for detecting objects using relative motion
US10793067B2 (en) 2011-07-26 2020-10-06 Magna Electronics Inc. Imaging system for vehicle
DE112012003931T5 (de) 2011-09-21 2014-07-10 Magna Electronics, Inc. Bildverarbeitungssystem für ein Kraftfahrzeug mit Bilddatenübertragung undStromversorgung über ein Koaxialkabel
US9681062B2 (en) 2011-09-26 2017-06-13 Magna Electronics Inc. Vehicle camera image quality improvement in poor visibility conditions by contrast amplification
JP5532039B2 (ja) 2011-10-05 2014-06-25 株式会社デンソー 車両用表示装置
US9146898B2 (en) 2011-10-27 2015-09-29 Magna Electronics Inc. Driver assist system with algorithm switching
US10099614B2 (en) 2011-11-28 2018-10-16 Magna Electronics Inc. Vision system for vehicle
WO2013126715A2 (en) 2012-02-22 2013-08-29 Magna Electronics, Inc. Vehicle camera system with image manipulation
US8694224B2 (en) 2012-03-01 2014-04-08 Magna Electronics Inc. Vehicle yaw rate correction
US10609335B2 (en) 2012-03-23 2020-03-31 Magna Electronics Inc. Vehicle vision system with accelerated object confirmation
WO2013158592A2 (en) 2012-04-16 2013-10-24 Magna Electronics, Inc. Vehicle vision system with reduced image color data processing by use of dithering
US8879139B2 (en) 2012-04-24 2014-11-04 Gentex Corporation Display mirror assembly
US10089537B2 (en) 2012-05-18 2018-10-02 Magna Electronics Inc. Vehicle vision system with front and rear camera integration
JP2014006114A (ja) * 2012-06-22 2014-01-16 Denso Corp レーダ装置、及び、プログラム
US9340227B2 (en) 2012-08-14 2016-05-17 Magna Electronics Inc. Vehicle lane keep assist system
DE102013217430A1 (de) 2012-09-04 2014-03-06 Magna Electronics, Inc. Fahrerassistenzsystem für ein Kraftfahrzeug
US9558409B2 (en) 2012-09-26 2017-01-31 Magna Electronics Inc. Vehicle vision system with trailer angle detection
US9446713B2 (en) 2012-09-26 2016-09-20 Magna Electronics Inc. Trailer angle detection system
US9743002B2 (en) 2012-11-19 2017-08-22 Magna Electronics Inc. Vehicle vision system with enhanced display functions
US9090234B2 (en) 2012-11-19 2015-07-28 Magna Electronics Inc. Braking control system for vehicle
US10025994B2 (en) 2012-12-04 2018-07-17 Magna Electronics Inc. Vehicle vision system utilizing corner detection
US9481301B2 (en) 2012-12-05 2016-11-01 Magna Electronics Inc. Vehicle vision system utilizing camera synchronization
US9092986B2 (en) 2013-02-04 2015-07-28 Magna Electronics Inc. Vehicular vision system
US20140218529A1 (en) 2013-02-04 2014-08-07 Magna Electronics Inc. Vehicle data recording system
KR101881346B1 (ko) 2013-03-15 2018-07-24 젠텍스 코포레이션 디스플레이 미러 어셈블리
US10027930B2 (en) 2013-03-29 2018-07-17 Magna Electronics Inc. Spectral filtering for vehicular driver assistance systems
US9327693B2 (en) 2013-04-10 2016-05-03 Magna Electronics Inc. Rear collision avoidance system for vehicle
US10232797B2 (en) 2013-04-29 2019-03-19 Magna Electronics Inc. Rear vision system for vehicle with dual purpose signal lines
US9508014B2 (en) 2013-05-06 2016-11-29 Magna Electronics Inc. Vehicular multi-camera vision system
US10567705B2 (en) 2013-06-10 2020-02-18 Magna Electronics Inc. Coaxial cable with bidirectional data transmission
US9260095B2 (en) 2013-06-19 2016-02-16 Magna Electronics Inc. Vehicle vision system with collision mitigation
US20140375476A1 (en) 2013-06-24 2014-12-25 Magna Electronics Inc. Vehicle alert system
US9619716B2 (en) 2013-08-12 2017-04-11 Magna Electronics Inc. Vehicle vision system with image classification
US10326969B2 (en) 2013-08-12 2019-06-18 Magna Electronics Inc. Vehicle vision system with reduction of temporal noise in images
AU2014326772B2 (en) 2013-09-24 2017-07-20 Gentex Corporation Display mirror assembly
US9499139B2 (en) 2013-12-05 2016-11-22 Magna Electronics Inc. Vehicle monitoring system
US9988047B2 (en) 2013-12-12 2018-06-05 Magna Electronics Inc. Vehicle control system with traffic driving control
WO2015116915A1 (en) 2014-01-31 2015-08-06 Gentex Corporation Backlighting assembly for display for reducing cross-hatching
US10160382B2 (en) 2014-02-04 2018-12-25 Magna Electronics Inc. Trailer backup assist system
EP3119643B1 (de) 2014-03-21 2018-05-23 Gentex Corporation Trimodale anzeigespiegelanordnung
US9834146B2 (en) 2014-04-01 2017-12-05 Gentex Corporation Automatic display mirror assembly
US9623878B2 (en) 2014-04-02 2017-04-18 Magna Electronics Inc. Personalized driver assistance system for vehicle
US9487235B2 (en) 2014-04-10 2016-11-08 Magna Electronics Inc. Vehicle control system with adaptive wheel angle correction
US10328932B2 (en) 2014-06-02 2019-06-25 Magna Electronics Inc. Parking assist system with annotated map generation
US10192122B2 (en) 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
US9694751B2 (en) 2014-09-19 2017-07-04 Gentex Corporation Rearview assembly
US9694752B2 (en) 2014-11-07 2017-07-04 Gentex Corporation Full display mirror actuator
EP3218227B1 (de) 2014-11-13 2018-10-24 Gentex Corporation Rückspiegelsystem mit einer anzeige
KR101997815B1 (ko) 2014-12-03 2019-07-08 젠텍스 코포레이션 디스플레이 미러 어셈블리
USD746744S1 (en) 2014-12-05 2016-01-05 Gentex Corporation Rearview device
US9744907B2 (en) 2014-12-29 2017-08-29 Gentex Corporation Vehicle vision system having adjustable displayed field of view
US9720278B2 (en) 2015-01-22 2017-08-01 Gentex Corporation Low cost optical film stack
US10286855B2 (en) 2015-03-23 2019-05-14 Magna Electronics Inc. Vehicle vision system with video compression
CN107531183B (zh) 2015-04-20 2021-09-03 金泰克斯公司 具有贴花的后视总成
US10819943B2 (en) 2015-05-07 2020-10-27 Magna Electronics Inc. Vehicle vision system with incident recording function
JP6526243B2 (ja) 2015-05-18 2019-06-05 ジェンテックス コーポレイション 全画面表示バックミラー装置
CN107709096B (zh) 2015-06-22 2021-08-24 金泰克斯公司 用于处理流式传输视频图像以校正经调幅光的闪变的系统和方法
US10214206B2 (en) 2015-07-13 2019-02-26 Magna Electronics Inc. Parking assist system for vehicle
US10078789B2 (en) 2015-07-17 2018-09-18 Magna Electronics Inc. Vehicle parking assist system with vision-based parking space detection
US10086870B2 (en) 2015-08-18 2018-10-02 Magna Electronics Inc. Trailer parking assist system for vehicle
US9604639B2 (en) * 2015-08-28 2017-03-28 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles
WO2017056822A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 画像処理装置と画像処理方法および車両制御システム
US10875403B2 (en) 2015-10-27 2020-12-29 Magna Electronics Inc. Vehicle vision system with enhanced night vision
USD798207S1 (en) 2015-10-30 2017-09-26 Gentex Corporation Rearview mirror assembly
USD797627S1 (en) 2015-10-30 2017-09-19 Gentex Corporation Rearview mirror device
EP3368375B1 (de) 2015-10-30 2020-03-04 Gentex Corporation Rückblickvorrichtung
US10685623B2 (en) 2015-10-30 2020-06-16 Gentex Corporation Toggle paddle
USD800618S1 (en) 2015-11-02 2017-10-24 Gentex Corporation Toggle paddle for a rear view device
JP6150950B1 (ja) 2015-11-20 2017-06-21 三菱電機株式会社 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム
US11277558B2 (en) 2016-02-01 2022-03-15 Magna Electronics Inc. Vehicle vision system with master-slave camera configuration
US11433809B2 (en) 2016-02-02 2022-09-06 Magna Electronics Inc. Vehicle vision system with smart camera video output
US10160437B2 (en) 2016-02-29 2018-12-25 Magna Electronics Inc. Vehicle control system with reverse assist
US20170253237A1 (en) 2016-03-02 2017-09-07 Magna Electronics Inc. Vehicle vision system with automatic parking function
US10132971B2 (en) 2016-03-04 2018-11-20 Magna Electronics Inc. Vehicle camera with multiple spectral filters
US10055651B2 (en) 2016-03-08 2018-08-21 Magna Electronics Inc. Vehicle vision system with enhanced lane tracking
EP3220164B1 (de) * 2016-03-14 2018-03-07 Sick Ag Verfahren zum betreiben eines abstandsmessenden überwachungssensors und überwachungssensor
USD845851S1 (en) 2016-03-31 2019-04-16 Gentex Corporation Rearview device
USD817238S1 (en) 2016-04-29 2018-05-08 Gentex Corporation Rearview device
US10025138B2 (en) 2016-06-06 2018-07-17 Gentex Corporation Illuminating display with light gathering structure
IL246386B (en) * 2016-06-22 2018-03-29 Tarantula Tech Ltd A device for identifying dangerous objects located at a certain distance from a surface
JP6722066B2 (ja) 2016-08-29 2020-07-15 株式会社Soken 周辺監視装置及び周辺監視方法
CN106781537B (zh) * 2016-11-22 2019-07-26 武汉万集信息技术有限公司 一种车辆超速抓拍方法及系统
CN108089024B (zh) * 2016-11-22 2020-07-14 武汉万集信息技术有限公司 一种车辆速度检测系统及方法
USD809984S1 (en) 2016-12-07 2018-02-13 Gentex Corporation Rearview assembly
USD854473S1 (en) 2016-12-16 2019-07-23 Gentex Corporation Rearview assembly
WO2018125898A1 (en) 2016-12-30 2018-07-05 Gentex Corporation Full display mirror with on-demand spotter view
EP3595931A4 (de) 2017-03-17 2020-01-22 Gentex Corporation Rückfahrkamera mit zwei anzeigen
CN113119963B (zh) * 2017-07-28 2024-03-26 现代摩比斯株式会社 智能超声系统、车辆后方碰撞警告装置及其控制方法
WO2020003776A1 (ja) 2018-06-29 2020-01-02 ソニーセミコンダクタソリューションズ株式会社 情報処理装置及び情報処理方法、撮像装置、コンピュータプログラム、情報処理システム、並びに移動体装置
CN109017786B (zh) * 2018-08-09 2020-09-22 北京智行者科技有限公司 车辆避障方法
CN109353339B (zh) * 2018-09-29 2020-06-26 中国铁建重工集团股份有限公司 一种车辆导航方法以及系统
US11351961B2 (en) * 2020-01-29 2022-06-07 Ford Global Technologies, Llc Proximity-based vehicle security systems and methods
CN111368794B (zh) * 2020-03-19 2023-09-19 北京百度网讯科技有限公司 障碍物检测方法、装置、设备和介质
US11968639B2 (en) 2020-11-11 2024-04-23 Magna Electronics Inc. Vehicular control system with synchronized communication between control units
EP4388243A1 (de) 2021-08-20 2024-06-26 Gentex Corporation Beleuchtungsanordnung und beleuchtungssystem mit einer beleuchtungsanordnung
CN113814979B (zh) * 2021-10-08 2023-03-10 安徽电信规划设计有限责任公司 一种基于大数据智能机器人环境识别系统
CN114577233B (zh) * 2022-05-05 2022-07-29 腾讯科技(深圳)有限公司 一种车辆导航方法、装置及计算机设备、存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS604011B2 (ja) * 1976-05-26 1985-02-01 ダイムラ−ベンツ・アクチエンゲゼルシャフト 先行する車両に対する車両の安全間隔を独立調整する方法および装置
JPS6352300A (ja) * 1986-08-21 1988-03-05 アイシン精機株式会社 車上前方監視装置
DE3832720A1 (de) * 1988-09-27 1990-03-29 Bosch Gmbh Robert Abstandsmesseinrichtung zur beruehrungslosen abstands- und winkelerkennung
DE4110132A1 (de) * 1990-03-28 1991-10-02 Mitsubishi Electric Corp Fahrzeugabstandssteuergeraet
JPH06338085A (ja) * 1993-05-27 1994-12-06 Canon Inc 光磁気記録媒体
JPH06346363A (ja) * 1992-05-14 1994-12-20 Teijin Ltd 深色性に優れたポリエステル繊維及びその製造法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4195425A (en) * 1972-07-17 1980-04-01 Ernst Leitz Wetzlar Gmbh System for measuring position and/or velocity
JPS5596475A (en) * 1979-01-19 1980-07-22 Nissan Motor Co Ltd Obstacle detector for vehicle
US4257703A (en) * 1979-03-15 1981-03-24 The Bendix Corporation Collision avoidance using optical pattern growth rate
US4833469A (en) * 1987-08-03 1989-05-23 David Constant V Obstacle proximity detector for moving vehicles and method for use thereof
JP2570315B2 (ja) * 1987-09-01 1997-01-08 アイシン精機株式会社 車上距離検出装置
US5227786A (en) * 1989-06-30 1993-07-13 Honeywell Inc. Inside/out perspective format for situation awareness displays
US5166681A (en) * 1990-07-30 1992-11-24 Bottesch H Werner Passive vehicle presence detection system
DE69124726T2 (de) * 1990-10-25 1997-07-03 Mitsubishi Electric Corp Vorrichtung zur Abstandsdetektion für ein Kraftfahrzeug
US5309137A (en) * 1991-02-26 1994-05-03 Mitsubishi Denki Kabushiki Kaisha Motor car traveling control device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS604011B2 (ja) * 1976-05-26 1985-02-01 ダイムラ−ベンツ・アクチエンゲゼルシャフト 先行する車両に対する車両の安全間隔を独立調整する方法および装置
JPS6352300A (ja) * 1986-08-21 1988-03-05 アイシン精機株式会社 車上前方監視装置
DE3832720A1 (de) * 1988-09-27 1990-03-29 Bosch Gmbh Robert Abstandsmesseinrichtung zur beruehrungslosen abstands- und winkelerkennung
DE4110132A1 (de) * 1990-03-28 1991-10-02 Mitsubishi Electric Corp Fahrzeugabstandssteuergeraet
JPH06346363A (ja) * 1992-05-14 1994-12-20 Teijin Ltd 深色性に優れたポリエステル繊維及びその製造法
JPH06338085A (ja) * 1993-05-27 1994-12-06 Canon Inc 光磁気記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KLIPSTEIN, D.L.: "Mit 90 km/h unterwegs - ohne Fahrer" in "Technische Rundschau", 31/1990, S.30-34 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
US7570793B2 (en) 2001-06-15 2009-08-04 Ibeo Automobile Sensor Gmbh Correction method for data of a plurality of optoelectronic sensors
DE10148062A1 (de) * 2001-09-28 2003-04-10 Ibeo Automobile Sensor Gmbh Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
US9171217B2 (en) 2002-05-03 2015-10-27 Magna Electronics Inc. Vision system for vehicle
US9555803B2 (en) 2002-05-03 2017-01-31 Magna Electronics Inc. Driver assistance system for vehicle
US9191634B2 (en) 2004-04-15 2015-11-17 Magna Electronics Inc. Vision system for vehicle
US9428192B2 (en) 2004-04-15 2016-08-30 Magna Electronics Inc. Vision system for vehicle
US9440535B2 (en) 2006-08-11 2016-09-13 Magna Electronics Inc. Vision system for vehicle
DE102012102320B4 (de) * 2011-03-22 2020-03-05 Subaru Corporation Fahrzeugumfeldüberwachungsvorrichtung und Fahrzeugumfeldüberwachungsverfahren

Also Published As

Publication number Publication date
JPH06293236A (ja) 1994-10-21
JP3263699B2 (ja) 2002-03-04
DE4344485A1 (de) 1994-06-23
US5475494A (en) 1995-12-12

Similar Documents

Publication Publication Date Title
DE4344485C2 (de) Fahrumgebungs-Überwachungsgerät
DE69202274T2 (de) Fahr-Kontrollvorrichtung für Automobile.
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE60009000T2 (de) System zur Einparkhilfe
DE4308776C2 (de) Einrichtung zum Überwachen des Außenraums eines Fahrzeugs
EP1842382B1 (de) Verfahren, Vorrichtung, Computersoftware und entsprechender Datenträger zum Bestimmen einer Objekteigenschaft eines Objekts mit Hilfe von Bildern, die mit Hilfe einer Kamera erfasst werden
EP1298454B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE10109350B4 (de) Unterstützungseinrichtung zum Rückwärtseinparken eines Fahrzeugs in Reihe
EP1719093B1 (de) Verfahren und warnvorrichtung zum grafischen aufbereiten eines bildes einer kamera
DE102016106298A1 (de) Fusionsverfahren für eine Querverkehr-Applikation unter Verwenden von Radargeräten und einer Kamera
WO2006114309A1 (de) Verfahren zur grafischen darstellung der umgebung eines kraftfahrzeugs
WO2012069330A1 (de) Verfahren und Vorrichtung zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Ausparken aus einer Parklücke und Kraftfahrzeug
DE10354209A1 (de) System und Verfahren zum Verbessern der Fahrzeugfahrer-Fahrunterstützung eines Kraftfahrzeugs
EP3695395A1 (de) Verfahren zum darstellen einer umgebung eines fahrzeugs
EP2015255A1 (de) Einrichtung zur Ermittlung eines Anzeigebildes
DE102007022372A1 (de) Verfahren und Vorrichtung zur Ermittlung der Fahrzeugklasse von Fahrzeugen
DE102013010010B4 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems zum Rangieren und/oder Parken
EP2289044A1 (de) Bilddatenvisualisierung
EP1460454B1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE102005018408A1 (de) Verfahren und Vorrichtung zur Auswertung von Abstandsmessdaten eines Abstandsmesssystems eines Kraftfahrzeugs
EP1628141A1 (de) Triangulationsverfahren mit Laserdioden und einer Mono-Kamera zur Abstandsbestimmung für Stop-and-Go Anwendungen für Kraftfahrzeuge
WO2011138164A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, fahrerassistenzsystem und fahrzeug
WO2009049976A1 (de) Verfahren zur schätzung der relativbewegung von video-objekten und fahrerassistenzsystem für kraftfahrzeuge
DE112015000763T5 (de) Fahrzeugumgebungsbildanzeigevorrichtung undFahrzeugumgebungsbildanzeigeverfahren
EP2579228A1 (de) Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
8325 Change of the main classification

Ipc: G08G 1/16 AFI19991009BHDE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20110701