DE4344485C2 - Fahrumgebungs-Überwachungsgerät - Google Patents
Fahrumgebungs-ÜberwachungsgerätInfo
- Publication number
- DE4344485C2 DE4344485C2 DE4344485A DE4344485A DE4344485C2 DE 4344485 C2 DE4344485 C2 DE 4344485C2 DE 4344485 A DE4344485 A DE 4344485A DE 4344485 A DE4344485 A DE 4344485A DE 4344485 C2 DE4344485 C2 DE 4344485C2
- Authority
- DE
- Germany
- Prior art keywords
- obstacle
- unit
- driving environment
- size
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
Die Erfindung betrifft ein Fahrumgebungs-Überwa
chungsgerät gemäß Patentanspruch 1 zum Erfassen von
Hindernissen vor einem fahrenden Fahrzeug, um einen
Fahrer in der Weise zu informieren, daß er die Anwe
senheit der Hindernisse leicht erkennen kann.
Von den Technologien dieser Art ist eine vom aktiven
Typ bekannt, die in der japanischen Patentveröffent
lichung (Kokoku) Nr. 60-4011 offenbart ist, bei der
eine Mikrowelle oder Infrarot-Laserlicht ausgesandt
und das an Hindernissen und dergleichen reflektierte
Signal empfangen wird, um den Abstand zwischen Fahr
zeugen, die Anwesenheit der Hindernisse, den relati
ven Abstand, die relative Geschwindigkeit und so wei
ter festzustellen, und eine vom passiven Typ (offen
bart in der japanischen Patentveröffentlichung (Koko
ku) Nr. 63-38085, in der japanischen Patentveröffent
lichung (Kokoku) Nr. 63-46363 und in der japanischen
Patentveröffentlichung (Kokai) Nr. 63-52300), bei
der ein Bildsensor verwendet wird, um einen Gegen
stand vor dem Fahrzeug als Bilddaten zu erfassen und
ein Hindernis (einschließlich eines anderen Fahr
zeugs) durch Bildverarbeitung festzustellen, wodurch
der Abstand zum Hindernis auf der Grundlage des Prin
zips der Dreiecksmessung durch zwei Sätze von opti
schen Systemen ermittelt wird. Diese beiden bekannten
Technologien erfassen, obwohl sie einander unter
schiedlich sind, die An- oder Abwesenheit eines Hin
dernisses im vorderen Umkreis des fahrenden eigenen
Fahrzeugs, den relativen Abstand zum Hindernis und
die relative Geschwindigkeit, um die Abstandsdaten
oder die Geschwindigkeitsdaten für den Fahrer des ei
genen Fahrzeugs auszugeben.
Fig. 1 ist eine Draufsicht auf ein bekanntes Fahrum
gebungs-Überwachungsgerät, das beispielsweise in der
japanischen Patentveröffentlichung (Kokoku) Nr. 61-
6349 dargestellt ist. Hierin ist ein Fahrzeug 1 mit
einem Laserradar 4 ausgerüstet, ein Hindernis 2 (bei
spielsweise ein an einer Straßenseite haltendes Fahr
zeug) befindet sich in Fahrtrichtung des Fahrzeugs 1
auf der linken Seite, und ein anderes Hindernis 3
(beispielsweise ein Briefkasten) befindet sich in
Fahrtrichtung des Fahrzeugs 1 auf der rechten Seite.
Der Laserradar 4 befindet sich an der vordersten
Stelle des Fahrzeugs 1, um einen Lichtstrahl 6 auszu
senden, damit eine Abtastung im Bereich von -10° < θ
< 10° in Bezug auf den Mittelpunkt des vorderen Endes
des Fahrzeugs durchgeführt werden kann. Im Laserradar
4 wird ein Abtastintervall Δθ (d. h. ein Intervall
zwischen benachbarten Lichtstrahlen 6) auf 0,1° ein
gestellt.
Es erfolgt nun eine Beschreibung der Arbeitsweise.
Wenn der Laserradar 4 aufeinanderfolgend den Licht
strahl 6 emittiert, wobei beginnend mit dem äußersten
linken Ende (N = 0) zur rechten Seite hin geschwenkt
wird, kehren die Lichtstrahlen 6 von N = g bis N = i auf
grund der Anwesenheit des Hindernisses 2 als reflek
tierte Lichtstrahlen zum Fahrzeug 1 zurück und der
Laserradar 4 empfängt das reflektierte Licht. Hierbei
ist festzustellen, daß der Laserradar 4 nicht den
Lichtstrahl 6 für N = i + 1 empfangen kann, da die
Reflexion an einer Seitenfläche des Hindernisses 2
erfolgt.
Es wird angenommen, daß P1 einen Reflexionspunkt des
Lichtstrahls 6 am äußersten rechten Ende (N = i) dar
stellt, von dem das am Hindernis 2 reflektierte Licht
noch vom Laserradar 4 empfangen werden kann. Demgemäß
kann ein Abstand QP1 als QP1 = R1 auf der Grundlage
einer Reflexionszeit festgestellt werden, und ein Ab
stand P1P3 (= Y1) von P1 zur Mittellinie (Z-Achse) des
Fahrzeugs kann wie folgt ausgedrückt werden:
p1p3 = Y1 ≈ R1 θi (1)
worin θi einen Ablenkungswinkel des Lichtstrahls 6
für N = i bedeutet (der Ablenkungswinkel θi ist eine
bekannte Zahl für den Laserradar 4). Weiterhin wird
angenommen, daß P2 einen Reflexionspunkt des Licht
strahls 6 am äußersten linken Ende (N = g) darstellt,
von dem das am Hindernis 2 reflektierte Licht vom La
serradar 4 empfangen werden kann. Dadurch ist es in
gleicher Weise möglich, einen Abstand QP2 als QP2 = R2
auf der Grundlage der Reflexionszeit festzustellen.
Ein Abstand P2P4 (= Y2) vom Punkt P2 zur Mittellinie
(Z-Achse) des Fahrzeugs kann wie folgt ausgedrückt
werden:
P2P4 = y2 ≈ R2θg (2)
worin θg einen Ablenkungswinkel des Lichtstrahls
für N = g bedeutet (der Ablenkungswinkel θg ist eine
bekannte Zahl für den Laserradar 4). Demgemäß ermög
licht die Feststellung der Positionen P1 und P2 die
Feststellung des relativen Abstands oder des Azimut
vom Fahrzeug 1 zum Hindernis 2.
Die Feststellung des Hindernisses 3 erfolgt auf glei
che Weise wie die des Hindernisses 2, und daher wird
auf die entsprechende Beschreibung verzichtet.
Da das Erfassungsverfahren in einer Höhenrichtung der
Hindernisse 2 und 3 im Prinzip mit dem in der hori
zontalen Richtung identisch ist, wird auf die ent
sprechende Beschreibung ebenfalls verzichtet. In die
sem Zusammenhang zeigt Fig. 2 den vom Laserradar 4
emittierten Lichtstrahl 6, der sich in der Höhenrich
tung erstreckt.
Das bekannte Fahrumgebungs-Überwachungsgerät ist wie
vorbeschrieben ausgebildet. Es ist daher erforder
lich, ein kurzes Intervall Δθ zwischen den vom Laser
radar 4 emittierten Lichtstrahlen 6 vorzusehen, um
den relativen Abstand oder den Azimut vom Fahrzeug 1
zu den Hindernissen 2 und 3 mit großer Genauigkeit
festzustellen. Wenn jedoch das Intervall Δθ zwischen
den Lichtstrahlen 6 kleiner wird, wird eine längere
Zeit benötigt, um die Hindernisse 2 und 3 zu erfas
sen. Als Folge hiervon ergeben sich Probleme dahinge
hend, daß beispielsweise Echtzeitdaten von den erfaß
ten Fahrzeugen 2 und 3 nicht zur Verfügung stehen,
und das bekannte Gerät ist nicht praktisch für ein
Fahrzeug im Fahrzustand.
Aus der Veröffentlichung der Technischen Rundschau,
Heft 31, 1990, Seiten 30-34, ist ein Fahrumgebungs-
Überwachungsgerät mit einer Bilderfassungseinheit
zum Erfassen zweidimensionaler Bilder bekannt. Bei
der Bilderfassungseinheit werden aus dem Gesamtbild
der Fahrumgebung Bildfenster, die die Fahrbahnbegren
zung enthalten, extrahiert. Innerhalb des zweidimen
sionalen Bildes, das von der Bilderfassungseinheit
ermittelt wurde, werden die Abbildung eines Objekts
und die Position der Objektabbildung erkannt, wobei
die Kantenerkennung verwendet wird.
Aus der DE 41 10 132 A1 ist ein Fahrzeugabstandssteu
ergerät bekannt, das mit einer Bilderfassungseinheit
arbeitet. Durch Vergleich des erfaßten Bildes, mit
einem, einen kurzen Zeitabstand vorher erfaßten Bild,
wird die Abbildung eines Objekts im zweidimensionalen
Bild erkannt.
In der DE 38 32 720 A1 ist ein Laser-Impulsradar be
schrieben, mit dem zur Überwachung der Fahrumgebung
eines Fahrzeugs Abstands- und Winkelmessungen möglich
sind, und der mit einer Hinderniserfassungseinheit,
welche mit Ultraschall arbeitet, kombiniert wird.
Es ist daher die Aufgabe der vorliegenden Erfindung,
ein Fahrumgebungs-Überwachungsgerät zu schaffen, das
eine Erfassung mit großer Geschwindigkeit, auch für
den Fall einer genauen Feststellung eines Abstands
und eines Azimuts von einem Fahrzeug zu einem Hinder
nis ermöglicht, das die Größe einer Bewegung eines
Hindernisses vorhersagt und anzeigt, um den Fahrer
genauer über die Möglichkeit einer Kollision zu in
formieren, durch das der Fahrer leicht und unmittel
bar die Größe des Hindernisses erkennen kann, das ein
Hindernis, welches zwar klein ist, aber eine ernste
Gefahr darstellt, deutlich anzeigen kann, und das den
Fahrer über das Vorhandensein eines Hindernisses in
formieren kann, selbst wenn ein vorübergehender Feh
ler bei der Bildverarbeitung auftritt.
Diese Aufgabe wird erfindungsgemäß durch die Merkmale
im Hauptanspruch gelöst.
Bei dem Fahrumgebungs-Überwachungsgerät nach der Er
findung ist eine Bildverarbeitungs-Bereichsbegren
zungseinheit vorgesehen, um den Bereich, in welchem
ein Objekt vorhanden ist, in Abhängigkeit von dem
durch die Objekterfassungseinheit festgestellten Azi
mut zu bestimmen, zur Ableitung eines zweidimensiona
len Bildes, entsprechend dem bestimmten Bereich durch
die Bilderfassungseinheit. Hierdurch hat eine Hinder
niserkennungseinheit in einer nachfolgenden Stufe ein
Hindernis vor dem Objekt nur aus dem zweidimensiona
len Bild entsprechend dem bestimmten Bereich zu un
terscheiden, wodurch sich eine verringerte Verarbei
tungszeit ergibt. Weiterhin wird für das Hindernis
von der Hinderniserkennungseinheit aus dem zweidimen
sionalen Bild ein Größenindex berechnet. Daher kann
die Objekterfassungseinheit einen solchen Grad der
Erfassungsgenauigkeit haben, daß die Anwesenheit des
Objekts erfaßt werden kann (d. h. eine Genauigkeit bis
zu einem solchen Grad, daß eine Positionsbestimmung
eines Hindernisses genau als unnötig erkannt werden
kann), wodurch die Erfassungszeit im Vergleich mit
einem bekannten Gerät beträchtlich reduziert wird.
Durch die in den Unteransprüchen angegebenen und im folgenden näher erläuterten Maßnah
men sind vorteilhafte Weiterbildungen und Verbesse
rungen möglich:
Das Fahrumgebungs-Überwachungsgerät nach der Erfin
dung weist eine Korrektureinheit auf, um den durch
die Bildverarbeitungs-Bereichsbegrenzungseinheit bei
stimmten Bereich entsprechend dem von der Objekter
fassungseinheit festgestellten Abstand zu begrenzen,
wodurch die Verarbeitungszeit in einer Hinderniser
kennungseinheit noch weiter reduziert wird.
Bei dem Fahrumgebungs-Überwachungsgerät nach der Er
findung sind eine Vorhersageeinheit zum Vorhersagen
der Größe der Bewegung des Hindernisses in Abhängig
keit vom Abstand und vom Azimut, die gegenwärtig von
der ersten Fahrumgebungs-Ausgabeeinheit festgestellt
werden, und vom vorher festgestellten Abstand und
Azimut, und eine zweite Fahrumgebungs-Ausgabeeinheit
vorgesehen, um die Position zu bestimmen, in der das
Hindernis in der wahren räumlichen Koordinate in Be
zug auf die Fahrtstrecke des Fahrzeugs in Abhängig
keit vom Abstand und vom Azimut, die gegenwärtig von
der ersten Fahrumgebungs-Ausgabeeinheit festgestellt
werden, vorhanden ist, um das Bild darzustellen, das
den Größenindex und die Größe der Bewegung des Hin
dernisses an der bestimmten Position anzeigt. Dadurch
kann ein Fahrer erkennen, in welchem Ausmaß sich das
Hindernis bewegt, und kann die Möglichkeit einer Kol
lision erfassen.
Das Fahrumgebungs-Überwachungsgerät nach der Erfin
dung weist weiterhin eine Fahrumgebungs-Ausgabeein
heit zur Anzeige des Größenindex und der Größe der
Bewegung des Hindernisses durch die Größe des Kreises
und zur Anzeige des die Größe der Bewegung darstel
lenden Kreises durch einen konzentrischen Kreis, der
auf dem äußeren Umfang des den Größenindex des Hin
dernisses darstellenden Kreises angeordnet ist, auf.
Hierdurch kann ein Fahrer leicht und unmittelbar die
Größe und dergleichen des Hindernisses erkennen, wo
durch er die Möglichkeit einer Kollision abschätzen
kann.
Bei dem Fahrumgebungs-Überwachungsgerät der Erfindung
sind eine Vorhersageeinheit zur Vorhersage der Größe
und der Richtung der Bewegung des Hindernisses in Ab
hängigkeit vom Abstand und vom Azimut, die gegenwär
tig von der ersten Fahrumgebungs-Ausgabeeinheit fest
gestellt werden, und vom vorher festgestellten Ab
stand und Azimut, und eine zweite Fahrumgebungs-
Ausgabeeinheit vorgesehen, zum Bestimmen der einen
Position, an der sich das Hindernis befindet, in Ab
hängigkeit vom Abstand und vom Azimut, die gegenwär
tig von der ersten Fahrumgebungs-Ausgabeeinheit fest
gestellt werden, und der anderen Position, an der
sich das Hindernis nach der Bewegung befinden wird,
in Abhängigkeit von der Größe und der Richtung der
Bewegung in einer wahren räumlichen Koordinate in Be
zug auf die Fahrtstrecke des Fahrzeugs, um das den
Größenindex des Hindernisses anzeigende Bild an der
einen Position, an der sich das Hindernis befindet,
und eine die Größe der Bewegung anzeigendes anderes
Bild an der anderen Position, an der sich das Hinder
nis nach der Bewegung befinden wird, darzustellen.
Hierdurch kann ein Fahrer erkennen, in welcher Rich
tung und in welchem Ausmaß sich das Hindernis bewegt.
Die zweite Fahrumgebungs-Ausgabeeinheit des Fahrumge
bungs-Überwachungsgeräts zeigt den Größenindex und
die Größe der Bewegung des Hindernisses jeweils durch
die Größe von Kreisen und zur Anzeige der Linie, die
die gemeinsame Tangentenlinie für jeden Kreis sein
könnte, an. Hierdurch kann ein Fahrer leicht und un
mittelbar die Größe, die Bewegungsrichtung und der
gleichen des Hindernisses erkennen.
Die erste Fahrumgebungs-Ausgabeeinheit zeigt den Grö
ßenindex des Hindernisses durch das dreidimensionale
Bild mit der Größe entsprechend dem Index an. Hier
durch ist es möglich, daß ein Fahrer leicht und un
mittelbar die Größe des Hindernisses erkennen kann.
Die zweite Fahrumgebungs-Ausgabeeinheit zeigt den
Größenindex und die Größe der Bewegung des Hindernis
ses durch ein dreidimensionales Bild mit der Größe
entsprechend dem Index und der Größe der Bewegung
an. Dadurch kann ein Fahrer leicht und unmittelbar
die Größe und dergleichen des Hindernisses erkennen.
Bei dem Fahrumgebungs-Überwachungsgerät nach der Er
findung erweitert die Hinderniserkennungseinheit den
durch die Berechnung bestimmten Größenindex des Hin
dernisses für den Fall, daß die Höhe des Hindernisses
größer als dessen Breite ist. Hierdurch kann ein Hin
dernis in großem Ausmaß angezeigt werden, das zwar
klein ist, aber eine ernste Gefahr darstellt.
Bei dem Fahrumgebungs-Überwachungsgerät nach der Er
findung ist weiterhin eine Hinderniserkennungs-
Hilfseinheit vorgesehen, für die Bezugnahme auf den
Größenindex des Hindernisses, der entsprechend dem
Abstand zum Hindernis voreingestellt ist, für den
Fall, daß der Abstand und der Azimut des Hindernisses
durch die Objekterfassungseinheit festgestellt sind
und die Hinderniserkennungseinheit keinen Größenindex
des Hindernisses ausgibt, und zur Ausgabe des Grö
ßenindexes des Hindernisses entsprechend dem von der
Objekterfassungseinheit festgestellten Abstand an die
Fahrumgebungs-Ausgabeeinheit. Hierdurch kann ein Fah
rer auch dann von der Anwesenheit des Hindernisses
informiert werden, wenn ein vorübergehender Fehler
bei der Bildverarbeitung auftreten sollte oder die
Berechnung des Indexes nicht vollständig beendet sein
sollte.
Bei dem Fahrumgebungs-Überwachungsgerät nach der Er
findung ist eine Datensubstitutionseinheit vorgese
hen, zur Ausgabe eines Ersatzindexes anstelle des von
der Hinderniserkennungs-Hilfseinheit ausgegebenen
Größenindexes des Hindernisses, der einen höheren
Wert hat als der Größenindex an die Fahrumgebungs-
Ausgabeeinheit, für den Fall, daß die Objekterfas
sungseinheit den Abstand und den Azimut zum Hindernis
feststellt und die Hinderniserkennungseinheit keinen
Größenindex des Hindernisses ausgibt, selbst nachdem
die vorbestimmte Zeit oder mehr seit der Feststellung
des Abstandes und des Azimuts verstrichen ist. Hier
durch ist es möglich, einen Fahrer von der Anwesen
heit des Hindernisses zu unterrichten, selbst wenn
ein vorübergehender Fehler bei der Bildverarbeitung
auftreten sollte, sowie von der Möglichkeit einer
ernsthaften Gefahr.
Bei dem Fahrumgebungs-Überwachungsgerät nach der Er
findung ist eine Fehlfunktions-Anzeigeeinheit vorge
sehen zur Entscheidung, daß eine Fehlfunktion auf
tritt, um diese anzuzeigen, für den Fall, daß die Ob
jekterfassungseinheit den Abstand und den Azimut zum
Hindernis feststellt und die Hinderniserkennungsein
heit den Größenindex des Hindernisses nicht ausgibt,
selbst nachdem die vorbestimmte Zeitspanne oder mehr
seit der Feststellung des Abstandes und des Azimuts
verstrichen ist. Hierdurch kann der Fahrer über das
Auftreten eines Fehlers bei der Bildverarbeitung in
formiert werden.
Die Erfindung wird im Folgenden anhand von in den Fi
guren dargestellten Ausführungsbeispielen erläutert.
Es zeigen:
Fig. 1 die Draufsicht auf ein bekanntes Fahrumge
bungs-Überwachungsgerät,
Fig. 2 eine das bekannte Fahrumgebungs-
Überwachungsgerät zeigende Schnittansicht,
Fig. 1 ein Blockschaltbild eines Fahrumgebungs-
Überwachungsgeräts nach dem ersten Ausfüh
rungsbeispiel der Erfindung,
Fig. 4 eine Draufsicht auf das Fahrumgebungs-
Überwachungsgerät nach dem ersten Ausfüh
rungsbeispiel der Erfindung,
Fig. 5 eine erläuternde Darstellung zur Illustration
der Anwesenheit von Hindernissen,
Fig. 6 eine erläuternde Darstellung zur Illustration
der Anwesenheit der Hindernisse,
Fig. 7 eine Wiedergabe der Umrisse der Hindernisse,
Fig. 8 die Darstellung einer die Anwesenheit der
Hindernisse wiedergebenden Anzeige,
Fig. 9 ein Blockschaltbild eines Fahrumgebungs-
Überwachungsgeräts nach dem dritten Ausfüh
rungsbeispiel der Erfindung,
Fig. 10 eine Draufsicht zur Illustration der Positio
nen, an denen Hindernisse vorhanden sind,
Fig. 11 eine erläuternde Darstellung von Bereichen
zur Ableitung zweidimensionaler Bilder,
Fig. 12 eine erläuternde Darstellung der Bereiche zur
Ableitung der zweidimensionalen Bilder,
Fig. 13 ein Blockschaltbild eines Fahrumgebungs-
Überwachungsgeräts nach dem vierten Ausfüh
rungsbeispiel der Erfindung,
Fig. 14 (14A und 14B) eine Anzeige zur Darstellung
der Anwesenheit des Hindernisses,
Fig. 15 ein Flußdiagramm zur Darstellung der Be
triebsweise des Fahrumgebungs-Überwachungs
geräts nach dem vierten Ausführungsbeispiel
der Erfindung,
Fig. 16 eine Anzeige zur Darstellung der Anwesenheit des Hin
dernisses,
Fig. 17 eine Anzeige zur Darstellung der Anwesenheit des Hin
dernisses,
Fig. 18 eine Anzeige zur Darstellung der Anwesenheit des Hin
dernisses,
Fig. 19 eine Anzeige zur Darstellung der Anwesenheit des Hin
dernisses,
Fig. 20 eine Anzeige zur Darstellung der Anwesenheit des Hin
dernisses,
Fig. 21 eine Anzeige zur Darstellung der Anwesenheit des Hin
dernisses,
Fig. 22 eine Anzeige zur Darstellung der Anwesenheit des Hin
dernisses,
Fig. 23 eine Anzeige zur Darstellung der Anwesenheit des Hin
dernisses,
Fig. 24 eine Anzeige zur Darstellung der Anwesenheit des Hin
dernisses,
Fig. 25 ein Blockschaltbild eines Fahrumgebungs-
Überwachungsgeräts nach dem neunten Ausfüh
rungsbeispiel der Erfindung,
Fig. 26 die Umrisse der Hindernisse,
Fig. 27 ein Blockschaltbild eines Fahrumgebungs-
Überwachungsgeräts nach dem zehnten Ausfüh
rungsbeispiel der Erfindung,
Fig. 28 ein die Beziehung zwischen einem Index und
einem Abstand wiedergebendes Diagramm,
Fig. 29 eine Anzeige zur Darstellung der Anwesenheit des Hin
dernisses,
Fig. 30 ein Blockschaltbild eines Fahrumgebungs-
Überwachungsgeräts nach dem elften Ausfüh
rungsbeispiel der Erfindung,
Fig. 31 ein die Bewegung des Hindernisses wiederge
bendes Zeitdiagramm,
Fig. 32 ein Blockschaltbild eines Fahrumgebungs-
Überwachungsgeräts nach dem zwölften Ausfüh
rungsbeispiel der Erfindung, und
Fig. 33 ein die Bewegung des Hindernisses wiederge
bendes Zeitdiagramm.
Fig. 3 zeigt ein Blockschaltbild eines Fahrumgebungs-
Überwachungsgeräts nach dem ersten Ausführungsbei
spiel der Erfindung und Fig. 4 gibt eine Draufsicht
auf das Fahrumgebungs-Überwachungsgerät nach dem er
sten Ausführungsbeispiel der Erfindung wieder. In den
Zeichnungen werden dieselben Bezugszahlen für solche
Teile verwendet, die identisch oder gleichwertig mit
denen beim bekannten Gerät sind, und auf deren Be
schreibung wird verzichtet.
Laserradarvorrichtungen 11 bis 14 tasten irgendeinen
von vier geteilten Umfangsbereichen I bis IV in
Fahrtrichtung eines Fahrzeugs 1 ab, um, wenn sich Ob
jekte, die Hindernisse 2 und 20 sein können, im Ab
tastbereich befinden, einen Abstand und einen Azimut
vom Fahrzeug 1 zu den Hindernissen 2 und 20 festzu
stellen. Die Laserradarvorrichtungen 11 bis 14 sind
in Frontbereichen P1 bis P4 des Fahrzeugs befestigt
und entsprechen jeweils den Bereichen I, II, III und
IV. Eine Objekterfassungseinheit 15 enthält die La
serradarvorrichtungen 11 bis 14.
Ein Bildsensor 16 (eine Bilderfassungseinheit) wie
eine CCD-Kamera ist an einer Position P5 unmittelbar
vor dem Fahrersitz des Fahrzeugs 1 befestigt, um
zweidimensionale Bilder der Umgebungsbereiche I bis
IV zu erfassen. Eine Bildverarbeitungs-Bereichsbe
grenzungseinheit 17 bestimmt einen Bereich, in wel
chem sich die Objekte bzw. Hindernisse 2 und 20 be
finden in Abhängigkeit von durch die Laserradarvor
richtungen 11 bis 14 festgestellten Azimutwinkeln θ1
bis θ4, um das zweidimensionale Bild entsprechend dem
bestimmten Bereich vom Bildsensor 16 abzuleiten. Eine
Hinderniserkennungseinheit 18 bestimmt die Hindernis
se 2 und 20 aus dem von der Bildverarbeitungs-Be
reichsbegrenzungseinheit 17 gelieferten Bild und be
rechnet Größenindizes S der Hindernisse 2 und 20. Ei
ne Fahrumgebungs-Ausgabeeinheit 19 bestimmt Positio
nen, an denen sich die Hindernisse 2 und 20 befinden
in einer wahren räumlichen Koordinate mit Bezug auf
eine Fahrstrecke des Fahrzeugs 1 auf der Grundlage
der von den Laserradarvorrichtungen 11 bis 14 festge
stellten Abstände und Azimutwinkel, um Bilder wieder
zugeben, die die Größenindizes S der Hindernisse 2
und 20 an den bestimmten Positionen anzeigen.
Es folgt nun eine Beschreibung der Arbeitsweise.
Die Laserradarvorrichtungen 11 bis 14 emittieren in
einem vorbestimmten Zeitintervall impulsförmiges La
serlicht in Vorwärtsrichtung und empfangen das an den
Objekten bzw. Hindernissen 2 und 20 reflektierte La
serlicht, wenn sich die Hindernisse 2 und 20 vor dem
Fahrzeug 1 befinden, um die Reflexionszeit zu messen,
wodurch die Abstände zu den Hindernissen 2 und 20 fest
gestellt werden. Gemäß Fig. 4 befindet sich das Hin
dernis 2 in den Bereichen I und II und das Hindernis
20 befindet sich im Bereich III. Daher können die La
serradarvorrichtungen 11, 12 und 13 das reflektierte
Licht empfangen, während die Laserradarvorrichtung 14
kein reflektiertes Licht empfängt.
Die Laserradarvorrichtungen 11 bis 14 sind für jeden
Bereich angeordnet, so daß die Laserradarvorrichtung
11 das den Bereich I darstellende Azimutsignal θ1
ausgibt, wenn die Laserradarvorrichtung 11 das Hin
dernis erfaßt. Demgemäß geben im Fall der Fig. 4 die
Laserradarvorrichtungen 11, 12 und 13 die jeweiligen
Azimutsignale θ1, θ2 und θ3 aus, da die Laserradarvor
richtungen 11 bis 13 die Hindernisse erfassen.
Die Beschreibung der Arbeitsweise erfolgt nun unter
Bezug auf einen Zustand vor dem Fahrzeug 1, der in
Fig. 5 gezeigt ist. In Fig. 5 sind andere Fahrzeuge
21 bis 23 wiedergegeben, die als Hindernisse anzuse
hen sind.
Gemäß Fig. 5 befinden sich die Hindernisse 21 bis 23
in den Bereichen I und II, so daß die Laserradarvor
richtungen 11 und 12 das reflektierte Licht empfangen
(die Laserradarvorrichtungen 13 und 14 empfangen kein
reflektiertes Licht, da die Hindernisse 21 bis 23
nicht in den Bereichen III und IV vorhanden sind).
Daher messen die Laserradarvorrichtungen 11 und 12
die Reflexionszeiten, um die Abstände zu den Hinder
nissen 21 bis 23 zu bestimmen für die Ausgabe von Sig
nalen, die die Abstände r1, r2 und r3 und die Azimut
winkel θ1 und θ2 anzeigen.
Weiterhin empfängt die Bildverarbeitungs-Bereichs
begrenzungseinheit 17 die die Azimutwinkel θ1 und θ2
anzeigenden Signale von den Laserradarvorrichtungen
11 und 12, wodurch die Anwesenheit des Hindernisses
21 im Bereich I und die Anwesenheit der Hindernisse
22 und 23 im Bereich II erkannt werden.
Zweidimensionale Bilder in den Bereich I bis IV wer
den durch den Bildsensor 16 abgebildet. Die Bildver
arbeitungs-Bereichsbegrenzungseinheit 17 leitet je
doch nur die zweidimensionalen Bilder entsprechend
den Bereichen I und II vom Bildsensor 16 ab (siehe
Fig. 6), da in den Bereichen III und IV kein Hinder
nis vorhanden ist. Danach gibt die Bildverarbeitungs-
Bereichsbegrenzungseinheit 17 die zweidimensionalen
Bilder entsprechend den Bereichen I und II zu der
Hinderniserkennungseinheit 18 in einer nachfolgenden
Stufe aus. Dies wird durchgeführt, weil die Hinder
niserkennungseinheit 18 betrieben wird, um Hindernis
se zu bestimmen, und der Hinderniserkennungsvorgang
für den Bereich unnötig ist, in dem sich kein Hinder
nis befindet.
Nachfolgend bestimmt die Hinderniserkennungseinheit
18 die Hindernisse 21 bis 23 aus den zweidimensiona
len Bildern entsprechend den Bereichen I und II und
berechnet die Größenindizes S der Hindernisse 21 bis
23. In diesem Fall werden die Hindernisse 21 bis 23
durch eine bekannte Bildverarbeitung bestimmt (z. B.
grundlegende Bildverarbeitung wie Kantenerfassung
oder Linienerfassung), und es folgt eine kurze Be
schreibung der Bildverarbeitung, während auf eine de
taillierte Beschreibung hiervon verzichtet wird.
Bei der Bildverarbeitung wird das zweidimensionale
Bild in horizontaler und vertikaler Richtung für die
Kantenextraktion differenziert, und danach werden al
le benachbarten Punkte in der extrahierten Kante mit
einander verbunden (Linienverbindung), um einen
sichtbaren Umriß eines Gegenstandes zu erhalten, der
als Umriß des Hindernisses angesehen wird.
Um die Art des Objektes zu bestimmen, ist ein Extrak
tionsrahmen entsprechend einer äußeren Dimension bei
spielsweise des Fahrzeugs an einer Position vorgese
hen, an der das Objekt wie zum Beispiel das Fahrzeug
vorhanden sein kann, auf der Grundlage der von den
Laserradarvorrichtungen 11 bis 14 gelieferten Ab
standsdaten. Wenn der Extraktionsrahmen mit dem Umriß
des Objekts übereinstimmt, kann der Umriß des Gegen
stands als das Hindernis wie zum Beispiel das Fahr
zeug angesehen werden. Andernfalls wird der Umriß als
ein Hintergrundobjekt oder ein anderes Objekt wie
beispielsweise ein Straßenobjekt betrachtet.
Andererseits werden die Umrisse der Hindernisse 21
bis 23 wie in Fig. 7 durch die Bildverarbeitung gege
ben und der Größenindex S des Hindernisses kann be
rechnet werden jeweils durch die Breite x und die Hö
he y der Hindernisse 21 bis 23. Das heißt, der Grö
ßenindex S1 des Hindernisses 21, der Größenindex S2
des Hindernisses 22 und der Größenindex S3 des Hin
dernisses 23 können wie folgt ausgedrückt werden:
Wie vorbeschrieben ist, berechnet die Hinderniserken
nungseinheit 18 die Größenindizes S1, S2 und S3 der
Hindernisse 21 bis 23 und gibt sie an die Fahrumge
bungs-Ausgabeeinheit 19 aus. Daher kann die Fahrumge
bungs-Ausgabeeinheit 19 die Positionen bestimmen, an
denen die Hindernisse 21 bis 23 in den wahren räumli
chen Koordinaten mit Bezug auf die Fahrstrecke des
Fahrzeugs 1 vorhanden sind, abhängig von den von den
Laserradarvorrichtungen 11 und 12 festgestellten Ab
ständen r1, r2 und r3 und den Azimutwinkeln θ1 und θ2
(siehe Fig. 8).
Da sich in diesem Fall nur ein Hindernis im Bereich I
befindet, kann die Position des Hindernisses 21 durch
den Abstand r1 und den Azimutwinkel θ1 bestimmt wer
den. Andererseits befinden sich zwei Hindernisse im
Bereich II, so daß die Fahrumgebungs-Ausgabeeinheit
19 eine seitliche Beziehung zwischen den Positionen
der Hindernisse 22 und 23 bestimmt in Abhängigkeit vom
vom Bildsensor 16 ausgegebenen zweidimensionalen Bild
und die Positionen der Hindernisse 22 und 23 auf der
Grundlage der sich ergebenden Bestimmung und der Ab
stände r2 und r3 zu den Hindernissen 22 und 23 fest
legt.
Schließlich zeigt, wie in Fig. 8 dargestellt ist, die
Fahrumgebungs-Ausgabeeinheit 19 Kreise an, deren Ra
dien proportional zu den Größenindizes S1 bis S3 der
Hindernisse 21 bis 23 sind, die von der Hinderniser
kennungseinheit 18 an den bestimmten Positionen be
stimmt wurden.
Hierdurch kann ein Fahrer die Positionen und die Grö
ßen der Hindernisse 21 bis 23 erkennen.
Beim ersten Ausführungsbeispiel ist es möglich, die
Bildverarbeitung mit hoher Geschwindigkeit durchzu
führen und eine Echtzeit-Verarbeitung vorzunehmen, da
der Bildverarbeitungsbereich begrenzt ist. Für den
Fall, daß ein wesentliches Problem bei der Echtzeit-
Verarbeitung aufgrund einer langen Zeit, die für die
Bildverarbeitung benötigt wird, auftritt, kann der
Umgebungsbereich weiter in sechs Bereiche oder acht
Bereiche statt in vier Bereiche aufgeteilt werden, um
die Größe des zu verarbeitenden zweidimensionalen
Bildes herabzusetzen. Es ist hierdurch möglich, eine
Bildverarbeitung mit höherer Geschwindigkeit ohne ir
gendein Problem bei der Echtzeit-Verarbeitung durch
zuführen.
Beim ersten Ausführungsbeispiel wurde eine Objekter
fassungseinheit 15 beschrieben, die vier an vorbe
stimmten Positionen befestigte Laserradarvorrichtun
gen 11 bis 14 enthält. Alternativ hierzu kann eine
Laserradarvorrichtung vorgesehen sein, die einen wei
teren Abtastbereich aufweist als die Laserradarvor
richtungen 11 bis 14. In diesem Fall ist es auch
nicht erforderlich, wie beim bekannten Gerät mit ei
nem kleinen und sehr genauen Winkel abzutasten, und
ein Abtastbereich kann in vier Bereiche wie beim er
sten Ausführungsbeispiel oder etwa acht Bereiche un
terteilt werden. Es treten keine Probleme bei einer
Echtzeit-Verarbeitung auf, wenn die Abtastung mit ho
her Geschwindigkeit durchgeführt wird, bei der alle
Bereiche in einem Intervall von etwa 10 ms oder weni
ger verarbeitet werden können.
Fig. 9 zeigt ein Blockschaltbild eines Fahrumgebungs-
Überwachungsgerätes nach der Erfindung. Hierin ist
eine zusätzliche Bildverarbeitungs-Bereichsbegren
zungseinheit 24 vorgesehen zur Begrenzung eines durch
die Bildverarbeitungs-Bereichsbegrenzungseinheit 17
bestimmten Bereichs entsprechend einem durch die La
serradarvorrichtungen 11 bis 14 (d. h. die Hinder
niserfassungseinheit 15) festgestellten Abstand und
zum Ableiten eines zweidimensionalen Bildes entspre
chend dem begrenzten Bereich von der Bildverarbei
tungs-Bereichsbegrenzungseinheit 17.
Es folgt nun eine Beschreibung der Arbeitsweise.
Wie in Fig. 10 gezeigt ist, stellt die Laserradarvor
richtung 12 die Anwesenheit eines Objektes in einem
Bereich II an einer durch einen Abstand rn getrennten
Position fest, und die Laserradarvorrichtung 13
stellt die Anwesenheit eines anderen Objektes in ei
nem Bereich III an einer durch einen Abstand rf ge
trennten Position fest.
Hierdurch leitet die Bildverarbeitungs-Bereichsbe
grenzungseinheit 17 zweidimensionale Bilder in den
Bereichen II und III ab, das heißt die zweidimensio
nalen Bilder von einem Bildsensor 16 entsprechen den
schraffierten Bereichen in Fig. 11.
Dann leitet die zusätzliche Bildverarbeitungs-Be
reichsbegrenzungseinheit 24 die zweidimensionalen
Bilder entsprechend den schraffierten Bereichen in
Fig. 12 aus der Bildverarbeitungs-Bereichsbegren
zungseinheit 17 gemäß den festgestellten Abständen rn
und rf ab.
Das heißt, die zweidimensionalen Bilder können ver
kleinert werden, da es möglich ist, abhängig von den
festgestellten Abständen rn und rf angenäherte Posi
tionen zu erfassen, an denen die Hindernisse vorhan
den sind. Durch die Verkleinerung ist es möglich, die
Hindernisse mittels einfacher Durchführung der Bild
verarbeitung nur für durch die Abstände rn und rf ge
trennte Bereiche zu entdecken, da die Hindernisse in
den durch die Abstände rn und rf getrennten Umfangs
bereichen vorhanden sind. Es ist hierdurch möglich,
die Bildverarbeitung in der Hinderniserkennungsein
heit 18 in einer nachfolgenden Stufe mit höherer Ge
schwindigkeit durchzuführen.
Fig. 13 enthält ein Blockschaltbild eines Fahrumge
bungs-Überwachungsgeräts nach dem vierten Ausfüh
rungsbeispiel der Erfindung. Eine Vorhersageeinheit
25 dient zur Vorhersage einer Größe SD der Bewegung
eines Hindernisses abhängig von einem Abstand und ei
nem Azimut, die gegenwärtig durch die Laserradarvor
richtungen 11 bis 14 festgestellt werden, und einem
anderen Abstand und einem anderen Azimut, die vorher
festgestellt wurden. Eine Fahrumgebungs-Ausgabeein
heit 26 stellt ein Bild dar, das die Größe SD der Be
wegung des Hindernisses an einer durch die Fahrumge
bungs-Ausgabeeinheit 19 bestimmten Position anzeigt.
Es folgt die Beschreibung der Arbeitsweise.
Die Teile mit Ausnahme der Vorhersageeinheit 25 und
der Fahrumgebungs-Ausgabeeinheit 26 sind identisch
mit den beim ersten Ausführungsbeispiel beschriebe
nen, und auf die Erläuterung ihrer Arbeitsweise wird
verzichtet. Aus Gründen der Einfachheit erfolgt die
Beschreibung nur für den Fall, daß ein Hindernis 21
vorhanden ist.
Da nur das Hindernis 21 betrachtet wird, wird ange
nommen, daß die Fahrumgebungs-Ausgabeeinheit 19 ein
Bild entsprechend dem in Fig. 14A gezeigten wieder
gibt.
Die Vorhersageeinheit 25 speichert eine Position des
Hindernisses 21, die von der Fahrumgebungs-Ausgabe
einheit 19 als ein Positionsvektor (t1) des Hinder
nisses 21 zu einem Zeitpunkt t1 bestimmt ist (Schritt
ST1 in Fig. 15) (nachfolgend wird jeder Vektor durch
einen Buchstaben in gotischer Schrift ausgedrückt,
zum Beispiel r(t1)). Der Positionsvektor r(t1)
ist ein Positionsvektor mit der Mitte der Vorderseite
eines Fahrzeugs als Ursprung, und er kann bestimmt
werden durch einen Abstand r(t1) und einen Azimut
θ(t) zum Hindernis 21 im Zeitpunkt t1.
Nachfolgend leitet die Vorhersageeinheit 25 eine Po
sition des Hindernisses zu einem Zeitpunkt t2 von der
Fahrumgebungs-Ausgabeeinheit 19 ab, um die Position
als den Positionsvektor r(t2) des Hindernisses 21 zum
Zeitpunkt t2 zu definieren (Schritt ST2). Somit
stellt die Fahrumgebungs-Ausgabeeinheit 19 ein Bild
gemäß Fig. 14B dar, in welcher ein anderes Bild nur
zu Illustrationszwecken durch gestrichelte Linien
wiedergegeben ist, das tatsächlich nicht dargestellt
wird.
Schließlich bestimmt die Vorhersageeinheit 25 eine
Differenz zwischen dem Positionsvektor r(t2) und dem
Positionsvektor r(t1) zur Bestimmung eines Vektors
d(t2) für die vorhergesagte Bewegung (Schritte ST3
und ST4) und bestimmt einen Absolutwert des Bewe
gungsvektors d(t2) zur Festlegung der Größe SD der
Bewegung wie folgt (Schritt ST5):
d(t2) = k(r(t2) - r(t1))
SD = | k | . | (r(t2) - r(t1)) |
worin k eine Konstante ist. Die bestimmte Größe SD
der Bewegung wird in die Fahrumgebungs-Ausgabeeinheit
26 eingegeben. Wie in Fig. 16 gezeigt ist, addiert
die Fahrumgebungs-Ausgabeeinheit 26 eine Länge a, die
sich proportional zur Größe SD der Bewegung erstreckt
zu einem Radius b eines Kreises, der sich proportio
nal zu einem Größenindex S1 des Hindernisses 21 er
streckt, um die Größe SD der Bewegung als einen kon
zentrischen Kreis darzustellen, der auf einer äußeren
Peripherie des den Index S1 anzeigenden Kreises posi
tioniert ist. Daher kann ein Radius S* des die Größe
SD der Bewegung anzeigenden Kreises ausgedrückt wer
den als S* = a + b.
Hierdurch wird, selbst wenn Hindernisse dieselbe Ab
messung haben, das Hindernis größer dargestellt, da
es sich schneller bewegt, so daß leichter entschieden
werden kann, ob die Gefahr ernsthaft ist oder nicht.
Obgleich das vierte Ausführungsbeispiel unter Bezug
auf die Zeitpunkte t1 und t2 beschrieben wurde, wird
tatsächlich derselbe Prozeß für jeweils einen Zeitab
schnitt Δt wiederholt, um einen Vektor d(t) für die
vorhergesagte Bewegung und die Größe SD der Bewegung
zu jeder Zeit zu bestimmen zur Anzeige konzentrischer
Kreise.
Das vierte Ausführungsbeispiel wurde mit Bezug auf
den Fall beschrieben, in welchem ein eine Größe SD
der Bewegung anzeigender Kreis als ein konzentrischer
Kreis dargestellt wird, der auf einem äußeren Umfang
eines einen Größenindex eines Hindernisses anzeigen
den Kreises angeordnet ist. Wie jedoch in Fig. 17 ge
zeigt ist, kann eine vorhergesagte Position eines
Hindernisses 21 zu einem Zeitpunkt t3 entsprechend
einem Vektor d(t2) für die vorhergesagte Bewegung und
die Größe SD der Bewegung, entsprechend der Bestim
mung durch die Vorhersageeinheit 25 bestimmt werden,
und ein Kreis mit einem Radius, der sich proportional
zu der Größe SD der Bewegung erstreckt, kann an der
Position wiedergegeben werden.
In der Zeichnung stellen die gestrichelten Linien je
weils gemeinsame Tangenten für jeden Kreis dar zum
Zweck der Anzeige der Bewegungsrichtung.
Gemäß dem fünften Ausführungsbeispiel ist es somit
möglich, den Grad der Gefahr in der Bewegungsrichtung
des Hindernisses zu bestimmen.
Im fünften Ausführungsbeispiel wurde der Fall be
schrieben, daß ein Größenindex eines Hindernisses
durch die Größe eines Kreises angezeigt wird. Wie je
doch in Fig. 18 gezeigt ist, kann der Größenindex S1
des Hindernisses durch die Größe der Bodenfläche ei
ner Säule angezeigt werden.
Hierdurch bestehen Vorteile dadurch, daß es möglich
ist, eine stereoskope Darstellung vorzusehen und das
Erfassen eines Gesamtbildes der Fahrumgebung gegen
über dem vorstehenden Ausführungsbeispiel zu verein
fachen.
In diesem Fall schneiden sich Koordinatenachsen ent
sprechend den Achsen in einer Vorderrichtung und in
einer Seitenrichtung eines Fahrzeugs untereinander
nicht in einem rechten Winkel, sondern diagonal.
Im sechsten Ausführungsbeispiel wurde der Fall be
schrieben, daß ein Größenindex S1 eines Hindernisses
durch die Größe der Bodenfläche einer Säule angezeigt
wird. Wie jedoch in den Fig. 19 und 20 gezeigt ist,
kann der Größenindex S1 des Hindernisses durch einen
Kegel mit kreisförmigem Querschnitt oder eine gloc
kenförmige Gestalt mit dem Größenindex S1 als Höhe
angezeigt werden.
Da der Größenindex S1 des Hindernisses der Höhe ent
spricht, wie vorstehend dargelegt ist, ergeben sich
Vorteile dadurch, daß es möglich ist, eine visuelle
Differenz des Index S1 klarer anzugeben und ein Ge
samtbild einer Fahrumgebung zu vereinfachen. Weiter
hin kann die Möglichkeit der Darstellung eines ent
fernten Hindernisses erhöht werden, ohne daß es im
Schatten eines nahen Hindernisses liegt.
Obgleich das siebente Ausführungsbeispiel in Bezug
auf einen kreisförmigen Kegel oder eine Glockenform
beschrieben wurde, kann die vorliegende Erfindung je
de gewünschte Form verwenden, bei der der Größenindex
S1 des Hindernisses in drei Dimensionen angezeigt
werden kann.
Das sechste und das siebente Ausführungsbeispiel wur
den in Bezug auf einen Fall beschrieben, bei welchem
eine dreidimensionale Figur auf der Grundlage des
Größenindex S1 eines Hindernisses wiedergegeben wird.
Wie jedoch in den Fig. 21 bis 24 gezeigt ist, kann
die dreidimensionale Figur auf der Grundlage des Grö
ßenindexes S1 und einer Größe SD der Bewegung des
Hindernisses wiedergegeben werden.
Gemäß Fig. 21 werden der Größenindex S1 und die Größe
der Bewegung des Hindernisses durch die Bodenfläche
der dreidimensionalen Figur angezeigt, und gemäß Fig.
22 entsprechen die Bödenfläche und die Höhe jedes
kreisförmigen Kegels dem Index S1 und der Größe SD
der Bewegung.
Gemäß Fig. 23 ist ein Scheitelpunkt auf einem Kreis
entsprechend dem Index S1 vorgesehen, und Fig. 24 il
lustriert eine dreidimensionale Figur, in welcher ein
Scheitelpunkt im Flächenmittelpunkt beider Kreise
vorgesehen ist.
Obgleich das achte Ausführungsbeispiel mit Bezug auf
den kreisförmigen Kegel oder dergleichen beschrieben
wurde, kann die vorliegende Erfindung jede gewünschte
Form verwenden, die den Größenindex S1 des Hindernis
ses in drei Dimensionen anzeigen kann.
Fig. 25 zeigt ein Blockschaltbild eines Fahrumge
bungs-Überwachungsgeräts nach dem neunten Ausfüh
rungsbeispiel der Erfindung. Eine Hinderniserken
nungseinheit 27 dient zum Bestimmen eines Hindernis
ses aus einem von der Bildverarbeitungs-Bereichsbe
grenzungseinheit 17 vorgegebenen zweidimensionalen
Bild, um einen Größenindex S des Hindernisses zu be
rechnen, und zum Erweitern des Indexes S, wenn das
Hindernis eine Höhe y hat, die größer als dessen
Breite x ist.
Es erfolgt nun eine Beschreibung der Arbeitsweise.
Wenn beispielsweise zwei Hindernisse vorhanden sind,
wird angenommen, daß die Hinderniserkennungseinheit
27 die Hindernisse wie beim ersten Ausführungsbei
spiel bestimmt, wodurch sich die Umrisse der Hinder
nisse gemäß Fig. 26 ergeben.
Während wie beim ersten Ausführungsbeispiel die Hin
derniserkennungseinheit 27 die Größenindizes S1, S2 der
Hindernisse 21 und 22 entsprechend den Gleichungen
(3) und (4) berechnet, werden die resultierenden In
dizes S1 und S2 nicht als endgültige Bestimmung ver
wendet, und der Betrieb wird gemäß folgender Verar
beitung weitergeführt.
Das heißt, die Hinderniserkennungseinheit 27 bestimmt
weiterhin Verhältnisse ∈1 = y1/x1, ∈2 = y2/x2 zur Mul
tiplikation der vorher bestimmten Indizes S1 und S2
mit den Erweiterungskoeffizienten entsprechend den
Verhältnissen ∈1 und ∈2 wie folgt:
S1 = Erweiterungskoeffizient × S1 (6)
S2 = Erweiterungskoeffizient × S2 (7).
Jeder Erweiterungskoeffizient entsprechend dem Ver
hältnis ∈ wird wie folgt eingestellt:
- A) Der Erweiterungskoeffizient ist gleich 1 für ∈ < 1. In diesem Fall ist die Höhe des Hindernisses grö ßer als dessen Breite, so daß die durch die Glei chungen (3) und (4) erhaltenen Indizes S als end gültige Indizes S ausgegeben werden.
- B) Der Erweiterungskoeffizient ist a für 1 < ∈ < ∈a (a < 1). In diesem Fall wird ein oberer Grenzwert ∈a (zum Beispiel ∈a = 2) so eingestellt, daß das Verhältnis von Höhe zu Breite in einem Bereich entsprechend einem Motorrad ist, und der Erweiterungskoeffi zient a wird beispielsweise auf 2 eingestellt.
- C) Der Erweiterungskoeffizient ist b für ∈a < ∈ < ∈b (b < 1
und b < a). In diesem Fall werden ein unterer Grenz
wert ∈a und ein oberer Grenzwert (zum Beispiel ∈b =
3) so eingestellt, daß das Verhältnis von Höhe zu
Breite in einem Bereich entsprechend dem eines
menschlichen Körpers ist; und der Erweiterungs
koeffizient wird beispielsweise auf 4 eingestellt.
Wenn daher das Verhältnis ∈1 des Hindernisses 21 die Bedingung A und das Verhältnis ∈2 des Hinder nisses 22 die Bedingung B erfüllen, können die Größenindizies S1, S2 der Hindernisse 21 und 22 wie folgt ausgedrückt werden:
S1 = 1 × S1 (8)
S2 = a × S2 (9).
Wie vorstehend dargestellt ist, wird beim neunten
Ausführungsbeispiel der Erweiterungskoeffizient im
Hinblick auf das Verhältnis von Höhe zu Breite des
Hindernisses multipliziert. Es ist hierdurch möglich,
das Hindernis wie ein Motorrad oder ein menschlicher
Körper, das klein, aber sehr gefährlich ist, sehr
groß darzustellen und den Grad der Gefahr deutlicher
anzuzeigen, wodurch sich eine angemessene Entschei
dung über die Möglichkeit einer Kollision ergibt.
Fig. 27 enthält das Blockschaltbild eines Fahrumge
bungs-Überwachungsgeräts nach dem zehnten Ausfüh
rungsbeispiel der Erfindung. Eine Hinderniserken
nungs-Hilfseinheit 28 bezieht sich auf einen Grö
ßenindex S0(r) eines Hindernisses, der entsprechend
einem Abstand r zum Hindernis voreingestellt ist für
den Fall, daß der Abstand r und ein Azimut θ zum Hin
dernis von den Laserradarvorrichtungen 11 bis 14 er
faßt werden, und für den Fall, daß die Hinderniser
kennungseinheit 18 keinen Größenindex S des Hinder
nisses ausgibt, und sie gibt den Größenindex S0(r)
des Hindernisses entsprechend dem von den Laserradar
vorrichtungen 11 bis 14 erfaßten Abstand r an die
Fahrumgebungs-Ausgabeeinheit 19 aus.
Die Arbeitsweise wird nachfolgend beschrieben.
Als Beispiel erfolgt die Beschreibung eines Falles,
bei dem nur ein Hindernis vorhanden ist und die La
serradarvorrichtung 11 das Hindernis 21 erfaßt.
Typischerweise berechnet die Hinderniserkennungsein
heit 18 den Größenindex S1 des Hindernisses und gibt
diesen aus, wenn die Laserradarvorrichtung 11 das
Hindernis 21 erfaßt. Wenn jedoch eine Fehlfunktion
bei der Bildverarbeitung auftritt oder die Berechnung
für den Index nicht vollständig beendet ist, gibt die
Hinderniserkennungseinheit 18 manchmal keinen Index
S1 aus, selbst wenn die Laserradarvorrichtung 11 den
relativen Abstand r1 und den Azimut θ1 zum Hindernis
21 feststellt.
Folglich bezieht sich die Hinderniserkennungs-
Hilfseinheit 28 auf Entscheidungsbezugsdaten Sth(r1),
die mit dem Abstand r1 in Entscheidungsbezugsdaten
Sth(r) verbunden sind, die entsprechend dem Abstand r
zum Hindernis 21 voreingestellt sind, wenn die Laser
radarvorrichtung 11 den Abstand r1 und den Azimut θ1
zum Hindernis 21 feststellt (siehe Fig. 28). Dann
vergleicht die Hinderniserkennungs-Hilfseinheit 28
die Entscheidungsbezugsdaten Sth(r1) mit von der Hin
derniserkennungseinheit 18 ausgegebenen Daten S (wel
che beispielsweise Daten mit dem Wert 0 ausgibt, wenn
sie keinen Index S1 ausgibt).
Wenn die Daten S größer als die Entscheidungsbezugs
daten Sth(r1) sind, entscheidet die Hinderniserken
nungs-Hilfseinheit 28 normalerweise, daß der Index S1
von der Hinderniserkennungseinheit 18 ausgegeben
wird, und beliefert die Fahrumgebungs-Ausgabeeinheit
19 mit dem Index S1, so wie er ist. Wenn jedoch die
Daten S kleiner als die Entscheidungsbezugsdaten
Sth(r1) sind, entscheidet die Hinderniserkennungs-
Hilfseinheit 28, daß irgendeine Fehlfunktion bei der
Bildverarbeitung auftritt. Dann bezieht sich die Hin
derniserkennungs-Hilfseinheit 28 auf Entscheidungsbe
zugsdaten S0(r1), die mit dem Abstand r1 in Entschei
dungsbezugsdaten S0(r) verbunden sind, die entspre
chend dem Abstand r zum Hindernis voreingestellt sind
(siehe Fig. 28), und gibt den Index S0(r1) an die
Fahrumgebungs-Ausgabeeinheit 19 aus.
Fig. 29 zeigt ein illustratives Ausgangssignal der
Fahrumgebungs-Ausgabeeinheit 19.
Wie vorbeschrieben ist, gibt beim zehnten Ausfüh
rungsbeispiel, wenn die Hinderniserkennungseinheit 18
keinen Index S1 ausgibt, die Hinderniserkennungs-
Hilfseinheit 28 den Index S0(r1) aus. Als Folge hier
von ist es möglich, einen Fahrer über das gegenwärti
ge Hindernis zu informieren, selbst wenn bei der
Bildverarbeitung eine Fehlfunktion auftritt.
Fig. 30 enthält das Blockschaltbild eines Fahrumge
bungs-Überwachungsgeräts nach dem elften Ausführungs
beispiel der Erfindung. Eine Datenersetzungseinheit
29 dient zur Ausgabe eines Substitutionsindexes Sx(r)
anstelle eines von der Hinderniserkennungs-
Hilfseinheit 28 ausgegebenen Größenindexes S0(r) ei
nes Hindernisses, der einen größeren Wert als der
Größenindex S0(r) hat, an die Fahrumgebungs-
Ausgabeeinheit 19 für den Fall, daß die Laserradar
vorrichtungen 11 bis 14 einen relativen Abstand r und
einen Azimut θ zum Hindernis feststellen und die La
serradarvorrichtungen 11 bis 14 keinen Größenindex S
des Hindernisses ausgeben, selbst wenn eine vorbe
stimmte Zeit T0 oder mehr seit der Feststellung des
Abstandes r und des Azimuts θ verstrichen ist.
Es folgt nun eine Beschreibung der Arbeitsweise.
Fig. 31 zeigt einen Zustand, bei dem das Hindernis 21
sich aus einem Bereich I in einem Bereich II bewegt,
das heißt einen Zustand, bei dem das Hindernis 21 für
eine Zeitspanne von t1 bis t3 im Bereich I vorhanden
ist und in den Bereich II zu einem Zeitpunkt t3 ein
tritt.
In diesem Ausführungsbeispiel ist, während die Hin
derniserkennungseinheit 18 normalerweise einen Grö
ßenindex S(r2) des Hindernisses 21 unmittelbar vor
dem Zeitpunkt t3 ausgibt, die Berechnung eines Grö
ßenindexes S(r3) des Hindernisses 21 abhängig von ei
nem Abstand r3 und einem Azimut θ2 nicht vollständig
beendet, unmittelbar nachdem das Hindernis 21 in den
Bereich II eintritt (d. h. zum Zeitpunkt t3). Daher
bezieht sich die Hinderniserkennungs-Hilfseinheit 28
als ein einleitender Schritt auf den Index S0(r3) und
gibt diesen aus in Verbindung mit dem Abstand r3 wie
beim zehnten Ausführungsbeispiel.
Jedoch entscheidet bei diesem Ausführungsbeispiel die
Datenersetzungseinheit 29, da die Hinderniserken
nungseinheit 18 keinen Index S(r3) ausgibt, selbst
nachdem die vorbestimmte Zeitspanne T0 seit der Aus
gabe des Index S0(r3) durch die Hinderniserkennungs-
Hilfseinheit 28 verstrichen ist, daß irgendeine Fehl
funktion bei der Bildverarbeitung auftritt. In diesem
Zusammenhang wird die vorbestimmte Zeitspanne T0 aus
reichend länger als die Zeitspanne Tc eingestellt,
die für die Berechnung des Index S(r3) bei der norma
len Durchführung der Bildverarbeitung benötigt wird.
Demgemäß gibt die Datenersetzungseinheit 29 einen
Wert Sx(r3) aus anstelle des von der Hinderniserken
nungs-Hilfseinheit 28 ausgegebenen Indexes S0(r3),
der größer als S0(r3) ist, um die Fehlfunktion in der
Bildverarbeitung klarzustellen, damit der Fahrer auf
deren Auftreten aufmerksam gemacht wird.
Sx(r) ist ein Index, der vorhanden ist entsprechend
dem Abstand r zum Hindernis wie im Fall von S0(r).
Wie vorstehend dargestellt ist, gibt beim elften Aus
führungsbeispiel die Datenersetzungseinheit 29, wenn
die Hinderniserkennungseinheit 18 keinen Index S(r3)
ausgibt, selbst nachdem die vorbestimmte Zeitspanne
T0 oder mehr seit der Ausgabe des Indexes S0(r3) durch
die Hinderniserkennungs-Hilfseinheit 28 verstrichen
ist, einen Wert Sx(r3) anstelle von S0(r3) aus. Als
Folge wird ein vergrößertes Bild dargestellt, um die
Aufmerksamkeit des Fahrers sicherer auf die Fehlfunk
tion zu lenken.
Das elfte Ausführungsbeispiel wurde beschrieben mit
Bezug auf den Fall, bei dem der Abstand r entspre
chend den repräsentativen Azimutwinkeln θ1, θ2, θ3 und
θ4 und die Ein-/Ausgabe des Indexes S parallel verar
beitet werden. Jedoch kann ein Register vorgesehen
sein, um die jeweiligen Daten für eine vorbestimmte
Zeitspanne zu halten und um die Ein-/Ausgabe und
Übertragung von Daten in Reihe über eine einzige
Übertragungsleitung durchzuführen in Synchronisation
mit einem Takt mit kurzem Zyklus, der ein Viertel
oder weniger als die Zeitspanne zwischen den Zeit
punkten t1 und t2 beträgt.
Das elfte Ausführungsbeispiel wurde mit Bezug auf ei
nen Fall beschrieben, bei dem eine Datenersetzungs
einheit 29 den Index Sx(r3) anstelle des Indexes
S0(r3) ausgibt. Alternativ kann, wie in den Fig. 32
und 33 gezeigt ist, für den Fall, daß die Hinder
niserkennungseinheit 18 einen Größenindex S(r) eines
Hindernisses nicht ausgibt, selbst nachdem eine vor
bestimmte Zeitspanne Tx oder mehr von der Feststel
lung eines relativen Abstands r und eines Azimuts θ
durch die Laserradarvorrichtungen 11 bis 14 verstri
chen ist, eine Fehlfunktions-Bestimmungseinheit 30
(eine Fehlfunktions-Anzeigeeinheit) entscheiden, daß
irgendeine Fehlfunktion auftritt, und eine Fehlfunk
tionszustands-Ausgabeeinheit 31 (eine Fehlfunktions-
Anzeigeeinheit) kann das Auftreten der Fehlfunktion
anzeigen.
Als ein Beispiel der Ausgabe der Fehlfunktionszu
stands-Ausgabeeinheit 31 kann eine konische Figur
entsprechend dem Hindernis in Fig. 19 aufflackern,
oder Buchstaben wie "Fehler" können auf derselben An
zeige wiedergegeben werden. Alternativ kann ein be
kanntes Stimmenerzeugungsgerät verwendet werden, um
eine Sprachansage wie "Fehler im Bildverarbeitungssy
stem" zu erzeugen, oder eine Alarmvorrichtung kann
zur Erzeugung eines Pieptons verwendet werden.
Die Ausführungsbeispiele wurden mit Bezug auf ein Sy
stem beschrieben, um ein Hindernis in einem Umfangs
bereich vor einem Fahrzeug 1 zu überwachen. Jedoch
kann die Erfindung auf ein System angewendet werden,
um das Hindernis in einem Umgebungsbereich in einer
Seitenrichtung oder hinter dem Fahrzeug 1 zu überwa
chen.
Claims (12)
1. Fahrumgebungs-Überwachungsgerät mit einer Objekt
erfassungseinheit (15) zum Abtasten einer Mehr
zahl von geteilten Umgebungsbereichen in Fahrt
richtung eines Fahrzeugs (1), um, wenn sich ein
Objekt in den Umgebungsbereichen
befindet, einen Abstand und einen Azimut vom Fähr
zeug (1) zum Objekt festzustellen,
einer Bilderfassungseinheit (16) zum Erfassen zweidimensionaler Bilder in den Umgebungsberei chen, einer Bildverarbeitungs- Bereichsbegrenzungseinheit (17) zum Bestimmen des Umgebungsbereiches, in welchem sich das Objekt befindet, in Abhängigkeit von dem durch die Objekterfassungseinheit (15) festgestellten Azimut, um ein zweidimensionales Bild entsprechend dem bestimmten Umgebungsbereich von der Bilderfas sungseinheit (16) abzuleiten,
einer Hinderniserkennungseinheit (18) zur Unter scheidung von Hindernissen von anderen Objekten anhand ihrer äußeren Dimension durch Verarbeitung des von der Bildverarbeitungs-Bereichsbegrenzungs einheit (17) abgeleiteten zweidimensionalen Bildes auf der Grundlage der von der Objekterfassungsein heit (15) gelieferten Abstandsdaten und zum Be rechnen eines Größenindexes eines Hindernisses (2, 20, 21-23), und
einer ersten Fahrumgebungs-Ausgabeeinheit (19) zum Bestimmen einer Position, an der das Hindernis (2, 20, 21-23) sich befindet, mittels einer räumlichen Koordinate in bezug auf eine Fahrtstrecke des Fahrzeugs (1) in Abhängigkeit vom Abstand und vom Azimut, die von der Objekterfassungseinheit (15) festgestellt wurden, um ein Bild wiederzugeben, das den Größenindex des Hindernisses (2, 20, 21-23) an der bestimmten Position anzeigt.
einer Bilderfassungseinheit (16) zum Erfassen zweidimensionaler Bilder in den Umgebungsberei chen, einer Bildverarbeitungs- Bereichsbegrenzungseinheit (17) zum Bestimmen des Umgebungsbereiches, in welchem sich das Objekt befindet, in Abhängigkeit von dem durch die Objekterfassungseinheit (15) festgestellten Azimut, um ein zweidimensionales Bild entsprechend dem bestimmten Umgebungsbereich von der Bilderfas sungseinheit (16) abzuleiten,
einer Hinderniserkennungseinheit (18) zur Unter scheidung von Hindernissen von anderen Objekten anhand ihrer äußeren Dimension durch Verarbeitung des von der Bildverarbeitungs-Bereichsbegrenzungs einheit (17) abgeleiteten zweidimensionalen Bildes auf der Grundlage der von der Objekterfassungsein heit (15) gelieferten Abstandsdaten und zum Be rechnen eines Größenindexes eines Hindernisses (2, 20, 21-23), und
einer ersten Fahrumgebungs-Ausgabeeinheit (19) zum Bestimmen einer Position, an der das Hindernis (2, 20, 21-23) sich befindet, mittels einer räumlichen Koordinate in bezug auf eine Fahrtstrecke des Fahrzeugs (1) in Abhängigkeit vom Abstand und vom Azimut, die von der Objekterfassungseinheit (15) festgestellt wurden, um ein Bild wiederzugeben, das den Größenindex des Hindernisses (2, 20, 21-23) an der bestimmten Position anzeigt.
2. Fahrumgebungs-Überwachungsgerät nach Anspruch 1,
gekennzeichnet durch eine Korrektureinheit (24)
zum Begrenzen des durch die Bildverarbeitungs-
Bereichsbegrenzungseinheit (17) bestimmten Be
reichs, entsprechend dem von der Objekterfassungs
einheit (15) festgestellten Abstand, um ein zwei
dimensionales Bild entsprechend dem begrenzten Be
reich von der Bildverarbeitungs-Bereichsbegren
zungseinheit (17) abzuleiten.
3. Fahrumgebungs-Überwachungsgerät nach Anspruch 1,
gekennzeichnet durch eine Vorhersageeinheit (25)
zum Vorhersagen der Größe einer Bewegung des Hin
dernisses (2, 20, 21-23) in Abhängigkeit von dem Ab
stand und dem Azimut, die gegenwärtig von der er
sten Fahrumgebungs-Ausgabeeinheit (19) festge
stellt werden, und von dem Abstand und dem Azimut,
die vorher festgestellt wurden, und eine zweite
Fahrumgebungs-Ausgabeeinheit (26) zum Bestimmen
einer Position, an der das Hindernis (2, 20, 21-23)
sich befindet, in einer räumlichen Koordinate in
bezug auf eine Fahrtstrecke des Fahrzeugs (1) in
Abhängigkeit vom Abstand und vom Azimut, die ge
genwärtig von der Objekterfassungseinheit (15)
festgestellt werden, um ein Bild wiederzugeben,
das den Größenindex und die Größe der Bewegung des
Hindernisses, (2, 20, 21-23) an der bestimmten Posi
tion anzeigt.
4. Fahrumgebungs-Überwachungsgerät nach Anspruch 3,
dadurch gekennzeichnet, daß die zweite Fahrumge
bungs-Ausgabeeinheit (26) den Größenindex und die
Größe der Bewegung des Hindernisses (2, 20, 21-23) jeweils durch
die Größe von Kreisen anzeigt, und daß sie einen
der Kreise, der die Größe der Bewegung darstellt,
durch einen konzentrischen Kreis anzeigt, der auf
einem äußeren Umfang des anderen der Kreise, der
den Größenindex des Hindernisses (2, 20, 21-23) dar
stellt, angeordnet ist.
5. Fahrumgebungs-Überwachungsgerät nach Anspruch 1,
gekennzeichnet durch eine Vorhersageeinheit (25)
zum Vorhersagen der Größe und der Richtung einer
Bewegung des Hindernisses (2, 20, 21-23) in Abhän
gigkeit von dem Abstand und dem Azimut, die gegen
wärtig von der ersten Fahrumgebungs-Ausgabeeinheit
(19) festgestellt werden, und von dem Abstand und
dem Azimut, die vorher festgestellt wurden, und
eine zweite Fahrumgebungs-Ausgabeeinheit (26) zum
Bestimmen einer Position, an der sich das Hinder
nis (2, 20, 21-23) befindet, in Abhängigkeit vom Ab
stand und vom Azimut, die gegenwärtig von der Ob
jekterfassungseinheit (15) festgestellt werden,
und der anderen Position, an der sich das Hinder
nis (2, 20, 21-23) nach der Bewegung befinden wird,
in Abhängigkeit von der Größe und der Richtung der
Bewegung, die von der Vorhersageeinheit (25) vor
hergesagt wurden, in einer räumlichen Koordinate
in bezug auf eine Fahrtstrecke eines Fahrzeugs
(1), um ein Bild, das den Größenindex des Hinder
nisses (2, 20, 21-23) an der Position anzeigt, an
der das Hindernis (2, 20, 21-23) sich befindet, und
ein anderes Bild, das die Größe der Bewegung an
der Position anzeigt, an der sich das Hindernis
(2, 20, 21-23) nach der Bewegung befindet, darzu
stellen.
6. Fahrumgebungs-Überwachungsgerät nach Anspruch 5,
dadurch gekennzeichnet, daß die zweite Fahrumge
bungs-Ausgabeeinheit (26) den Größenindex und die
Größe der Bewegung des Hindernisses (2, 20, 21-23) jeweils durch
die Größe von Kreisen, und eine Linie, die eine
gemeinsame Tangente für jeden der Kreise dar
stellt, anzeigt.
7. Fahrumgebungs-Überwachungsgerät nach Anspruch 1,
dadurch gekennzeichnet, daß die erste Fahrumgebungs-
Ausgabeeinheit (19) den Größenindex des Hindernisses
(2, 20, 21-23) durch eine dreidimensionale Figur mit
einer dem Index entsprechenden Größe anzeigt.
8. Fahrumgebungs-Überwachungsgerät nach Anspruch 3
oder 5, dadurch gekennzeichnet, daß die zweite Fahr
umgebungs-Ausgabeeinheit (26) den Größenindex und
die Größe der Bewegung des Hindernisses (2, 20, 21-23)
durch eine dreidimensionale Figur mit einer Größe
entsprechend dem Index und der Größe der Bewegung an
zeigt.
9. Fahrumgebungs-Überwachungsgerät nach einem der
Ansprüche 1 bis 3, dadurch gekennzeichnet, daß die
Hinderniserkennungseinheit (27) den durch die Berech
nung bestimmten Größenindex des Hindernisses (22) er
weitert, wenn die Höhe des Hindernisses (22) größer
als dessen Breite ist.
10. Fahrumgebungs-Überwachungsgerät nach einem der
Ansprüche 1, 3 oder 5, gekennzeichnet durch eine Hin
derniserkennungs-Hilfseinheit (28) für die Bezugnahme
auf einen entsprechend einem Abstand zum Hindernis
(2, 20, 21-23) voreingestellten Größenindex eines Hin
dernisses (2, 20, 21-23) für den Fall, daß der Abstand
und ein Azimut zu dem Hindernis (2, 20, 21-23) durch
die Objekterfassungseinheit (15) festgestellt werden
und die Hinderniserkennungseinheit (18) keinen Grö
ßenindex des Hindernisses (2, 20, 21-23) ausgibt, und
für die Ausgabe des Größenindexes des Hindernisses
(2, 20, 21-23) zu der ersten Fahrumgebungs-
Ausgabeeinheit (19), entsprechend dem von der Objekt
erfassungseinheit (15) festgestellten Abstand.
11. Fahrumgebungs-Überwachungsgerät nach Anspruch
10, gekennzeichnet durch eine Datensubstitutionsein
heit (29) zur Ausgabe eines Substitutionsindexes an
stelle des von der Hinderniserkennungs-Hilfseinheit
(28) ausgegebenen Größenindexes des Hindernisses
(2, 20, 21-23), der einen größeren Wert hat als der
Größenindex an die erste Fahrumgebungs-Ausgabeeinheit
(19), für den Fall, daß die Objekterfassungseinheit
(15) den Abstand und den Azimut zum Hindernis
(2, 20, 21-23) feststellt und die Hinderniserkennungs
einheit (18) keinen Größenindex des Hindernisses
(2, 20, 21-23) ausgibt, selbst nachdem eine vorbestimm
te Zeitspanne oder mehr seit der Feststellung des Ab
standes und des Azimuts verstrichen ist.
12. Fahrumgebungs-Überwachungsgerät nach Anspruch
10, gekennzeichnet durch eine Fehlfunktions-
Anzeigeeinheit (30) zur Feststellung, daß irgendeine
Fehlfunktion stattfindet, um diese anzuzeigen, wenn
die Objekterfassungseinheit (15) den Abstand und den
Azimut zum Hindernis (2, 20, 21-23) feststellt und wenn
die Hinderniserkennungseinheit (18) keinen Größenin
dex des Hindernisses (2, 20, 21-23) ausgibt, selbst
nachdem eine vorbestimmte Zeitspanne oder mehr seit
der Feststellung des Abstandes und des Azimuts ver
strichen ist.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34242792 | 1992-12-22 | ||
JP2521493 | 1993-02-15 | ||
JP30052893A JP3263699B2 (ja) | 1992-12-22 | 1993-11-30 | 走行環境監視装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4344485A1 DE4344485A1 (de) | 1994-06-23 |
DE4344485C2 true DE4344485C2 (de) | 1999-07-22 |
Family
ID=27284937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4344485A Expired - Fee Related DE4344485C2 (de) | 1992-12-22 | 1993-12-21 | Fahrumgebungs-Überwachungsgerät |
Country Status (3)
Country | Link |
---|---|
US (1) | US5475494A (de) |
JP (1) | JP3263699B2 (de) |
DE (1) | DE4344485C2 (de) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10148062A1 (de) * | 2001-09-28 | 2003-04-10 | Ibeo Automobile Sensor Gmbh | Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes |
US7570793B2 (en) | 2001-06-15 | 2009-08-04 | Ibeo Automobile Sensor Gmbh | Correction method for data of a plurality of optoelectronic sensors |
US9171217B2 (en) | 2002-05-03 | 2015-10-27 | Magna Electronics Inc. | Vision system for vehicle |
US9191634B2 (en) | 2004-04-15 | 2015-11-17 | Magna Electronics Inc. | Vision system for vehicle |
US9436880B2 (en) | 1999-08-12 | 2016-09-06 | Magna Electronics Inc. | Vehicle vision system |
US9440535B2 (en) | 2006-08-11 | 2016-09-13 | Magna Electronics Inc. | Vision system for vehicle |
DE102012102320B4 (de) * | 2011-03-22 | 2020-03-05 | Subaru Corporation | Fahrzeugumfeldüberwachungsvorrichtung und Fahrzeugumfeldüberwachungsverfahren |
Families Citing this family (224)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5670935A (en) * | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
US5877897A (en) | 1993-02-26 | 1999-03-02 | Donnelly Corporation | Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array |
US5910854A (en) * | 1993-02-26 | 1999-06-08 | Donnelly Corporation | Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices |
JPH07225276A (ja) * | 1994-02-10 | 1995-08-22 | Mitsubishi Electric Corp | 車両用光レーダ装置 |
JP3156817B2 (ja) * | 1994-03-14 | 2001-04-16 | 矢崎総業株式会社 | 車両周辺監視装置 |
US5754099A (en) * | 1994-03-25 | 1998-05-19 | Nippondenso Co., Ltd. | Obstacle warning system for a vehicle |
US5668663A (en) | 1994-05-05 | 1997-09-16 | Donnelly Corporation | Electrochromic mirrors and devices |
JP3212218B2 (ja) * | 1994-05-26 | 2001-09-25 | 三菱電機株式会社 | 車両用障害物検出装置 |
JP3240835B2 (ja) * | 1994-06-09 | 2001-12-25 | 株式会社日立製作所 | 車両用距離計測装置 |
JP2854805B2 (ja) * | 1994-06-15 | 1999-02-10 | 富士通株式会社 | 物体認識方法および視覚装置 |
JPH08122060A (ja) * | 1994-10-21 | 1996-05-17 | Mitsubishi Electric Corp | 車両周辺監視システム |
JPH08138053A (ja) * | 1994-11-08 | 1996-05-31 | Canon Inc | 被写体情報処理装置及び遠隔装置 |
US5642093A (en) * | 1995-01-27 | 1997-06-24 | Fuji Jukogyo Kabushiki Kaisha | Warning system for vehicle |
JPH08285942A (ja) * | 1995-04-11 | 1996-11-01 | Yazaki Corp | 車両用レーザレーダ |
US5617199A (en) * | 1995-04-26 | 1997-04-01 | Laser Technology, Inc. | Device, and associated method, for determining distances between moving objects |
US6891563B2 (en) | 1996-05-22 | 2005-05-10 | Donnelly Corporation | Vehicular vision system |
DE19546506A1 (de) * | 1995-12-13 | 1997-06-19 | Daimler Benz Ag | Fahrzeug-Navigationssystem und Signalverarbeitungsverfahren für ein solches Navigationssystem |
DE19546507A1 (de) * | 1995-12-13 | 1997-06-19 | Daimler Benz Ag | Fahrzeug-Navigationssystem und Signalverarbeitungsverfahren für ein solches Navigationssystem |
US7655894B2 (en) | 1996-03-25 | 2010-02-02 | Donnelly Corporation | Vehicular image sensing system |
JPH09264954A (ja) * | 1996-03-29 | 1997-10-07 | Fujitsu Ten Ltd | レーダを用いた画像処理システム |
JP3619628B2 (ja) * | 1996-12-19 | 2005-02-09 | 株式会社日立製作所 | 走行環境認識装置 |
DE19700793A1 (de) * | 1997-01-13 | 1998-07-16 | Mackert Roland Dr Dipl Kaufm | Vorrichtung zur Überwachung des nachfolgenden Straßenverkehrs |
US5889582A (en) * | 1997-03-10 | 1999-03-30 | Virtek Vision Corporation | Image-directed active range finding system |
US6124886A (en) | 1997-08-25 | 2000-09-26 | Donnelly Corporation | Modular rearview mirror assembly |
US8294975B2 (en) | 1997-08-25 | 2012-10-23 | Donnelly Corporation | Automotive rearview mirror assembly |
US6326613B1 (en) | 1998-01-07 | 2001-12-04 | Donnelly Corporation | Vehicle interior mirror assembly adapted for containing a rain sensor |
US6172613B1 (en) | 1998-02-18 | 2001-01-09 | Donnelly Corporation | Rearview mirror assembly incorporating vehicle information display |
JP3280893B2 (ja) * | 1997-09-13 | 2002-05-13 | 本田技研工業株式会社 | 車両用操舵制御装置 |
DE59809476D1 (de) * | 1997-11-03 | 2003-10-09 | Volkswagen Ag | Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges |
JPH11139229A (ja) * | 1997-11-11 | 1999-05-25 | Mitsubishi Electric Corp | 走行環境監視警報装置 |
US6055042A (en) * | 1997-12-16 | 2000-04-25 | Caterpillar Inc. | Method and apparatus for detecting obstacles using multiple sensors for range selective detection |
US8288711B2 (en) | 1998-01-07 | 2012-10-16 | Donnelly Corporation | Interior rearview mirror system with forwardly-viewing camera and a control |
US6445287B1 (en) | 2000-02-28 | 2002-09-03 | Donnelly Corporation | Tire inflation assistance monitoring system |
DE19806150C1 (de) * | 1998-02-14 | 1999-09-16 | Daimler Chrysler Ag | Fahrzeug mit Objekterfassungseinrichtung |
EP0949818A3 (de) * | 1998-04-07 | 2000-10-25 | Matsushita Electric Industrial Co., Ltd. | Bildanzeigegerät an Bord eines Fahrzeugs, Bildsendersystem, Bildsendegerät, und Bildaufnahmegerät |
US6477464B2 (en) | 2000-03-09 | 2002-11-05 | Donnelly Corporation | Complete mirror-based global-positioning system (GPS) navigation solution |
US6329925B1 (en) | 1999-11-24 | 2001-12-11 | Donnelly Corporation | Rearview mirror assembly with added feature modular display |
US6693517B2 (en) | 2000-04-21 | 2004-02-17 | Donnelly Corporation | Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants |
JP3986671B2 (ja) * | 1998-07-15 | 2007-10-03 | 本田技研工業株式会社 | 物体検知装置 |
JP3986678B2 (ja) * | 1998-08-07 | 2007-10-03 | 本田技研工業株式会社 | 物体検知装置 |
DE19845048A1 (de) * | 1998-09-30 | 2000-04-06 | Volkswagen Ag | Verfahren und Einrichtung zur Erfassung von Hindernissen |
JP3923200B2 (ja) * | 1998-10-23 | 2007-05-30 | 本田技研工業株式会社 | 車両の障害物検知方法 |
JP2000161915A (ja) * | 1998-11-26 | 2000-06-16 | Matsushita Electric Ind Co Ltd | 車両用単カメラ立体視システム |
JP3990836B2 (ja) * | 1999-03-01 | 2007-10-17 | 矢崎総業株式会社 | 車両用周辺監視装置 |
JP2000337871A (ja) * | 1999-05-27 | 2000-12-08 | Fujitsu Ltd | 測距装置 |
JP4118452B2 (ja) * | 1999-06-16 | 2008-07-16 | 本田技研工業株式会社 | 物体認識装置 |
JP3515926B2 (ja) * | 1999-06-23 | 2004-04-05 | 本田技研工業株式会社 | 車両の周辺監視装置 |
AU5531999A (en) * | 1999-09-02 | 2001-03-26 | Lee, Eung Do | A device for recording image of driving circumstances around automobile |
JP4308381B2 (ja) | 1999-09-29 | 2009-08-05 | 富士通テン株式会社 | 周辺監視センサ |
AU2001243285A1 (en) | 2000-03-02 | 2001-09-12 | Donnelly Corporation | Video mirror systems incorporating an accessory module |
US7004593B2 (en) | 2002-06-06 | 2006-02-28 | Donnelly Corporation | Interior rearview mirror system with compass |
US7167796B2 (en) | 2000-03-09 | 2007-01-23 | Donnelly Corporation | Vehicle navigation system for use with a telematics system |
US7370983B2 (en) | 2000-03-02 | 2008-05-13 | Donnelly Corporation | Interior mirror assembly with display |
DE10011263A1 (de) * | 2000-03-08 | 2001-09-13 | Bosch Gmbh Robert | Objektdetektionssystem |
US6396408B2 (en) | 2000-03-31 | 2002-05-28 | Donnelly Corporation | Digital electrochromic circuit with a vehicle network |
US7852462B2 (en) * | 2000-05-08 | 2010-12-14 | Automotive Technologies International, Inc. | Vehicular component control methods based on blind spot monitoring |
DE10025678B4 (de) * | 2000-05-24 | 2006-10-19 | Daimlerchrysler Ag | Kamerabasiertes Precrash-Erkennungssystem |
US7581859B2 (en) | 2005-09-14 | 2009-09-01 | Donnelly Corp. | Display device for exterior rearview mirror |
US7255451B2 (en) | 2002-09-20 | 2007-08-14 | Donnelly Corporation | Electro-optic mirror cell |
EP1363810B1 (de) | 2001-01-23 | 2007-05-30 | Donnelly Corporation | Verbessertes fahrzeugbeleuchtungssystem |
DE10114932B4 (de) * | 2001-03-26 | 2005-09-15 | Daimlerchrysler Ag | Dreidimensionale Umfelderfassung |
US6882287B2 (en) | 2001-07-31 | 2005-04-19 | Donnelly Corporation | Automotive lane change aid |
US7697027B2 (en) | 2001-07-31 | 2010-04-13 | Donnelly Corporation | Vehicular video system |
DE50206591D1 (de) * | 2001-08-22 | 2006-06-01 | Ibeo Automobile Sensor Gmbh | Verfahren zur erkennung und verfolgung von objekten |
DE10148064A1 (de) * | 2001-09-28 | 2003-04-10 | Ibeo Automobile Sensor Gmbh | Verfahren zur Erkennung und Verfolgung von Objekten |
JP3880837B2 (ja) * | 2001-11-02 | 2007-02-14 | 富士重工業株式会社 | 車外監視装置 |
KR20030050150A (ko) * | 2001-12-18 | 2003-06-25 | 현대자동차주식회사 | 도로 상황 판정 시스템 및 그 방법 |
DE10301468B4 (de) * | 2002-01-18 | 2010-08-05 | Honda Giken Kogyo K.K. | Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs |
US6862537B2 (en) * | 2002-03-21 | 2005-03-01 | Ford Global Technologies Llc | Sensor fusion system architecture |
US6918674B2 (en) | 2002-05-03 | 2005-07-19 | Donnelly Corporation | Vehicle rearview mirror system |
US7329013B2 (en) | 2002-06-06 | 2008-02-12 | Donnelly Corporation | Interior rearview mirror system with compass |
US7310177B2 (en) | 2002-09-20 | 2007-12-18 | Donnelly Corporation | Electro-optic reflective element assembly |
US7274501B2 (en) | 2002-09-20 | 2007-09-25 | Donnelly Corporation | Mirror reflective element assembly |
DE10253510A1 (de) * | 2002-11-16 | 2004-05-27 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur Verbesserung der Sicht in einem Kraftfahrzeug |
JP2004240480A (ja) * | 2003-02-03 | 2004-08-26 | Matsushita Electric Ind Co Ltd | 運転支援装置 |
JP3879848B2 (ja) | 2003-03-14 | 2007-02-14 | 松下電工株式会社 | 自律移動装置 |
US7289037B2 (en) | 2003-05-19 | 2007-10-30 | Donnelly Corporation | Mirror assembly for vehicle |
US7392118B2 (en) * | 2003-08-18 | 2008-06-24 | Fico Mirrors, Sa | System and method for monitoring the external environment of a motor vehicle |
JP3987013B2 (ja) * | 2003-09-01 | 2007-10-03 | 本田技研工業株式会社 | 車両周辺監視装置 |
US20050060090A1 (en) * | 2003-09-17 | 2005-03-17 | Kouji Sasano | Vehicle-type measurement system |
US7446924B2 (en) | 2003-10-02 | 2008-11-04 | Donnelly Corporation | Mirror reflective element assembly including electronic component |
US7308341B2 (en) | 2003-10-14 | 2007-12-11 | Donnelly Corporation | Vehicle communication system |
JP3925488B2 (ja) * | 2003-11-11 | 2007-06-06 | 日産自動車株式会社 | 車両用画像処理装置 |
JP2005145301A (ja) * | 2003-11-17 | 2005-06-09 | Denso Corp | 車両の運転支援装置 |
JP4206928B2 (ja) * | 2004-01-19 | 2009-01-14 | 株式会社デンソー | 衝突可能性判定装置 |
US7881496B2 (en) | 2004-09-30 | 2011-02-01 | Donnelly Corporation | Vision system for vehicle |
US7720580B2 (en) | 2004-12-23 | 2010-05-18 | Donnelly Corporation | Object detection system for vehicle |
EP1883855B1 (de) | 2005-05-16 | 2011-07-20 | Donnelly Corporation | Fahrzeugspiegelanordnung mit zeichen am reflektierenden teil |
CN101535087B (zh) | 2005-11-01 | 2013-05-15 | 唐纳利公司 | 具有显示装置的内部后视镜 |
CN1967147B (zh) * | 2005-11-09 | 2011-08-17 | 日产自动车株式会社 | 车辆用驾驶操作辅助装置及具有该装置的车辆 |
US8194132B2 (en) | 2006-01-20 | 2012-06-05 | Old World Industries, Llc | System for monitoring an area adjacent a vehicle |
DE102006008275A1 (de) * | 2006-02-22 | 2007-08-23 | Siemens Ag | Verfahren zur Detektion von Objekten mit einer schwenkbaren Sensoreinrichtung |
JP2007233440A (ja) * | 2006-02-27 | 2007-09-13 | Omron Corp | 車載用画像処理装置 |
EP1991905B1 (de) | 2006-03-09 | 2011-05-11 | Gentex Corporation | Fahrzeugrückspiegelanordnung mit anzeige von hoher intensität |
JP2008176555A (ja) * | 2007-01-18 | 2008-07-31 | Fujitsu Ten Ltd | 障害物検知装置および障害物検知方法 |
EP2122599B1 (de) | 2007-01-25 | 2019-11-13 | Magna Electronics Inc. | Radarerfassungssystem für ein fahrzeug |
JP5132164B2 (ja) * | 2007-02-22 | 2013-01-30 | 富士通株式会社 | 背景画像作成装置 |
JP5160114B2 (ja) | 2007-03-26 | 2013-03-13 | 本田技研工業株式会社 | 車両の通り抜け判断装置 |
US7914187B2 (en) | 2007-07-12 | 2011-03-29 | Magna Electronics Inc. | Automatic lighting system with adaptive alignment function |
US8017898B2 (en) | 2007-08-17 | 2011-09-13 | Magna Electronics Inc. | Vehicular imaging system in an automatic headlamp control system |
WO2009036176A1 (en) | 2007-09-11 | 2009-03-19 | Magna Electronics | Imaging system for vehicle |
WO2009046268A1 (en) | 2007-10-04 | 2009-04-09 | Magna Electronics | Combined rgb and ir imaging sensor |
US8154418B2 (en) | 2008-03-31 | 2012-04-10 | Magna Mirrors Of America, Inc. | Interior rearview mirror system |
JP4377439B1 (ja) * | 2008-06-12 | 2009-12-02 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP5624266B2 (ja) * | 2008-06-24 | 2014-11-12 | 株式会社東芝 | 赤外線撮像装置および赤外線撮像方法 |
JP5624267B2 (ja) * | 2008-06-24 | 2014-11-12 | 株式会社東芝 | 赤外線撮像装置および赤外線撮像方法 |
TWM348676U (en) * | 2008-07-22 | 2009-01-11 | Iner Aec Executive Yuan | Environmental survey robot |
US20100020170A1 (en) | 2008-07-24 | 2010-01-28 | Higgins-Luthman Michael J | Vehicle Imaging System |
US8885039B2 (en) * | 2008-07-25 | 2014-11-11 | Lg Electronics Inc. | Providing vehicle information |
JP5345350B2 (ja) * | 2008-07-30 | 2013-11-20 | 富士重工業株式会社 | 車両の運転支援装置 |
JP2010064725A (ja) * | 2008-09-15 | 2010-03-25 | Denso Corp | 車載撮影画像表示制御装置、車載撮影画像表示制御装置用のプログラム、および車載撮影画像表示システム |
US9487144B2 (en) | 2008-10-16 | 2016-11-08 | Magna Mirrors Of America, Inc. | Interior mirror assembly with display |
WO2010099416A1 (en) | 2009-02-27 | 2010-09-02 | Magna Electronics | Alert system for vehicle |
US8376595B2 (en) | 2009-05-15 | 2013-02-19 | Magna Electronics, Inc. | Automatic headlamp control |
JP2010009607A (ja) * | 2009-07-03 | 2010-01-14 | Mazda Motor Corp | 車両の障害物警報装置 |
DE102009034026A1 (de) * | 2009-07-21 | 2011-01-27 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Erkennung von Objekten in der Umgebung eines Sensorsystems, insbesondere eines Sensorsystems eines Fahrzeugs |
US8874317B2 (en) | 2009-07-27 | 2014-10-28 | Magna Electronics Inc. | Parking assist system |
US9495876B2 (en) | 2009-07-27 | 2016-11-15 | Magna Electronics Inc. | Vehicular camera with on-board microcontroller |
EP2473871B1 (de) | 2009-09-01 | 2015-03-11 | Magna Mirrors Of America, Inc. | Abbildungs- und anzeigesystem für fahrzeuge |
US8890955B2 (en) | 2010-02-10 | 2014-11-18 | Magna Mirrors Of America, Inc. | Adaptable wireless vehicle vision system based on wireless communication error |
US9117123B2 (en) | 2010-07-05 | 2015-08-25 | Magna Electronics Inc. | Vehicular rear view camera display system with lifecheck function |
WO2012068331A1 (en) | 2010-11-19 | 2012-05-24 | Magna Electronics Inc. | Lane keeping system and lane centering system |
US9900522B2 (en) | 2010-12-01 | 2018-02-20 | Magna Electronics Inc. | System and method of establishing a multi-camera image using pixel remapping |
US9264672B2 (en) | 2010-12-22 | 2016-02-16 | Magna Mirrors Of America, Inc. | Vision display system for vehicle |
JP2012141691A (ja) * | 2010-12-28 | 2012-07-26 | Fujitsu Ten Ltd | 映像処理装置 |
US9085261B2 (en) | 2011-01-26 | 2015-07-21 | Magna Electronics Inc. | Rear vision system with trailer angle detection |
US9194943B2 (en) | 2011-04-12 | 2015-11-24 | Magna Electronics Inc. | Step filter for estimating distance in a time-of-flight ranging system |
WO2012145819A1 (en) | 2011-04-25 | 2012-11-01 | Magna International Inc. | Image processing method for detecting objects using relative motion |
US10793067B2 (en) | 2011-07-26 | 2020-10-06 | Magna Electronics Inc. | Imaging system for vehicle |
DE112012003931T5 (de) | 2011-09-21 | 2014-07-10 | Magna Electronics, Inc. | Bildverarbeitungssystem für ein Kraftfahrzeug mit Bilddatenübertragung undStromversorgung über ein Koaxialkabel |
US9681062B2 (en) | 2011-09-26 | 2017-06-13 | Magna Electronics Inc. | Vehicle camera image quality improvement in poor visibility conditions by contrast amplification |
JP5532039B2 (ja) | 2011-10-05 | 2014-06-25 | 株式会社デンソー | 車両用表示装置 |
US9146898B2 (en) | 2011-10-27 | 2015-09-29 | Magna Electronics Inc. | Driver assist system with algorithm switching |
US10099614B2 (en) | 2011-11-28 | 2018-10-16 | Magna Electronics Inc. | Vision system for vehicle |
WO2013126715A2 (en) | 2012-02-22 | 2013-08-29 | Magna Electronics, Inc. | Vehicle camera system with image manipulation |
US8694224B2 (en) | 2012-03-01 | 2014-04-08 | Magna Electronics Inc. | Vehicle yaw rate correction |
US10609335B2 (en) | 2012-03-23 | 2020-03-31 | Magna Electronics Inc. | Vehicle vision system with accelerated object confirmation |
WO2013158592A2 (en) | 2012-04-16 | 2013-10-24 | Magna Electronics, Inc. | Vehicle vision system with reduced image color data processing by use of dithering |
US8879139B2 (en) | 2012-04-24 | 2014-11-04 | Gentex Corporation | Display mirror assembly |
US10089537B2 (en) | 2012-05-18 | 2018-10-02 | Magna Electronics Inc. | Vehicle vision system with front and rear camera integration |
JP2014006114A (ja) * | 2012-06-22 | 2014-01-16 | Denso Corp | レーダ装置、及び、プログラム |
US9340227B2 (en) | 2012-08-14 | 2016-05-17 | Magna Electronics Inc. | Vehicle lane keep assist system |
DE102013217430A1 (de) | 2012-09-04 | 2014-03-06 | Magna Electronics, Inc. | Fahrerassistenzsystem für ein Kraftfahrzeug |
US9558409B2 (en) | 2012-09-26 | 2017-01-31 | Magna Electronics Inc. | Vehicle vision system with trailer angle detection |
US9446713B2 (en) | 2012-09-26 | 2016-09-20 | Magna Electronics Inc. | Trailer angle detection system |
US9743002B2 (en) | 2012-11-19 | 2017-08-22 | Magna Electronics Inc. | Vehicle vision system with enhanced display functions |
US9090234B2 (en) | 2012-11-19 | 2015-07-28 | Magna Electronics Inc. | Braking control system for vehicle |
US10025994B2 (en) | 2012-12-04 | 2018-07-17 | Magna Electronics Inc. | Vehicle vision system utilizing corner detection |
US9481301B2 (en) | 2012-12-05 | 2016-11-01 | Magna Electronics Inc. | Vehicle vision system utilizing camera synchronization |
US9092986B2 (en) | 2013-02-04 | 2015-07-28 | Magna Electronics Inc. | Vehicular vision system |
US20140218529A1 (en) | 2013-02-04 | 2014-08-07 | Magna Electronics Inc. | Vehicle data recording system |
KR101881346B1 (ko) | 2013-03-15 | 2018-07-24 | 젠텍스 코포레이션 | 디스플레이 미러 어셈블리 |
US10027930B2 (en) | 2013-03-29 | 2018-07-17 | Magna Electronics Inc. | Spectral filtering for vehicular driver assistance systems |
US9327693B2 (en) | 2013-04-10 | 2016-05-03 | Magna Electronics Inc. | Rear collision avoidance system for vehicle |
US10232797B2 (en) | 2013-04-29 | 2019-03-19 | Magna Electronics Inc. | Rear vision system for vehicle with dual purpose signal lines |
US9508014B2 (en) | 2013-05-06 | 2016-11-29 | Magna Electronics Inc. | Vehicular multi-camera vision system |
US10567705B2 (en) | 2013-06-10 | 2020-02-18 | Magna Electronics Inc. | Coaxial cable with bidirectional data transmission |
US9260095B2 (en) | 2013-06-19 | 2016-02-16 | Magna Electronics Inc. | Vehicle vision system with collision mitigation |
US20140375476A1 (en) | 2013-06-24 | 2014-12-25 | Magna Electronics Inc. | Vehicle alert system |
US9619716B2 (en) | 2013-08-12 | 2017-04-11 | Magna Electronics Inc. | Vehicle vision system with image classification |
US10326969B2 (en) | 2013-08-12 | 2019-06-18 | Magna Electronics Inc. | Vehicle vision system with reduction of temporal noise in images |
AU2014326772B2 (en) | 2013-09-24 | 2017-07-20 | Gentex Corporation | Display mirror assembly |
US9499139B2 (en) | 2013-12-05 | 2016-11-22 | Magna Electronics Inc. | Vehicle monitoring system |
US9988047B2 (en) | 2013-12-12 | 2018-06-05 | Magna Electronics Inc. | Vehicle control system with traffic driving control |
WO2015116915A1 (en) | 2014-01-31 | 2015-08-06 | Gentex Corporation | Backlighting assembly for display for reducing cross-hatching |
US10160382B2 (en) | 2014-02-04 | 2018-12-25 | Magna Electronics Inc. | Trailer backup assist system |
EP3119643B1 (de) | 2014-03-21 | 2018-05-23 | Gentex Corporation | Trimodale anzeigespiegelanordnung |
US9834146B2 (en) | 2014-04-01 | 2017-12-05 | Gentex Corporation | Automatic display mirror assembly |
US9623878B2 (en) | 2014-04-02 | 2017-04-18 | Magna Electronics Inc. | Personalized driver assistance system for vehicle |
US9487235B2 (en) | 2014-04-10 | 2016-11-08 | Magna Electronics Inc. | Vehicle control system with adaptive wheel angle correction |
US10328932B2 (en) | 2014-06-02 | 2019-06-25 | Magna Electronics Inc. | Parking assist system with annotated map generation |
US10192122B2 (en) | 2014-08-21 | 2019-01-29 | Mitsubishi Electric Corporation | Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program |
US9694751B2 (en) | 2014-09-19 | 2017-07-04 | Gentex Corporation | Rearview assembly |
US9694752B2 (en) | 2014-11-07 | 2017-07-04 | Gentex Corporation | Full display mirror actuator |
EP3218227B1 (de) | 2014-11-13 | 2018-10-24 | Gentex Corporation | Rückspiegelsystem mit einer anzeige |
KR101997815B1 (ko) | 2014-12-03 | 2019-07-08 | 젠텍스 코포레이션 | 디스플레이 미러 어셈블리 |
USD746744S1 (en) | 2014-12-05 | 2016-01-05 | Gentex Corporation | Rearview device |
US9744907B2 (en) | 2014-12-29 | 2017-08-29 | Gentex Corporation | Vehicle vision system having adjustable displayed field of view |
US9720278B2 (en) | 2015-01-22 | 2017-08-01 | Gentex Corporation | Low cost optical film stack |
US10286855B2 (en) | 2015-03-23 | 2019-05-14 | Magna Electronics Inc. | Vehicle vision system with video compression |
CN107531183B (zh) | 2015-04-20 | 2021-09-03 | 金泰克斯公司 | 具有贴花的后视总成 |
US10819943B2 (en) | 2015-05-07 | 2020-10-27 | Magna Electronics Inc. | Vehicle vision system with incident recording function |
JP6526243B2 (ja) | 2015-05-18 | 2019-06-05 | ジェンテックス コーポレイション | 全画面表示バックミラー装置 |
CN107709096B (zh) | 2015-06-22 | 2021-08-24 | 金泰克斯公司 | 用于处理流式传输视频图像以校正经调幅光的闪变的系统和方法 |
US10214206B2 (en) | 2015-07-13 | 2019-02-26 | Magna Electronics Inc. | Parking assist system for vehicle |
US10078789B2 (en) | 2015-07-17 | 2018-09-18 | Magna Electronics Inc. | Vehicle parking assist system with vision-based parking space detection |
US10086870B2 (en) | 2015-08-18 | 2018-10-02 | Magna Electronics Inc. | Trailer parking assist system for vehicle |
US9604639B2 (en) * | 2015-08-28 | 2017-03-28 | Delphi Technologies, Inc. | Pedestrian-intent-detection for automated vehicles |
WO2017056822A1 (ja) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 画像処理装置と画像処理方法および車両制御システム |
US10875403B2 (en) | 2015-10-27 | 2020-12-29 | Magna Electronics Inc. | Vehicle vision system with enhanced night vision |
USD798207S1 (en) | 2015-10-30 | 2017-09-26 | Gentex Corporation | Rearview mirror assembly |
USD797627S1 (en) | 2015-10-30 | 2017-09-19 | Gentex Corporation | Rearview mirror device |
EP3368375B1 (de) | 2015-10-30 | 2020-03-04 | Gentex Corporation | Rückblickvorrichtung |
US10685623B2 (en) | 2015-10-30 | 2020-06-16 | Gentex Corporation | Toggle paddle |
USD800618S1 (en) | 2015-11-02 | 2017-10-24 | Gentex Corporation | Toggle paddle for a rear view device |
JP6150950B1 (ja) | 2015-11-20 | 2017-06-21 | 三菱電機株式会社 | 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム |
US11277558B2 (en) | 2016-02-01 | 2022-03-15 | Magna Electronics Inc. | Vehicle vision system with master-slave camera configuration |
US11433809B2 (en) | 2016-02-02 | 2022-09-06 | Magna Electronics Inc. | Vehicle vision system with smart camera video output |
US10160437B2 (en) | 2016-02-29 | 2018-12-25 | Magna Electronics Inc. | Vehicle control system with reverse assist |
US20170253237A1 (en) | 2016-03-02 | 2017-09-07 | Magna Electronics Inc. | Vehicle vision system with automatic parking function |
US10132971B2 (en) | 2016-03-04 | 2018-11-20 | Magna Electronics Inc. | Vehicle camera with multiple spectral filters |
US10055651B2 (en) | 2016-03-08 | 2018-08-21 | Magna Electronics Inc. | Vehicle vision system with enhanced lane tracking |
EP3220164B1 (de) * | 2016-03-14 | 2018-03-07 | Sick Ag | Verfahren zum betreiben eines abstandsmessenden überwachungssensors und überwachungssensor |
USD845851S1 (en) | 2016-03-31 | 2019-04-16 | Gentex Corporation | Rearview device |
USD817238S1 (en) | 2016-04-29 | 2018-05-08 | Gentex Corporation | Rearview device |
US10025138B2 (en) | 2016-06-06 | 2018-07-17 | Gentex Corporation | Illuminating display with light gathering structure |
IL246386B (en) * | 2016-06-22 | 2018-03-29 | Tarantula Tech Ltd | A device for identifying dangerous objects located at a certain distance from a surface |
JP6722066B2 (ja) | 2016-08-29 | 2020-07-15 | 株式会社Soken | 周辺監視装置及び周辺監視方法 |
CN106781537B (zh) * | 2016-11-22 | 2019-07-26 | 武汉万集信息技术有限公司 | 一种车辆超速抓拍方法及系统 |
CN108089024B (zh) * | 2016-11-22 | 2020-07-14 | 武汉万集信息技术有限公司 | 一种车辆速度检测系统及方法 |
USD809984S1 (en) | 2016-12-07 | 2018-02-13 | Gentex Corporation | Rearview assembly |
USD854473S1 (en) | 2016-12-16 | 2019-07-23 | Gentex Corporation | Rearview assembly |
WO2018125898A1 (en) | 2016-12-30 | 2018-07-05 | Gentex Corporation | Full display mirror with on-demand spotter view |
EP3595931A4 (de) | 2017-03-17 | 2020-01-22 | Gentex Corporation | Rückfahrkamera mit zwei anzeigen |
CN113119963B (zh) * | 2017-07-28 | 2024-03-26 | 现代摩比斯株式会社 | 智能超声系统、车辆后方碰撞警告装置及其控制方法 |
WO2020003776A1 (ja) | 2018-06-29 | 2020-01-02 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置及び情報処理方法、撮像装置、コンピュータプログラム、情報処理システム、並びに移動体装置 |
CN109017786B (zh) * | 2018-08-09 | 2020-09-22 | 北京智行者科技有限公司 | 车辆避障方法 |
CN109353339B (zh) * | 2018-09-29 | 2020-06-26 | 中国铁建重工集团股份有限公司 | 一种车辆导航方法以及系统 |
US11351961B2 (en) * | 2020-01-29 | 2022-06-07 | Ford Global Technologies, Llc | Proximity-based vehicle security systems and methods |
CN111368794B (zh) * | 2020-03-19 | 2023-09-19 | 北京百度网讯科技有限公司 | 障碍物检测方法、装置、设备和介质 |
US11968639B2 (en) | 2020-11-11 | 2024-04-23 | Magna Electronics Inc. | Vehicular control system with synchronized communication between control units |
EP4388243A1 (de) | 2021-08-20 | 2024-06-26 | Gentex Corporation | Beleuchtungsanordnung und beleuchtungssystem mit einer beleuchtungsanordnung |
CN113814979B (zh) * | 2021-10-08 | 2023-03-10 | 安徽电信规划设计有限责任公司 | 一种基于大数据智能机器人环境识别系统 |
CN114577233B (zh) * | 2022-05-05 | 2022-07-29 | 腾讯科技(深圳)有限公司 | 一种车辆导航方法、装置及计算机设备、存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS604011B2 (ja) * | 1976-05-26 | 1985-02-01 | ダイムラ−ベンツ・アクチエンゲゼルシャフト | 先行する車両に対する車両の安全間隔を独立調整する方法および装置 |
JPS6352300A (ja) * | 1986-08-21 | 1988-03-05 | アイシン精機株式会社 | 車上前方監視装置 |
DE3832720A1 (de) * | 1988-09-27 | 1990-03-29 | Bosch Gmbh Robert | Abstandsmesseinrichtung zur beruehrungslosen abstands- und winkelerkennung |
DE4110132A1 (de) * | 1990-03-28 | 1991-10-02 | Mitsubishi Electric Corp | Fahrzeugabstandssteuergeraet |
JPH06338085A (ja) * | 1993-05-27 | 1994-12-06 | Canon Inc | 光磁気記録媒体 |
JPH06346363A (ja) * | 1992-05-14 | 1994-12-20 | Teijin Ltd | 深色性に優れたポリエステル繊維及びその製造法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4195425A (en) * | 1972-07-17 | 1980-04-01 | Ernst Leitz Wetzlar Gmbh | System for measuring position and/or velocity |
JPS5596475A (en) * | 1979-01-19 | 1980-07-22 | Nissan Motor Co Ltd | Obstacle detector for vehicle |
US4257703A (en) * | 1979-03-15 | 1981-03-24 | The Bendix Corporation | Collision avoidance using optical pattern growth rate |
US4833469A (en) * | 1987-08-03 | 1989-05-23 | David Constant V | Obstacle proximity detector for moving vehicles and method for use thereof |
JP2570315B2 (ja) * | 1987-09-01 | 1997-01-08 | アイシン精機株式会社 | 車上距離検出装置 |
US5227786A (en) * | 1989-06-30 | 1993-07-13 | Honeywell Inc. | Inside/out perspective format for situation awareness displays |
US5166681A (en) * | 1990-07-30 | 1992-11-24 | Bottesch H Werner | Passive vehicle presence detection system |
DE69124726T2 (de) * | 1990-10-25 | 1997-07-03 | Mitsubishi Electric Corp | Vorrichtung zur Abstandsdetektion für ein Kraftfahrzeug |
US5309137A (en) * | 1991-02-26 | 1994-05-03 | Mitsubishi Denki Kabushiki Kaisha | Motor car traveling control device |
-
1993
- 1993-11-30 JP JP30052893A patent/JP3263699B2/ja not_active Expired - Fee Related
- 1993-12-15 US US08/167,665 patent/US5475494A/en not_active Expired - Lifetime
- 1993-12-21 DE DE4344485A patent/DE4344485C2/de not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS604011B2 (ja) * | 1976-05-26 | 1985-02-01 | ダイムラ−ベンツ・アクチエンゲゼルシャフト | 先行する車両に対する車両の安全間隔を独立調整する方法および装置 |
JPS6352300A (ja) * | 1986-08-21 | 1988-03-05 | アイシン精機株式会社 | 車上前方監視装置 |
DE3832720A1 (de) * | 1988-09-27 | 1990-03-29 | Bosch Gmbh Robert | Abstandsmesseinrichtung zur beruehrungslosen abstands- und winkelerkennung |
DE4110132A1 (de) * | 1990-03-28 | 1991-10-02 | Mitsubishi Electric Corp | Fahrzeugabstandssteuergeraet |
JPH06346363A (ja) * | 1992-05-14 | 1994-12-20 | Teijin Ltd | 深色性に優れたポリエステル繊維及びその製造法 |
JPH06338085A (ja) * | 1993-05-27 | 1994-12-06 | Canon Inc | 光磁気記録媒体 |
Non-Patent Citations (1)
Title |
---|
KLIPSTEIN, D.L.: "Mit 90 km/h unterwegs - ohne Fahrer" in "Technische Rundschau", 31/1990, S.30-34 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9436880B2 (en) | 1999-08-12 | 2016-09-06 | Magna Electronics Inc. | Vehicle vision system |
US7570793B2 (en) | 2001-06-15 | 2009-08-04 | Ibeo Automobile Sensor Gmbh | Correction method for data of a plurality of optoelectronic sensors |
DE10148062A1 (de) * | 2001-09-28 | 2003-04-10 | Ibeo Automobile Sensor Gmbh | Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes |
US9171217B2 (en) | 2002-05-03 | 2015-10-27 | Magna Electronics Inc. | Vision system for vehicle |
US9555803B2 (en) | 2002-05-03 | 2017-01-31 | Magna Electronics Inc. | Driver assistance system for vehicle |
US9191634B2 (en) | 2004-04-15 | 2015-11-17 | Magna Electronics Inc. | Vision system for vehicle |
US9428192B2 (en) | 2004-04-15 | 2016-08-30 | Magna Electronics Inc. | Vision system for vehicle |
US9440535B2 (en) | 2006-08-11 | 2016-09-13 | Magna Electronics Inc. | Vision system for vehicle |
DE102012102320B4 (de) * | 2011-03-22 | 2020-03-05 | Subaru Corporation | Fahrzeugumfeldüberwachungsvorrichtung und Fahrzeugumfeldüberwachungsverfahren |
Also Published As
Publication number | Publication date |
---|---|
JPH06293236A (ja) | 1994-10-21 |
JP3263699B2 (ja) | 2002-03-04 |
DE4344485A1 (de) | 1994-06-23 |
US5475494A (en) | 1995-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4344485C2 (de) | Fahrumgebungs-Überwachungsgerät | |
DE69202274T2 (de) | Fahr-Kontrollvorrichtung für Automobile. | |
EP2805183B1 (de) | Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs | |
DE60009000T2 (de) | System zur Einparkhilfe | |
DE4308776C2 (de) | Einrichtung zum Überwachen des Außenraums eines Fahrzeugs | |
EP1842382B1 (de) | Verfahren, Vorrichtung, Computersoftware und entsprechender Datenträger zum Bestimmen einer Objekteigenschaft eines Objekts mit Hilfe von Bildern, die mit Hilfe einer Kamera erfasst werden | |
EP1298454B1 (de) | Verfahren zur Erkennung und Verfolgung von Objekten | |
DE10109350B4 (de) | Unterstützungseinrichtung zum Rückwärtseinparken eines Fahrzeugs in Reihe | |
EP1719093B1 (de) | Verfahren und warnvorrichtung zum grafischen aufbereiten eines bildes einer kamera | |
DE102016106298A1 (de) | Fusionsverfahren für eine Querverkehr-Applikation unter Verwenden von Radargeräten und einer Kamera | |
WO2006114309A1 (de) | Verfahren zur grafischen darstellung der umgebung eines kraftfahrzeugs | |
WO2012069330A1 (de) | Verfahren und Vorrichtung zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Ausparken aus einer Parklücke und Kraftfahrzeug | |
DE10354209A1 (de) | System und Verfahren zum Verbessern der Fahrzeugfahrer-Fahrunterstützung eines Kraftfahrzeugs | |
EP3695395A1 (de) | Verfahren zum darstellen einer umgebung eines fahrzeugs | |
EP2015255A1 (de) | Einrichtung zur Ermittlung eines Anzeigebildes | |
DE102007022372A1 (de) | Verfahren und Vorrichtung zur Ermittlung der Fahrzeugklasse von Fahrzeugen | |
DE102013010010B4 (de) | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Rangieren und/oder Parken | |
EP2289044A1 (de) | Bilddatenvisualisierung | |
EP1460454B1 (de) | Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern | |
DE102005018408A1 (de) | Verfahren und Vorrichtung zur Auswertung von Abstandsmessdaten eines Abstandsmesssystems eines Kraftfahrzeugs | |
EP1628141A1 (de) | Triangulationsverfahren mit Laserdioden und einer Mono-Kamera zur Abstandsbestimmung für Stop-and-Go Anwendungen für Kraftfahrzeuge | |
WO2011138164A1 (de) | Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, fahrerassistenzsystem und fahrzeug | |
WO2009049976A1 (de) | Verfahren zur schätzung der relativbewegung von video-objekten und fahrerassistenzsystem für kraftfahrzeuge | |
DE112015000763T5 (de) | Fahrzeugumgebungsbildanzeigevorrichtung undFahrzeugumgebungsbildanzeigeverfahren | |
EP2579228A1 (de) | Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8320 | Willingness to grant licences declared (paragraph 23) | ||
8325 | Change of the main classification |
Ipc: G08G 1/16 AFI19991009BHDE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20110701 |