DE102006054162B4 - Umgebungsüberwachungssystem für ein Fahrzeug - Google Patents

Umgebungsüberwachungssystem für ein Fahrzeug Download PDF

Info

Publication number
DE102006054162B4
DE102006054162B4 DE102006054162.6A DE102006054162A DE102006054162B4 DE 102006054162 B4 DE102006054162 B4 DE 102006054162B4 DE 102006054162 A DE102006054162 A DE 102006054162A DE 102006054162 B4 DE102006054162 B4 DE 102006054162B4
Authority
DE
Germany
Prior art keywords
image
camera
vehicle
imaging surface
standard point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102006054162.6A
Other languages
English (en)
Other versions
DE102006054162A1 (de
Inventor
Kazuya Watanabe
Kosuke Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Publication of DE102006054162A1 publication Critical patent/DE102006054162A1/de
Application granted granted Critical
Publication of DE102006054162B4 publication Critical patent/DE102006054162B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons

Abstract

Umgebungsüberwachungssystem für ein Fahrzeug, das eine erste Kamera (1), die eine erste Abbildungsoberfläche (A1) erfasst, eine zweite Kamera (2), die eine zweite Abbildungsoberfläche (A2) erfasst, wobei die erste Kamera und die zweite Kamera an unterschiedlichen Orten an einem Fahrzeug montiert sind, und einen Monitor (10) zum Anzeigen eines ersten Bildes der ersten Abbildungsoberfläche (A1) und eines zweiten Bildes der zweiten Abbildungsoberfläche (A2) aufweist, dadurch gekennzeichnet, dass ein Standardpunkt (R) relativ zu dem Fahrzeug spezifiziert wird, welcher Standardpunkt (R) durch die zweite Kamera (2), aber nicht durch die erste Kamera (1) erfasst wird, das erste Bild und das zweite Bild zusammengesetzt und auf dem Monitor so angezeigt werden, dass eine Koordinatenposition (R1) des Standardpunktes (R) in einer erweiterten Abbildungsoberfläche (B) von der ersten Abbildungsoberfläche (A1) und eine Koordinatenposition (R2) des Standardpunktes (R) in der zweiten Abbildungsoberfläche (A2) miteinander übereinstimmen, und eine imaginäre Linie (L), die den Standardpunkt (R) enthält und sich über das erste Bild und das zweite Bild erstreckt, auf dem Monitor (10) derart angezeigt wird, dass die imaginäre Linie (L) dem zusammengesetzten Bild aus dem ersten Bild und dem zweiten Bild überlagert ist.

Description

  • GEBIET DER ERFINDUNG
  • Diese Erfindung bezieht sich im Allgemeinen auf ein Umgebungsüberwachungssystem für ein Fahrzeug.
  • HINTERGRUND
  • Beim Fahren eines Fahrzeuges ist es notwendig, sich über die Umgebung des Fahrzeuges, einschließlich der rechten und linken Richtungen zu dem Fahrzeug, zusätzlich zu einer Fahrtrichtung zu vergewissern. Es ist bekannt, dass ein toter Winkel für einen Fahrer bestehen kann, wenn der Fahrer die Fahrzeugumgebung durch einen Seitenspiegel oder einen Rückspiegel, die an einem Fahrzeug montiert sind, wahrnimmt. Besonders für einen Fahranfänger kann ein Fahren durch den Korridor mit Gebäuden an beiden Seiten, ein Vorbeifahren eines entgegenkommenden Autos auf der schmalen Straße und Ähnliches eine große Anspannung sein. Folglich ist eine Kamera zum Erfassen eines Bereichs des toten Winkels an einem Fahrzeug montiert und zeigt das erfasste Bild auf einem Monitor an, wodurch die Wahrnehmung der Fahrzeugumgebung unterstützt wird.
  • Beispielsweise sind gemäß der JP 2001-39232A eine rechte Kamera, die eine rechte Vorderseite eines Fahrzeuges erfasst, und eine linke Kamera, die eine linke Vorderseite eines Fahrzeuges erfasst, an einem Fahrzeug montiert. Die durch die rechte Kamera und die linke Kamera erfassten Bilder werden gleichzeitig auf einem Monitor angezeigt, wobei sie parallel auf der rechten und linken Seite entsprechend angeordnet sind. In solch einem Umgebungsüberwachungssystem für ein Fahrzeug können beide Bereiche der rechten Vorderseite und der linken Vorderseite des Fahrzeuges durch nur einen Monitorbildschirm wahrgenommen werden. Wie es jedoch aus 1 der JP 2001-39232A einfach zu verstehen ist, wenn ein Bild eines Fahrzeuges, das von der linken Seite zu der rechten Seite vorbeifährt, durch die Kameras erfasst wird, erscheint das Fahrzeug zuerst auf einem linken Halbabschnitt des Monitorbildschirms, als sich von oben links nach unten rechts bewegend, und dann plötzlich auf einem rechten Halbabschnitt des Monitorbildschirms als sich von unten links zu oben rechts bewegend. Folglich ist eine Bewegung des Fahrzeuges, das als ein Umgebungsobjekt vorbeifährt, unnatürlich und kann einen Unterschied in Richtung und Tiefe zwischen den Bildern von der rechten und linken Kamera verursachen, was zu Schwierigkeiten in der Wahrnehmung der Umgebung durch einen Fahrer führen kann.
  • Um das vorhergehende Problem zu lösen, erfasst gemäß JP 2005-178508A eine an einem Fahrzeug vorgesehene Kamera die Fahrzeugumgebung während der Bewegung, und das erfasste Bild wird sequentiell als Reaktion auf einen von dem Bild erfassten Bereich auf einer Anzeigevorrichtung mit einem gekrümmten Anzeigebildschirm in einem Zustand angezeigt, in dem eine Bilderfassungsrichtung dem Anzeigebildschirm entspricht. In solch einem Umgebungsüberwachungssystem ist es für einen Fahrer oder einen Benutzer einfach, intuitiv eine Richtung und einen Abstand zu erkennen. Jedoch werden teure Komponenten, wie etwa ein Bewegungsmechanismus einer Kamera, eine Bildverarbeitungseinheit zum Synchronisieren der Bewegung der Kamera und einer Anzeige auf dem gekrümmten Bildschirm, und der Monitor mit einer gebogenen Oberfläche benötigt, was ein großes Thema für Herstellungskosten und Unterhaltskosten sein kann.
  • Gemäß dem Umgebungsüberwachungssystem, das eine Kamera verwendet, die auf einem Fahrzeug montiert ist, nimmt ein in einem Fahrzeug sitzender Fahrer einen toten Winkel durch erfasste Bilder über mehrere Kameras, die an unterschiedlichen Orten an einem Fahrzeug montiert sind, wahr. In diesem Fall ist es wichtig, die Unterschiede in einer Richtung und einem Abstand unter den durch diese Kameras erfassten Bildern zu vermindern. Wenn ein Standardpunkt als ein wichtiger Indikator für eine Zeit der Bewegung des Fahrzeuges durch jede Kamera erfasst werden kann, kann der Standardpunkt als ein Ziel zum Zusammensetzen von Bildern verwendet werden, wodurch die Unterschiede in einer Richtung und einem Abstand unter den erfassten Bildern vermindert wird. Jedoch ist eine Anordnung der Kameras, welche den Standardpunkt erfassen kann, sehr schwierig, wenn die verschiedenen Einschränkungen der Montage betrachtet werden.
  • Folglich besteht ein Bedarf für ein Umgebungsüberwachungssystem für ein Fahrzeug mit einer einfachen Konfiguration, welches Bilder, die von den Abbildungsoberflächen mehrerer Kameras erhalten werden, die an unterschiedlichen Orten an einem Fahrzeug montiert sind, entsprechend zusammensetzen kann, selbst falls ein Standardpunkt als ein wichtiger Indikator für eine Zeit der Bewegung eines Fahrzeugs nicht durch alle Kameras erfasst werden kann, so dass ein Unterschied in Richtung und Tiefe unter den Bildern, die durch die entsprechenden Kameras erfasst werden, vermindert werden kann, wenn mit den zusammengesetzten Bildern überwacht wird.
  • EP 1 302 365 A2 offenbart ein Fahrzeugumgebungsüberwachungssystem zur Synthetisierung und zum Anzeigen von Bildern, die von einer Mehrzahl von Kameras erfasst werden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Gemäß einem Aspekt der vorliegenden Erfindung ist ein Umgebungsüberwachungssystem für ein Fahrzeug, das eine erste Kamera, die eine erste Abbildungsoberfläche erfasst, eine zweite Kamera, die eine zweite Abbildungsoberfläche erfasst, wobei die erste Kamera und die zweite Kamera an unterschiedlichen Orten an einem Fahrzeug montiert ist, und einen Monitor zum Anzeigen eines ersten Bildes der ersten Abbildungsoberfläche und eines zweiten Bildes der zweiten Abbildungsoberfläche aufweist, dadurch gekennzeichnet, dass ein Standardpunkt relativ zu dem Fahrzeug bestimmt wird, welcher Standardpunkt durch die zweite Kamera, aber nicht durch die erste Kamera erfasst wird, das erste Bild und das zweite Bild so zusammengesetzt und an dem Monitor angezeigt werden, dass eine Koordinatenposition des Standardpunktes in einer erweiterten Abbildungsoberfläche von der ersten Abbildungsoberfläche und eine Koordinatenposition des Standardpunktes in der zweiten Abbildungsoberfläche miteinander übereinstimmen, und eine imaginäre Linie, die den Standardpunkt enthält und sich über das erste Bild und das zweite Bild erstreckt, auf dem Monitor derart angezeigt wird, dass die imaginäre Linie dem zusammengesetzten Bild aus dem ersten Bild und dem zweiten Bild überlagert wird.
  • Gemäß der zuvor genannten Erfindung wird selbst in dem Fall, in dem der Standardpunkt als ein wichtiger Indikator für eine Zeit der Bewegung eines Fahrzeugs durch die zweite Kamera aber nicht durch die erste Kamera erfasst wird, die Koordinatenposition des Standardpunktes in der erweiterten Abbildungsoberfläche von der ersten Abbildungsoberfläche durch Verlängern der Abbildung der imaginären Linie erhalten, die auf der Basis der Koordinatenposition der imaginären Linie, die sich von dem Standardpunkt erstreckt, berechnet wird, wobei die Koordinatenposition durch Projektion der imaginären Linie auf die erste Abbildungsoberfläche als die Abbildungsoberfläche der ersten Kamera erhalten wird. Dann werden das erste Bild und das zweite Bild so zusammengesetzt, dass die Koordinatenposition des Standardpunktes in der erweiterten Abbildungsoberfläche und die Koordinatenposition des Standardpunktes, welche tatsächlich durch die zweite Abbildungsoberfläche erfasst wird, miteinander übereinstimmen. In diesem zusammengesetzten Bild wird ein Unterschied hinsichtlich Richtung und Abstand unter den erfassten Bildern von der ersten und zweiten Kamera verhindert. Das heißt, dass das zusammengesetzte Bild im wesentlichen gleich zu dem ist, in dem die Bilder, die durch die jeweiligen Kameras erfasst wurden, eng angeordnet und miteinander verbunden sind, als ob der Standardpunkt sowohl durch die erste als auch die zweite Kamera erfasst wird.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die vorhergehenden und zusätzlichen Merkmale und Eigenschaften der vorliegenden Erfindung werden aus der folgenden detaillierten Beschreibung offensichtlicher, wenn sie betrachtet wird unter Bezugnahme auf die beigefügten Zeichnungen, von denen:
  • 1 eine Ansicht ist zum Erläutern eines Prinzips eines Umgebungsüberwachungssystems für ein Fahrzeug gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 eine Ansicht ist zum Erläutern eines Bildaufbaus, der durch das Umgebungsüberwachungssystem gemäß der Ausführungsform der vorliegenden Erfindung ausgeführt wird;
  • 3 eine teilweise geschnittene Ansicht des Umrisses eines Fahrzeuges ist, in dem das Umgebungsüberwachungssystem gemäß der Ausführungsform verwendet wird;
  • 4 eine Ansicht eines Abschnittes des vorderen Kühlergrills des Fahrzeuges ist;
  • 5 eine Ansicht eines Bereiches um einen Fahrersitzabschnitt des Fahrzeuges in 3 ist;
  • 6 eine Blockdarstellung ist, die Funktionen einer Steuerung zeigt;
  • 7 eine Monitorbildschirmansicht ist, die ein Bild von einer ersten Kamera zeigt;
  • 8 eine Monitorbildschirmansicht ist, die ein Bild von einer zweiten Kamera zeigt;
  • 9 eine Monitorbildschirmansicht ist, die ein aus den Bildern von der ersten Kamera und der zweiten Kamera zusammengesetztes Bild zeigt; und
  • 10 ist eine Monitorbildschirmansicht, die ein zusammengesetztes Bild gemäß einer anderen Ausführungsform der vorliegenden Erfindung zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • Eine Ausführungsform der vorliegenden Erfindung wird unter Bezugnahme auf die beigefügten Zeichnungen erläutert. Als erstes wird ein Prinzip eines Umgebungsüberwachungssystems für ein Fahrzeug unter Bezugnahme auf 1 erläutert. Eine erste Kamera 1 und eine zweite Kamera 2, die an voneinander unterschiedlichen Orten an einem Fahrzeug montiert sind, das heißt, in einer Mitte eines vorderen Kühlergrills und an einem Seitenabschnitt einer Karosserie in dem hinter einem Vorderrad liegenden Abschnitt, können einen Bereich vor einem Fahrzeug und einen vorderen linken Seitenbereich, der ein linkes Vorderrad einschließt, überwachen. Die erste Kamera 1 wird durch ein optisches Zentrum C1 und eine erste Abbildungsoberfläche A1 gebildet, während die zweite Kamera 2 durch ein optisches Zentrum C2 und eine zweite Abbildungsoberfläche A2 gebildet wird. Zum leichten Verständnis sind die Abbildungsoberflächen A1 und A2 in 1 derart angeordnet, dass sie einem Gegenstand gegenüberliegen, von dem ein Bild erfasst werden soll. Ein Standardpunkt R, der ein vorbestimmter Punkt des Fahrzeuges ist, ein toter Winkel für einen Fahrer und der ist auch ein wichtiger Indikator ist, wenn das Fahrzeug in Bewegung ist, wird an einer rückwärtigen Seite der ersten Kamera 1 und zur gleichen Zeit im Wesentlichen direkt vor der zweiten Kamera 2 definiert. Folglich kann der Standardpunkt R direkt durch die zweite Abbildungsoberfläche A2 erfasst werden, kann jedoch nicht durch die erste Abbildungsoberfläche A1 erfasst werden.
  • Eine Koordinatenposition eines Koordinatenpunktes R2 (der auch ein Standardpunkt R2 auf der zweiten Abbildungsoberfläche A2 genannt werden kann) des Standardpunktes R, von dem ein Bild auf der zweiten Abbildungsoberfläche A2 ausgebildet ist, kann durch eine gut bekannte Formel der Projektionsebenengeometrie erhalten werden. Ein Bild des Standardpunktes R wird andererseits nicht auf der ersten Abbildungsoberfläche A1 ausgebildet. Folglich, um eine Koordinatenposition eines Koordinatenpunktes R1 zu erhalten (der auch ein Standardpunkt R1 auf einer erweiterten Abbildungsoberfläche B genannt werden kann, welches später erläutert wird), der ein sichtbarer Punkt des Standardpunktes R ist, wird eine erweiterte Abbildungsoberfläche von der ersten Abbildungsoberfläche A1 definiert, das heißt die erweiterte Abbildungsoberfläche B, die die erste Abbildungsoberfläche A1 einschließt. Wenn zwei optionale Punkte, das heißt ein erster imaginärer Punkt S und ein zweiter imaginärer Punkt T, von denen Bilder an der ersten Abbildungsoberfläche A1 ausgebildet sind, auf einer imaginären Linie L definiert sind, die sich in einer vorgegebenen Richtung von dem Standardpunkt R erstreckt, wird eine Abbildung L1 der imaginären Linie L auf der ersten Abbildungsoberfläche A1 auf der Basis von Koordinatenpositionen des ersten imaginären Punktes S und des zweiten imaginären Punktes T auf der ersten Abbildungsoberfläche A1 berechnet, das heißt, Koordinatenpositionen S1 bzw. T1. Da der Standardpunkt R1 auf einer erweiterten Linie der Abbildung L1 der imaginären Linie positioniert ist, kann die Koordinatenposition des Standardpunktes R1 auch durch eine Formel der Projektionsebenengeometrie erhalten werden. Die imaginäre Linie L wird auf der zweiten Abbildungsoberfläche A2 durch die zweite Kamera 2 erfasst und folglich können die Koordinatenpositionen des ersten imaginären Punktes S und des zweiten imaginären Punktes T auf der zweiten Abbildungsoberfläche A2, das heißt die Koordinatenpositionen S2 bzw. T2, und demzufolge eine Abbildung L2 der imaginären Linie L auf der zweiten Abbildungsoberfläche A2 einfach berechnet werden.
  • Wie es in 2 gezeigt ist, wenn die Koordinatenpositionen R1 des Standardpunktes R auf der Abbildungsoberfläche B als die erweiterte Abbildungsoberfläche von der ersten Abbildungsoberfläche A1, und die Koordinatenposition R2 des Standardpunktes R auf der zweiten Abbildungsoberfläche A2 berechnet werden, können entsprechende Bilder der ersten Abbildungsoberfläche A1 und der zweiten Abbildungsoberfläche A2 derart zusammengesetzt (synthetisiert) werden, dass die Standardpunkte R1 und R2 einander überlagern. Dieses zusammengesetzte Bild wird auf einer Basis des Standardpunktes R als Synthesereferenz erhalten. Daher sind hinsichtlich Abstand und Richtung wenigstens für den Standardpunkt R ein erfasstes Bild durch die erste Kamera 1 und jenes durch die zweite Kamera 2 auf dem zusammengesetzten Bild im Wesentlichen gleich zueinander.
  • Zu dieser Zeit, wenn eines oder beide, das Bild der ersten Abbildungsoberfläche A1 und das Bild der zweiten Abbildungsoberfläche A2 gedreht wird/werden, so dass die Abbildung der Linie L1, die eine Richtung der imaginären Linie L von dem Standardpunkt R1 auf der ersten Abbildungsoberfläche A1 definiert, und die Abbildung der Linie L2, die eine Richtung der imaginären Linie L von dem Standardpunkt R2 auf der zweiten Abbildungsoberfläche A1 definiert, miteinander ausgerichtet sind, das heißt, wenn wenigstens das Bild der ersten Abbildungsoberfläche A1 (das heißt, das erste Bild) oder das Bild der zweiten Abbildungsoberfläche A2 (das heißt, das zweite Bild) derart gedreht wird, dass die Richtungen der imaginären Linie L auf dem ersten Bild und der imaginären Linie L auf dem zweiten Bild miteinander übereinstimmen, gibt es eine Überwachung der Fahrzeugumgebung mit dem Zentrum des Standardpunktes, in der keine Unterschiede in Abstand oder Richtung unter den Bildern von den jeweiligen Kameras bestehen.
  • Als ein Beispiel der Verwendung des zuvor genannten Prinzips des Umgebungsüberwachungssystems für ein Fahrzeug gemäß der vorliegenden Ausführungsform wird nachfolgend ein Umgebungsüberwachungssystem für ein Fahrzeug erläutert, das eine Monitoranzeige durch Zusammensetzen des ersten Bildes von der ersten Kamera, die an einem Zentrum eines vorderen Kühlergrills vorgesehen ist, und des zweiten Bildes von der zweiten Kamera, die an einem linken Türspiegel vorgesehen ist, erreicht.
  • Wie es in den 3 bis 5 gezeigt ist, sind ein Fahrersitz 33 und ein Lenkrad 34 innerhalb eines Innenraums einer Karosserie B (die der erweiterten Abbildungsoberfläche B in 1 entspricht) vorgesehen, die durch Vorderräder 31 und Hinterräder 32 getragen wird. Zusätzlich ist ein Armaturenbrett 35, das ein Tachometer und Ähnliches enthält, vor dem Fahrersitz 33 und dem Lenkrad 34 vorgesehen. Das Lenkrad 34 wird in Verbindung mit einem Lenkbetätigungssystem bedient, das eine Drehbetätigungskraft auf die Vorderräder 31 überträgt. Ein Getriebemechanismus wie etwa ein Drehmomentwandler (nicht gezeigt) zum Übertragen einer Leistung von einem Motor, der in einem Vorderabschnitt eines Fahrzeuges vorgesehen ist, an wenigstens die Vorderräder 31 oder die Hinterräder 32 ist nahe der Mitte der Karosserie B angeordnet. Ein Schalthebel 36 zum Steuern des Getriebemechanismus ist an einem Seitenabschnitt des Fahrersitzes 33 angeordnet. Ein Monitor 10, der einen Sensor vom Bildschirmfeld 11 mit Berührungseingabe (Touch Panel = Tastfeld) auf einem Anzeigebildschirm bildet, ist in einem oberen Abschnitt einer Konsole nahe dem Fahrersitz 33 vorgesehen. Ein Betätigungssystem des Lenkrades 34 weist einen Lenksensor 41 zum Messen der Richtung und des Betrags einer Lenkbewegung auf, während ein Betätigungssystem für den Schalthebel 36 einen Schaltpositionssensor 42 zum Bestimmen einer Schaltposition aufweist. Der Getriebemechanismus weist außerdem einen Bewegungsdistanzsensor 43 zum Messen eines Betrags der Bewegung der Karosserie B auf Basis eines Drehbetrags eines Antriebssystems auf. Als der Bewegungsdistanzsensor 43 kann ein Sensor vom Lichtschrankentyp, ein Sensor vom Aufnahmetyp oder Ähnliches, des Betrags des Drehung von wenigstens einem den Vorderrädern 31 oder den Hinterrädern 32 misst, verwendet werden.
  • Zusätzlich zu der ersten Kamera, die in einem Zentrum des vorderen Kühlergrills angeordnet ist, und der zweiten Kamera, die an dem linken Türspiegel angeordnet ist, ist eine rückwärtige Kamera 3 an einem rückwärtigen Abschnitt der Karosserie B angeordnet. Der Monitor 10, der durch diese Kameras 1, 2 und 3 erhaltene Bilder anzeigt, besteht aus einem Flüssigkeitskristall-Gerätetyp mit Rückbeleuchtungsfunktion. Jedoch ist auch ein Gerät vom Plasmaanzeigentyp oder Kathodenstrahlrohrentyp (CRT) annehmbar. Ferner wird ein Tastfeld 11 von druckempfindlichem Typ oder vom elektrostatischen Typ verwendet, so dass eine Berührungsposition durch einen Finger oder Ähnliches als eine Ortsinformation ausgegeben wird. Der Monitor 10, der auch als ein GPS-Navigationssystem verwendet wird, kann verwendet werden.
  • Jede Abbildungsoberfläche der Kamera 1, 2 oder 3 ist mit einem Ladungskopplungsbildsensor (CCD) ausgestattet, mittels dessen erfasste Informationen als eine Bewegungsinformation (nachfolgend einfach „Abbildung” genannt) ausgegeben wird. Gemäß der vorliegenden Ausführungsform wird ein Fahrzeugendpunkt E, der durch einen Schnittpunkt zwischen einer Stoßstange und einer Fahrzeugbreitenlinie bestimmt wird, als der oben genannte Standardpunkt R ausgewählt. Folglich wird die erste Kamera 1 unter einem Winkel so positioniert, dass hauptsächlich eine Bodenoberfläche vor der Karosserie B einschließlich einer horizontalen Linie erfasst wird, während die zweite Kamera 2 unter einem Winkel so positioniert wird, dass ein vorderer linker Bereich der Karosserie B einschließlich eines Bereiches von dem linken Türspiegel bis zu einem Punkt des Vorderrades 31, der in Kontakt mit dem Boden ist, erfasst wird, so dass der Fahrzeugendpunkt E im Wesentlichen als ein Abbildungserfassungszentrum spezifiziert ist. Die rückwärtige Kamera 3 ist unter einem Winkel so angeordnet, dass hauptsächlich eine Bodenoberfläche hinter der Karosserie B erfasst wird. Die Kameras 1, 2 und 3 sind jeweils mit einer Weitwinkellinse, die ungefähr einen Sichtwinkel von 180° aufweist, ausgestattet.
  • Eine Steuerung (Controller) 20 ist in einem Inneren eines Fahrzeuges zum Empfangen von Signalen von dem Tastfeld 11, der ersten Kamera 1, der zweiten Kamera 2, der rückwärtigen Kamera 3, dem Lenksensor 41, dem Schaltpositionssensor 42, dem Bewegungsdistanzsensor 43, und Ähnlichem und zum Ausgeben eines verarbeiteten Signals wie eines Abbildungssignals an dem Monitor 10 vorgesehen. Die Steuerung 20 umfasst eine CPU als ein Hauptelement, und Funktionsabschnitte, die zur Unterstützung eines Fahrers verwendet werden, während ein Fahrzeug in Bewegung ist, und die durch Hardware oder Software oder beides gebildet werden. Wie es in 6 gezeigt ist, sind die Funktionsabschnitte, die sich besonders auf die vorliegende Ausführungsform beziehen, eine Wähleinrichtung 21, ein Abbildungssynthetisierungsabschnitt 22, ein Abbildungssynthetisierungs-Referenzpunkteinstellungsabschnitt 23, ein grafischer Abbildungserzeugungsabschnitt 24, ein Synchronisations-Trennabschnitt 25, ein Überlagerungsabschnitt 26 und Ähnliches. Die Wähleinrichtung 21 wählt und sortiert die Abbildungssignale, die von mehreren im Fahrzeug eingebauten Kameras gesendet werden. Der Abbildungssynthetisierungsabschnitt 22 setzt Bilder, die von der ersten Kamera 1 und der zweiten Kamera 2 über die Wähleinrichtung 21 gesendet werden, zusammen. Der Abbildungssynthetisierungs-Referenzpunkteinstellungsabschnitt 23 spezifiziert auf jedem Bild einen Koordinatenpunkt eines Synthetisierungs-Referenzpunktes fest, der als eine Basis zum Zusammensetzen der Bilder in dem Abbildungssynthetisierungsabschnitt 22 vorgesehen ist, das heißt, den Standardpunkt R in dem unter Bezugnahme auf 1 erläuterten Prinzip. Der grafische Abbildungserzeugungsabschnitt 24 erzeugt eine Ortskurve des Standardpunktes R und eine grafische Abbildung, wie etwa verschiedene Kennzeichen und Symbole für eine Fahrunterstützung. Der Synchronisierungs-Trennabschnitt 25 extrahiert ein Synchronisationssignal aus einem Abbildungssignal, das von der Wähleinrichtung 21 oder dem Abbildungs-Synthetisierungsabschnitt 22 ausgegeben wurde, und liefert dieses Synchronisationssignal an den grafischen Abbildungserzeugungsabschnitt 24. Der Überlagerungsabschnitt 26 überlagert ein grafisches Bild, das von dem grafischen Abbildungserzeugungsabschnitt 24 ausgegeben wurde, auf das Bild, das von der Wähleinrichtung 21 oder dem Abbildungssynthetisierungsabschnitt 22 ausgegeben wurde.
  • Der Abbildungssynthetisierungsabschnitt 22 verwendet das Prinzip, bei dem Bilder von zwei Kameras gemäß der vorliegenden Erfindung zusammengesetzt werden, das unter Bezugnahme auf 1 erläutert worden ist. In diesem Fall, da der Standardpunkt R gleich dem Fahrzeugendpunkt E ist, der durch einen Schnittpunkt zwischen einer Stoßstange und einer Fahrzeugbreitenlinie bestimmt wird, ist der Standardpunkt R an einer rückwärtigen Seite der ersten Kamera 1 und zwischen der ersten Kamera 1 und der zweiten Kamera 2 positioniert. Demgemäß wird der Fahrzeugendpunkt E als der Standardpunkt R nicht direkt durch die erste Kamera 1 und nur durch die zweite Kamera 2 erfasst. Ferner ist der grafische Abbildungserzeugungsabschnitt 24 so aufgebaut, das nicht nur die Ortskurve des Fahrzeugendpunkts E an der linken Seite sondern auch des Fahrzeugendpunkts E an der rechten Seite zur Zeit einer Vorwärtsbewegung eines Fahrzeuges erzeugt wird. Die Ortskurve wird dem Bild von der ersten Kamera 1 überlagert und auf dem Monitor 10 angezeigt. 7 zeigt ein Beispiel, in dem die Ortskurve des Fahrzeugendpunktes E auf dem Bild von der ersten Kamera 1 überlagert und an dem Monitor 10 angezeigt wird. Wie es aus 7 klar zu verstehen ist, erstreckt sich die Ortskurve des Fahrzeugendpunktes E von einem Startpunkt in einem maskierten Bereich, der in einem unteren Abschnitt des Monitorbildschirms positioniert ist. Dieser maskierte Bereich entspricht der erweiterten Abbildungsoberfläche B in 1, unter Bezugnahme worauf das Prinzip des Umgebungsüberwachungssystems gemäß der vorliegenden Erfindung erläutert wird. Die Koordinatenposition des Standardpunktes R auf der erweiterten Abbildungsoberfläche B entspricht dem Startpunkt dieser Ortskurve. 8 zeigt ein Beispiel, in dem das Bild von der zweiten Kamera auf dem Monitor 10 angezeigt wird. Wie es aus 8 eindeutig verständlich ist, erscheint der linksseitige Fahrzeugendpunkt E als der Standardpunkt R im Wesentlichen in einem Zentrum des Monitorbildschirms zusammen mit dem Seitenkarosserieabschnitt und der Straßenoberfläche auf der Seite und vor einem Fahrzeug.
  • Der Abbildungssynthetisierungsabschnitt 22 setzt, auf Basis einer Einstellinformation über den Standardpunkt R von dem Abbildungssynthetisierungs-Referenzpunkteinstellabschnitt 23, das Bild von der ersten Kamera 1 (siehe 7) und das Bild von der zweiten Kamera 2 (siehe 8) zusammen und zeigt sie auf dem Monitor 10 derart an, dass die Standardpunkte R (Fahrzeugendpunkt E) auf dem Bild von der ersten Kamera 1 und auf dem Bild von der zweiten Kamera 2 einander überlappen. Das Ergebnis ist ein zusammengesetztes Bild, wie es in 9 gezeigt ist. In 9, ist im Hinblick auf das Ziel der Überwachung der Umgebung ein Fahrzeugkarosseriebereich, der durch die zweite Kamera 2 erfasst wird, außer der Umgebung des Fahrzeugendpunktes E, maskiert. Wie es an dem Monitorbildschirm in 9 ersichtlich ist, werden die geschätzte Ortskurve des Fahrzeugendpunktes E und eine Straßenoberfläche um den Fahrzeugendpunkt E herum, der ein toter Winkel für einen Fahrer ist, in natürlicher Weise an einem Bildschirm angezeigt.
  • Die erste Kamera 1 und die zweite Kamera 2 sind beide mit Weitwinkellinsen ausgestattet, um einen weiten Bereich eines Gebietes zu erfassen. Folglich wird ein Bereich, der beschnitten worden ist, auf dem Monitor 10 angezeigt. Demgemäß kann, um ein gesamtes Bild zu bestätigen, das ursprünglich erfasst und zusammengesetzt wurde, der Bildschirm des Monitors 10 in Richtung nach rechts und links geblättert werden.
  • Wie es in 9 gezeigt ist, in Folge eines Unterschiedes der optischen Achse der ersten Kamera 1 und der zweiten Kamera 2, ist eine Richtung einer Bodenoberfläche in dem aufgebauten Bild, wenn sich das Fahrzeug bewegt, leicht unterschiedlich zwischen dem Abbildungsbereich von der ersten Kamera 1 und jenem von der zweiten Kamera 2. Die Richtung einer Bodenoberfläche ist an einer Grenze zwischen dem Abbildungsbereich von der ersten Kamera 1 und jenem von der zweiten Kamera 2 gebogen. Um solche Umstände zu vermeiden, ist ein Abbildungsdrehabschnitt 22a in dem Abbildungssynthetisierungsabschnitt 22 implementiert, und dann wird das Bild von der zweiten Kamera 2 bei dem Zusammensetzen des Bildes gedreht, so dass die Ortskurve des Standardpunktes R in dem Bild von der ersten Kamera 1 und jenem von der zweiten Kamera 2 miteinander ausgerichtet sind. Das heißt, wenn die imaginäre Linie in dem ersten Bild und jene in dem zweiten Bild auf dem Monitor in einer überlagerten Art und Weise in dem zusammengesetzten Bild angezeigt werden, wird wenigstens das erste Bild oder das zweite Bild gedreht, so dass die Richtungen der imaginären Linie in dem ersten Bild und jene in dem zweiten Bild miteinander übereinstimmen. Solch ein Beispiel des zusammengesetzten Bildes gemäß einer anderen Ausführungsform ist in 10 gezeigt.
  • In dem Monitor 10 wird das Bild von der rückwärtigen Kamera 3 auch mittels der Steuerung der Wähleinrichtung 21 zusätzlich zu den Anzeigemustern, die in den 7 bis 9 gezeigt sind, wahlweise angezeigt. Die Steuerung der Wähleinrichtung 21 wird nicht nur automatisch auf der Basis einer laufenden Information des Schaltpositionssensors 42, des Fahrzeuggeschwindigkeitssensors und Ähnlichem automatisch ausgeführt, sondern sie wird auch zwangsweise durch eine manuelle Betätigung unter Verwendung des Tastfeldes 11 ausgeführt. Zusätzlich kann unter Verwendung der Funktion der Wähleinrichtung 21 der Standardpunkt R automatisch auf der Basis eines in Bewegung befindlichen Fahrzeuges ausgewählt werden.
  • Gemäß der zuvor genannten Ausführungsform werden das Bild von der ersten Kamera 1 und jenes von der zweiten Kamera 2 zusammengesetzt. Jedoch können stattdessen das Bild von der ersten Kamera 1 und jenes von der rückwärtigen Kamera 3 zusammengesetzt und auf dem Monitor 10 angezeigt werden. Die zweite Kamera 2 kann nicht nur die Kamera, die an dem linken Türspiegel befestigt ist, sondern auch die Kamera, die an dem rechten Türspiegel befestigt ist, aufweisen, so dass zwei Standardpunkte definiert werden. Dann können drei Bilder nach dem gleichen obigen Prinzip zusammengesetzt werden. Ferner sind die Anordnung der ersten Kamera 1 und der zweiten Kamera 2 und die Definition des Standardpunktes nicht auf das Obige beschränkt. Insbesondere können mehrere Standardpunkte zuvor definiert werden, so dass sie frei ausgewählt werden können.
  • Ferner werden gemäß der zuvor genannten Ausführungsform in dem zusammengesetzten Bild, das durch Zusammensetzen des Bildes der zweiten Abbildungsoberfläche A2 und des Bildes der ersten Abbildungsoberfläche A1 die erweiterte Abbildungsoberfläche B, die die erweiterte Abbildungsoberfläche von der ersten Abbildungsoberfläche A1 ist, erhalten wird, die Positionsbeziehung zwischen den Bildern der ersten Abbildungsoberfläche A1 und der zweiten Abbildungsoberfläche A2 und des Standardpunktes R beibehalten. Das heißt, wenn die erste Kamera 1 bezüglich einer Fahrzeugfahrtrichtung vor der zweiten Kamera 2 vorgesehen ist, läuft ein Punkt, der vor dem Fahrzeug angeordnet ist, auf der imaginären Linie des Standardpunktes auf der ersten Abbildungsoberfläche A1 und geht dann über den Standardpunkt auf der zweiten Abbildungsoberfläche A2 auf die zweite Abbildungsoberfläche A2 während der Fahrt des Fahrzeuges. Daher bewegen sich, wenn der Standardpunkt durch den Fahrzeugendpunkt, der durch einen Schnittpunkt zwischen einer Stoßstange und einer Fahrzeugbreitenlinie bestimmt wird, definiert ist und die imaginäre Linie, die sich von dem Standardpunkt erstreckt, als die Ortskurve des Standardpunktes zu einer Zeit der Bewegung des Fahrzeugs spezifiziert ist, die Ortskurve des Fahrzeugendpunktes, bevor das Fahrzeug in Bewegung ist, und jene, nachdem das Fahrzeug in Bewegung ist, sanft von der ersten Abbildungsoberfläche A1 zu der zweiten Abbildungsoberfläche A2, das heißt, als Ergebnis das zusammengesetzte Bild, das dadurch gebildet wird. Das Umgebungsüberwachungsbild, das für einen Fahrer einfach vorstellbar ist, kann entsprechend erreicht werden.
  • Weiterhin werden gemäß der zuvor genannten Ausführungsform die Ortskurven des Standardpunktes vor der Bewegung des Fahrzeugs und nach der Bewegung des Fahrzeugs in Ausrichtung miteinander auf dem zusammengesetzten Bild angeordnet, wodurch ein noch einfacheres Verständnis der Position und der Ortskurve des Standardpunktes geliefert wird.
  • Darüber hinaus schaut gemäß der zuvor genannten Ausführungsform ein Fahrer vor das Fahrzeug und folglich sind, wenn die Fahrzeugumgebung überwacht wird, die rechte und linke Richtung sehr wichtig. Der Monitorbildschirm kann daher in der rechten und linken Richtung geblättert (gescrollt) werden.
  • Wie zuvor erwähnt wurde, ist der Fahrzeugendpunkt, der durch einen Schnittpunkt zwischen einer Stoßstange und einer Fahrzeugbreitenlinie bestimmt wird, einer der sehr wichtigen Indikatoren, während sich das Fahrzeug in Bewegung befindet. Zusätzlich, abhängig von dem Fahrtstatus des Fahrzeuges, kann der Kontaktpunkt des Vorderrades mit der Bodenoberfläche ein sehr wichtiger Indikator sein. Daher ist die Position des Standardpunktes relativ zu dem Fahrzeug wählbar. In diesem Fall wird die Auswahl des Standardpunktes automatisch auf der Basis einer Bewegung des Fahrzeuges durchgeführt, wodurch eine sehr gute Unterstützung für den Fahrer geliefert wird.
  • Es wird ausdrücklich erklärt, dass alle Merkmale, die in der Beschreibung und/oder den Ansprüchen offenbart sind, als getrennt und unabhängig voneinander zum Zweck der ursprünglichen Offenbarung als auch zum Zweck der Beschränkung der beanspruchten Erfindung unabhängig von der Zusammenstellung der Merkmale in den Ausführungsformen und/oder den Ansprüchen offenbart gedacht sind. Es wird ausdrücklich erklärt, dass alle Wertebereiche oder Angaben von Gruppen von Gesamtheiten jeden möglichen Zwischenwert oder Zwischengesamtheit zum Zweck der ursprünglichen Offenbarung ebenso wie zum Zweck der Beschränkung der beanspruchten Erfindung, insbesondere als Grenzen der Wertebereiche, offenbaren.

Claims (10)

  1. Umgebungsüberwachungssystem für ein Fahrzeug, das eine erste Kamera (1), die eine erste Abbildungsoberfläche (A1) erfasst, eine zweite Kamera (2), die eine zweite Abbildungsoberfläche (A2) erfasst, wobei die erste Kamera und die zweite Kamera an unterschiedlichen Orten an einem Fahrzeug montiert sind, und einen Monitor (10) zum Anzeigen eines ersten Bildes der ersten Abbildungsoberfläche (A1) und eines zweiten Bildes der zweiten Abbildungsoberfläche (A2) aufweist, dadurch gekennzeichnet, dass ein Standardpunkt (R) relativ zu dem Fahrzeug spezifiziert wird, welcher Standardpunkt (R) durch die zweite Kamera (2), aber nicht durch die erste Kamera (1) erfasst wird, das erste Bild und das zweite Bild zusammengesetzt und auf dem Monitor so angezeigt werden, dass eine Koordinatenposition (R1) des Standardpunktes (R) in einer erweiterten Abbildungsoberfläche (B) von der ersten Abbildungsoberfläche (A1) und eine Koordinatenposition (R2) des Standardpunktes (R) in der zweiten Abbildungsoberfläche (A2) miteinander übereinstimmen, und eine imaginäre Linie (L), die den Standardpunkt (R) enthält und sich über das erste Bild und das zweite Bild erstreckt, auf dem Monitor (10) derart angezeigt wird, dass die imaginäre Linie (L) dem zusammengesetzten Bild aus dem ersten Bild und dem zweiten Bild überlagert ist.
  2. Umgebungsüberwachungssystem nach Anspruch 1, bei dem der Standardpunkt (R) durch einen Schnittpunkt zwischen einer Stoßstange und einer Fahrzeugbreitenlinie bestimmt wird, und die imaginäre Linie (L) des Standardpunktes (R) eine Ortskurve des Standardpunktes (R) ist, wenn das Fahrzeug in Bewegung ist.
  3. Umgebungsüberwachungssystem nach Anspruch 1, bei dem die imaginäre Linie (L) eine erste imaginäre Linie in dem ersten Bild und eine zweite imaginäre Linie in dem zweiten Bild aufweist, und das erste Bild oder das zweite Bildes derart gedreht wird, dass die Richtungen der ersten imaginären Linie und der zweiten imaginären Linie miteinander übereinstimmen, wenn die erste imaginäre Linie und die zweite imaginäre Linie auf dem Monitor (10) derart angezeigt werden, dass die erste imaginäre Linie und die zweite imaginäre Linie auf dem zusammengesetzten Bild aus dem ersten Bild und dem zweiten Bild überlagert sind.
  4. Umgebungsüberwachungssystem nach Anspruch 1, bei dem ein Abschnitt des zusammengesetzten Bildes aus dem ersten Bild und dem zweiten Bild auf dem Monitor (10) angezeigt wird, und ein Bildschirm des Monitors in die rechte und linke Richtung weiter geblättert wird, so dass das zusammengesetzte Bild als ein ganzes sequentiell angezeigt wird.
  5. Umgebungsüberwachungssystem nach Anspruch 1, bei dem die Position des Standardpunktes (R) relativ zu dem Fahrzeug auswählbar ist.
  6. Umgebungsüberwachungssystem nach Anspruch 5, bei dem die Position des Standardpunktes (R) auf einer Basis einer Bewegung des Fahrzeuges ausgewählt wird.
  7. Umgebungsüberwachungssystem nach Anspruch 1, bei dem das erste Bild der ersten Abbildungsoberfläche (A1) oder das zweite Bild der zweiten Abbildungsoberfläche (A2) derart gedreht wird, dass das zusammengesetzte Bild derselben derart erzeugt wird, dass ein erstes Linienbild (L1), das eine Richtung der imaginären Linie (L) von dem Standardpunkt (R) in der ersten Abbildungsoberfläche definiert, und ein zweites Linienbild (L2), das eine Richtung der imaginären Linie (L) von dem Standardpunkt (R) in der zweiten Abbildungsoberfläche definiert, zueinander ausgerichtet sind.
  8. Umgebungsüberwachungssystem nach Anspruch 1, bei dem die erste Kamera (1) an einer Mitte eines vorderen Kühlergrills vorgesehen ist, während die zweite Kamera (2) an einem Seitenabschnitt einer Fahrzeugkarosserie (B) hinter einem Vorderrad (31) vorgesehen ist.
  9. Umgebungsüberwachungssystem nach Anspruch 8, bei dem die zweite Kamera an einem Türspiegel vorgesehen ist.
  10. Umgebungsüberwachungssystem nach Anspruch 8, bei dem die zweite Kamera (2) ein Bild eines Abschnittes der Fahrzeugkarosserie (B) erfasst, und ein Bereich, mit Ausnahme eines Abschnittes um den Fahrzeugendpunkt (E) herum, maskiert wird, welcher Fahrzeugendpunkt (E) durch einen Schnittpunkt zwischen einer Stoßstange und einer Fahrzeugbreitenlinie als Standardpunkt (R) bestimmt wird.
DE102006054162.6A 2005-11-17 2006-11-16 Umgebungsüberwachungssystem für ein Fahrzeug Expired - Fee Related DE102006054162B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-332852 2005-11-17
JP2005332852A JP4780385B2 (ja) 2005-11-17 2005-11-17 周辺監視システム

Publications (2)

Publication Number Publication Date
DE102006054162A1 DE102006054162A1 (de) 2007-08-23
DE102006054162B4 true DE102006054162B4 (de) 2018-03-22

Family

ID=38001832

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006054162.6A Expired - Fee Related DE102006054162B4 (de) 2005-11-17 2006-11-16 Umgebungsüberwachungssystem für ein Fahrzeug

Country Status (4)

Country Link
US (1) US8031225B2 (de)
JP (1) JP4780385B2 (de)
DE (1) DE102006054162B4 (de)
FR (1) FR2893282B1 (de)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5910854A (en) 1993-02-26 1999-06-08 Donnelly Corporation Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices
US8294975B2 (en) 1997-08-25 2012-10-23 Donnelly Corporation Automotive rearview mirror assembly
US8288711B2 (en) 1998-01-07 2012-10-16 Donnelly Corporation Interior rearview mirror system with forwardly-viewing camera and a control
US6477464B2 (en) 2000-03-09 2002-11-05 Donnelly Corporation Complete mirror-based global-positioning system (GPS) navigation solution
US6693517B2 (en) 2000-04-21 2004-02-17 Donnelly Corporation Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants
US6329925B1 (en) 1999-11-24 2001-12-11 Donnelly Corporation Rearview mirror assembly with added feature modular display
US7004593B2 (en) 2002-06-06 2006-02-28 Donnelly Corporation Interior rearview mirror system with compass
US7370983B2 (en) 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
US7167796B2 (en) 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
WO2007053710A2 (en) 2005-11-01 2007-05-10 Donnelly Corporation Interior rearview mirror with display
US7255451B2 (en) 2002-09-20 2007-08-14 Donnelly Corporation Electro-optic mirror cell
US6918674B2 (en) 2002-05-03 2005-07-19 Donnelly Corporation Vehicle rearview mirror system
US7329013B2 (en) 2002-06-06 2008-02-12 Donnelly Corporation Interior rearview mirror system with compass
EP1543358A2 (de) 2002-09-20 2005-06-22 Donnelly Corporation Spiegelreflexionselementbaugruppe
US7310177B2 (en) 2002-09-20 2007-12-18 Donnelly Corporation Electro-optic reflective element assembly
US7446924B2 (en) 2003-10-02 2008-11-04 Donnelly Corporation Mirror reflective element assembly including electronic component
US7308341B2 (en) 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
US7626749B2 (en) 2005-05-16 2009-12-01 Donnelly Corporation Vehicle mirror assembly with indicia at reflective element
JP4793307B2 (ja) * 2007-04-03 2011-10-12 株式会社デンソー 車両周辺監視装置
DE102007024752B4 (de) 2007-05-26 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Fahrerinformation in einem Kraftfahrzeug
CN102037720B (zh) * 2008-02-08 2013-11-06 谷歌公司 带有使用定时快门的多个图像传感器的全景照相机
US8154418B2 (en) 2008-03-31 2012-04-10 Magna Mirrors Of America, Inc. Interior rearview mirror system
JP2009292339A (ja) * 2008-06-05 2009-12-17 Aisin Seiki Co Ltd 駐車支援装置
DE102008049207B4 (de) 2008-07-03 2019-10-02 Bayerische Motoren Werke Aktiengesellschaft Kraftfahrzeug mit einer hinter einem Kühlergrill angeordneten Kamera für ein Nachtsichtsystem
US8411245B2 (en) * 2009-02-06 2013-04-02 Gentex Corporation Multi-display mirror system and method for expanded view around a vehicle
US8237909B2 (en) * 2009-02-06 2012-08-07 Gentex Corporation Vehicular rearview mirror assembly including integrated backlighting for a liquid crystal display (LCD)
JP5444338B2 (ja) * 2009-05-25 2014-03-19 パナソニック株式会社 車両周囲監視装置
DE102011112578A1 (de) * 2011-09-08 2013-03-14 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung für ein Assistenzsystem in einem Fahrzeug zur Durchführung eines autonomen oder teilautonomen Fahrmanövers
JP5860663B2 (ja) * 2011-10-18 2016-02-16 日立オートモティブシステムズ株式会社 ステレオ撮像装置
AU2013208525A1 (en) * 2012-01-12 2014-08-14 Hitachi Construction Machinery Co., Ltd. Periphery monitoring device for self-propelled industrial machine
US8879139B2 (en) 2012-04-24 2014-11-04 Gentex Corporation Display mirror assembly
US9956913B2 (en) * 2013-03-28 2018-05-01 Aisin Seiki Kabushiki Kaisha Surroundings-monitoring device and computer program product
CN105555612B (zh) 2013-09-24 2018-06-01 金泰克斯公司 显示镜组件
US9511715B2 (en) 2014-01-31 2016-12-06 Gentex Corporation Backlighting assembly for display for reducing cross-hatching
US10705332B2 (en) 2014-03-21 2020-07-07 Gentex Corporation Tri-modal display mirror assembly
US9834146B2 (en) 2014-04-01 2017-12-05 Gentex Corporation Automatic display mirror assembly
KR102129798B1 (ko) * 2014-05-08 2020-07-03 엘지전자 주식회사 비히클 및 그 제어 방법
WO2016044746A1 (en) 2014-09-19 2016-03-24 Gentex Corporation Rearview assembly
WO2016073848A1 (en) 2014-11-07 2016-05-12 Gentex Corporation Full display mirror actuator
WO2016077583A1 (en) 2014-11-13 2016-05-19 Gentex Corporation Rearview mirror system with a display
WO2016090126A2 (en) 2014-12-03 2016-06-09 Gentex Corporation Display mirror assembly
USD746744S1 (en) 2014-12-05 2016-01-05 Gentex Corporation Rearview device
US9744907B2 (en) 2014-12-29 2017-08-29 Gentex Corporation Vehicle vision system having adjustable displayed field of view
US9720278B2 (en) 2015-01-22 2017-08-01 Gentex Corporation Low cost optical film stack
DE102015202743A1 (de) * 2015-02-16 2016-08-18 Bayerische Motoren Werke Aktiengesellschaft Stirnflächenneutrale Positionierung einer Kamera an einem Fahrzeug
US9995854B2 (en) 2015-04-20 2018-06-12 Gentex Corporation Rearview assembly with applique
EP3297870B1 (de) 2015-05-18 2020-02-05 Gentex Corporation Rückblickvorrichtung mit vollanzeige
KR102135427B1 (ko) 2015-06-22 2020-07-17 젠텍스 코포레이션 진폭-변조된 광의 깜박임을 보정하기 위해 스트리밍된 비디오 이미지를 처리하는 시스템 및 방법
US9994156B2 (en) 2015-10-30 2018-06-12 Gentex Corporation Rearview device
USD798207S1 (en) 2015-10-30 2017-09-26 Gentex Corporation Rearview mirror assembly
EP3368374B1 (de) 2015-10-30 2023-12-27 Gentex Corporation Umschaltpaddel
USD797627S1 (en) 2015-10-30 2017-09-19 Gentex Corporation Rearview mirror device
USD800618S1 (en) 2015-11-02 2017-10-24 Gentex Corporation Toggle paddle for a rear view device
USD845851S1 (en) 2016-03-31 2019-04-16 Gentex Corporation Rearview device
US10025138B2 (en) 2016-06-06 2018-07-17 Gentex Corporation Illuminating display with light gathering structure
USD809984S1 (en) 2016-12-07 2018-02-13 Gentex Corporation Rearview assembly
USD854473S1 (en) 2016-12-16 2019-07-23 Gentex Corporation Rearview assembly
JP2020505802A (ja) 2016-12-30 2020-02-20 ジェンテックス コーポレイション オンデマンドスポッタービューを備えた全画面表示ミラー
JP6699761B2 (ja) * 2017-01-16 2020-05-27 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
WO2018170353A1 (en) 2017-03-17 2018-09-20 Gentex Corporation Dual display reverse camera system
US20190389385A1 (en) * 2018-06-25 2019-12-26 Ford Global Technologies, Llc Overlay interfaces for rearview mirror displays
JP7353110B2 (ja) * 2019-09-18 2023-09-29 株式会社Subaru 車外モニタ装置
JP7000513B1 (ja) 2020-08-07 2022-01-19 株式会社インフォマティクス 構造物管理業務支援システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1302365A2 (de) 2001-10-15 2003-04-16 Matsushita Electric Industrial Co., Ltd. Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges und Verfahren zur Einstellung derselben

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5289321A (en) * 1993-02-12 1994-02-22 Secor James O Consolidated rear view camera and display system for motor vehicle
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
JP2001039232A (ja) 1999-07-27 2001-02-13 Honda Access Corp 車両用カメラ装置
JP3298851B2 (ja) * 1999-08-18 2002-07-08 松下電器産業株式会社 多機能車載カメラシステムと多機能車載カメラの画像表示方法
JP3652678B2 (ja) * 2001-10-15 2005-05-25 松下電器産業株式会社 車両周囲監視装置およびその調整方法
JP2005178508A (ja) 2003-12-18 2005-07-07 Denso Corp 周囲情報表示装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1302365A2 (de) 2001-10-15 2003-04-16 Matsushita Electric Industrial Co., Ltd. Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges und Verfahren zur Einstellung derselben

Also Published As

Publication number Publication date
FR2893282A1 (fr) 2007-05-18
US8031225B2 (en) 2011-10-04
FR2893282B1 (fr) 2015-12-25
JP2007142735A (ja) 2007-06-07
US20070109408A1 (en) 2007-05-17
JP4780385B2 (ja) 2011-09-28
DE102006054162A1 (de) 2007-08-23

Similar Documents

Publication Publication Date Title
DE102006054162B4 (de) Umgebungsüberwachungssystem für ein Fahrzeug
EP2865569B1 (de) Anzeigeeinrichtung für Sichtfelder eines Nutzfahrzeugs
DE60306614T2 (de) Vorrichtung und Verfahren zur Überwachung der nahen Umgebung eines Fahrzeuges
EP2603402B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung und fahrerassistenzsystem
DE10037130B4 (de) Einpark- und/oder Rangierhilfeeinrichtung für Pkw oder Lkw
DE19754249B4 (de) Verfahren und Vorrichtung zur optischen Rangierhilfe für ein Kraftfahrzeug
DE102008016527B4 (de) Fahrzeug-Messgeräte-Einheit und Anzeigevorrichtung
EP3512739B1 (de) Verfahren zum bereitstellen einer rückspiegelansicht einer fahrzeugumgebung eines fahrzeugs
DE60025864T2 (de) Multifunktionales Kamera-System für ein Fahrzeug sowie Verfahren zum Anzeigen von Bildern
DE112015004971T5 (de) Parkunterstützungsvorrichtung
DE102004043257B4 (de) Kameraeinheit und Vorrichtung zur Überwachung der Fahrzeugumgebung
DE19923964C2 (de) Umgebungs-Überwachungsgerät für ein Fahrzeug
DE102008000606B4 (de) Fahrzeuganzeigeinstrumentsystem und Verfahren, dieses zu steuern
DE102008038463B4 (de) Bildverarbeitungsvorrichtung
DE102006061597A1 (de) Einparkunterstützungsvorrichtung
DE102012100002A1 (de) Rückfahrassistenzvorrichtung
DE102010020201B4 (de) Verfahren und Vorrichtung zur Darstellung der Bilder eines Rückblickkamerasystems eines Kraftfahrzeugs
DE102017100004A1 (de) Verfahren zum Bereitstellen von zumindest einer Information aus einem Umgebungsbereich eines Kraftfahrzeugs, Anzeigesystem für ein Kraftfahrzeug, Fahrerassistenzsystem für ein Kraftfahrzeug sowie Kraftfahrzeug
DE112015004149T5 (de) Fahrassistenzvorrichtung und fahrassistenzsystem
DE102014018040A1 (de) Sichtsystem
DE102010032411A1 (de) Vorrichtung zur Überwachung der seitlichen und rückwärtigen Umgebung eines Fahrzeugs
DE102017102764A1 (de) Umgebungsbildanzeigevorrichtung für ein fahrzeug
EP3437929A1 (de) Sichtsystem mit fahrsituationsbedingter sichtfeld-/sichtbereicheinblendung
DE102006051977B4 (de) Parkassistenzsystem
DE102009025205A1 (de) Anzeige und Verfahren für eine Umgebungsdarstellung eines Kraftfahrzeug-Surround-View-Systems

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20121204

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee