DE10296593T5 - Fahrunterstützungsvorrichtung - Google Patents

Fahrunterstützungsvorrichtung Download PDF

Info

Publication number
DE10296593T5
DE10296593T5 DE10296593T DE10296593T DE10296593T5 DE 10296593 T5 DE10296593 T5 DE 10296593T5 DE 10296593 T DE10296593 T DE 10296593T DE 10296593 T DE10296593 T DE 10296593T DE 10296593 T5 DE10296593 T5 DE 10296593T5
Authority
DE
Germany
Prior art keywords
image
area
road surface
distance
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10296593T
Other languages
English (en)
Other versions
DE10296593B4 (de
Inventor
Hirofumi Kawasaki Ishii
Kazufumi Kawasaki Mizusawa
Tsuyoshi Yokosuka Okada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of DE10296593T5 publication Critical patent/DE10296593T5/de
Application granted granted Critical
Publication of DE10296593B4 publication Critical patent/DE10296593B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Fahrunterstützungsvorrichtung, die aufweist:
eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist;
eine Wandeleinrichtung zum Wandeln eines oder mehrerer Bilder, das bzw. die durch die Bildaufnahmeeinrichtung aufgenommen wird bzw. werden, in ein Bild, das von einem virtuellen Blickpunkt oberhalb der Bildaufnahmeeinrichtung gesehen wird, oder in ein Bild, das von oben orthogonal projiziert wird, auf der Basis eines Straßenoberflächenmodells;
eine Detektionseinrichtung zum Detektieren von dreidimensionalen Informationen, die andere als jene auf der Straßenoberfläche sind, auf der Basis einer Parallaxe zwischen den Bildern, die durch die Bildaufnahmeeinrichtung aufgenommen werden;
eine Verzerrungskorrektureinrichtung zum Korrigieren der Verzerrung einer Figur in einem Bild, für das diese Blickpunktwandlung durchgeführt wird, auf der Basis der detektierten, dreidimensionalen Informationen; und
eine Anzeigeeinrichtung zum Anzeigen eines Bildes, für das die Verzerrungskorrektur durchgeführt wird.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Fahrunterstützungsvorrichtung zum Unterstützen des Fahrens eines Fahrzeugs durch Aufnehmen der Situation um das Fahrzeug herum unter Verwendung einer Bildaufnahmeeinrichtung, die an dem Fahrzeug angebracht ist, und durch Anzeigen des aufgenommenen Bildes in dem Fahrzeug und eine Fahrunterstützungsvorrichtung zum Unterstützen des Fahrens eines Fahrzeugs durch Zusammensetzen bzw. Zusammenstellen eines Bildes, das bezüglich des Abstands bzw. der Entfernung zu Hindernissen um das Fahrzeug herum leicht zu verstehen ist, auf einem Bildschirm von einem Bild, das durch die Bildaufnahmeeinrichtung aufgenommen wird, und durch Anzeigen des resultierenden Bildes dem Fahrer.
  • Hintergrund der Erfindung
  • Bezüglich einer Fahrunterstützungsvorrichtung des Standes der Technik, die eine Bildaufnahmeeinrichtung verwendet, die an einem Fahrzeug angebracht ist, gibt es ein Verfahren zur Änderung des Ansichtspunktes bzw. Blickpunkts eines zusammengesetzten Bildes. Das Verfahren ist zum Beispiel in JP-A-58-110334 offenbart. In dem Fall dieser Vorrichtung des Standes der Technik wird ein zusammengesetztes Bild erzeugt, das von einem anderen Ansichtspunkt, zum Beispiel von oben, gesehen wird. In solch einem Fall ist der Abstand von einem Fahrzeug und einem anderen Objekt proportional zum Abstand auf dem Bildschirm derart, dass es einfach ist, den tatsächlichen Abstand intuitiv zu verstehen. Obwohl eine solche Fahrunterstützungsvorrichtung manchmal als Mobileinheit-Bildanzeigesystem bezeichnet wird, wird in dieser Spezifikation der Ausdruck Fahrunterstützungsvorrichtung verwendet.
  • Der Betrieb des Beispiels des Standes der Technik wird nachfolgend unter Verwendung von 31A bis 31D erläutert. 31A ist eine schematische Ansicht zum Erläutern der Beziehung zwischen der Aufnahmevorrichtung des tatsächlichen Bildes und eines virtuellen Ansichtspunkts. In dieser Figur nimmt die Bildaufnahmevorrichtung 1001, die an dem Fahrzeug angebracht ist, die Rückseitebereich des Fahrzeugs auf, hauptsächlich die Straßenoberfläche bei einem nach unten gerichteten Winkel. Unter der Annahme, dass die Richtung der Pixel 1002, wo ein Bild der Bildaufnahmevorrichtung vorhanden ist, einen Punkt bzw. Ort 1003 auf einer dreidimensionalen Straßenoberfläche aufnimmt, ist verständlich, dass die Position, die von einem virtuellen Blickpunkt von oben (virtuelle Kamera) 1004 gesehen wird, den Pixel in einer Richtung 1005 auf dem Bildschirm eines Bildes der virtuellen Kamera entspricht. 31B zeigt die Situation eines Fahrzeugs und einer rückseitigen Kamera in einem tatsächlichen Parkplatz und einer Peripherie des Parkplatzes. Die Bildaufnahmevorrichtung 1001 nimmt das Bild des Bereiches des Gebiets 1006 in dem Parkplatz auf. In diesem Beispiel ist insbesondere die Richtung der Pixel 1002 auf einen Punkt 1003 in der Ecke der weißen Linien auf der Straßenoberfläche gerichtet. 31C ist ein Bild, das tatsächlich von der Bildaufnahmevorrichtung 1001 erhalten wird. Die Position des Punkts 1003 in der Ecke der weißen Linien auf der Straßenoberfläche ist derart gewandelt und zusammengesetzt, dass sie den Pixel in der Richtung 1005 entspricht, gesehen von dem tatsächlichen, höheren Blickpunkt 1004. 31D ist ein zusammengesetztes Bild. In der Figur ist der Punkt 1003 auf der Straßenoberfläche derart angeordnet, dass die Relativposition bezüglich des Fahrzeugs genau reproduziert werden kann. Alle weißen Linien in anderen Parkabschnitten sind auf einer Straßenoberfläche derart positioniert, dass die Relativ position bezüglich des Fahrzeugs genau auf einem zusammengesetzten Bild reproduziert werden kann.
  • Der Fahrer eines Fahrzeugs kann die Beziehung zwischen dem Fahrzeug und seiner Umgebung durch Betrachten dieses zusammengesetzten Bildes verstehen.
  • Die Technologie des Standes der Technik hat jedoch ein Problem. Das Problem wird unter Verwendung von 32A bis 32D beschrieben.
  • 32A erläutert einen Fall, bei dem ein Objekt, das irgendwo anders als auf der Straßenoberfläche angeordnet ist, zum Beispiel eine Stoßstange eines Fahrzeugs, in dem Beispiel von 31A aufgenommen ist. In diesem Fall ist ein Punkt, der durch die Bildaufnahmeeinrichtung 1001 in einer Richtung 1002 aufgenommen wird, ein Punkt (die Stoßstange eines Fahrzeugs) 2001, der sich oberhalb der dreidimensionalen Straßenoberfläche befindet. Eine Straßenoberfläche wird jedoch in dem Fall angenommen, dass ein Bild von einem virtuellen Blickpunkt 1004 derart zusammengesetzt ist, dass eine Bildzusammensetzung unter der Annahme gemacht wird, dass der Punkt, der aufgenommen werden soll, auf einen Punkt 2002 als ein Schnittpunkt der Richtung 1002 und der Straßenoberfläche vorhanden ist.
  • 32B zeigt ein tatsächliches Fahrzeug, eine Rückseitenkamera und den Punkt 2001 einer Stoßstangenposition eines hinteren Fahrzeugs. 32C ist ein Bild der Bildaufnahmevorrichtung 1001. In dem Bild sind der Punkt 2001 der Stoßstange und ein Punkt 2002 des Schnittpunktes seiner Richtung und der Straßenoberfläche auf einem einzelnen Punkt überlagert. In dem zusammengesetzten Bild, das in 32D gezeigt ist, ist der Punkt 2002 entfernt von dem Punkt 2001 zusammengestellt. Zudem sind andere Abschnitte des hinteren Fahrzeugs derart zusammengestellt, als würden sie weiter weg als die tatsächliche Posi tion vorhanden sein, und sie sind in einem großen Maß verzerrt, mit der Ausnahme der Reifen, die in Berührung mit der Straßenoberfläche kommen.
  • Deshalb ist in dem Stand der Technik nur der Boden für die Umwandlung als Blickpunkt tauglich. Im Ergebnis ist das, was nicht auf dem dreidimensionalen Boden ist, zum Beispiel anders Fahrzeuge und Hindernisse, in einem zusammengesetzten Bild verzerrt.
  • Wenn der Stand der Technik als Fahrunterstützungsvorrichtung verwendet wird, werden die Stoßstange und ein weiteres Fahrzeug weiter weg als die tatsächliche Position ist, angezeigt. Obwohl der Nutzer, der ein Fahrzeug fährt, einen genügenden Abstand aus diesem Bild annimmt, ist der Abstand zu dem tatsächlichen Hindernis derart länger, dass das Fahrzeug wahrscheinlicher in Berührung mit dem Objekt kommt. Das Entfernen der Fehlortsangabe und der Bildverzerrung ist deshalb ein wichtiges Problem in Anmeldungen bzw. Anwendungen.
  • Als eine Gegenmaßnahme gegen diese Verzerrung eines blickpunktgewandelten Bildes von oben ist ein Beispiel in JP-A-7-186833 offenbart. In diesem Beispiel wird eine gleiche Farbe über das Bild extrahiert und dann werden ein Straßenoberflächenbereich und ein Nicht-Straßenoberflächenbereich durch die Expansion und die Kontraktion des Bereiches getrennt. Für den Straßenoberflächenbereich wird ein gewandeltes Bild von oben zusammengestellt. Für den Nicht-Straßenoberflächenbereich wird ein eingegebenes Bild des Bereiches ohne Durchführung einer Blickpunktwandlung maßstabsgetreu vergrößert/verkleinert und das sich ergebende Bild wird dem gewandelten Bild überklebt bzw. überlagert. Dies ermöglicht die Zusammensetzung eines Bildes ohne Verzerrung der Hindernisse, die über der Straße vorhanden sind.
  • Dieses Beispiel hinterlässt jedoch die Probleme, die in den nachfolgenden Problemen (1) bis (3) beschrieben sind.
    • (1) Eine Trennung eines Straßenoberflächenbereiches und eines Nicht-Straßenoberflächenbereiches wird unter Verwendung von Farbinformationen derart ausgeführt, dass die Trennung an einem Abschnitt ungenau ist, bei dem sich die Struktur in einem großen Ausmaß auf der Straßenoberfläche und einem Abschnitt einer ähnlichen Farbe zu der der Straße ändert, zum Beispiel einem Gebäude.
    • (2) Ein Hindernis, das von dem Boden entfernt ist, zum Beispiel eine Stoßstange, wird als Teil einer Straße zusammengestellt. Dies erstreckt den Straßenbereich weiter als die tatsächliche Straße in dem zusammengesetzten Bild.
    • (3) Obwohl die Straßenoberfläche in ein Bild von einem Blickpunkt von oben gewandelt wird, bleibt das Hindernis ein eingegebenes Bild. Das sich ergebende, zusammengesetzte Bild ist unnatürlich und der Fahrer kann Probleme beim intuitiven Verstehen der Informationen über die Umgebung haben.
  • Betreffend die Probleme (1) wird eine Technologie zum Trennen einer Straßenoberfläche und einer Nicht-Straßenoberfläche in JP-A-7-334679 offenbart. In diesem Beispiel werden Bilder, die durch eine linke Kamera und eine rechte Kamera aufgenommen werden, derart verbunden, dass sie an einer Position zusammenfallen, wo sie auf eine Straßenoberfläche projiziert werden. Dann wird die Trennung ausgeführt: ein Bereich, wo die zwei entsprechenden Bildsignale ähnlich zueinander innerhalb eines Schwellenwerts sind, wird als ein Straßenoberflächenbereich definiert und der restliche Bereich wird als ein Nicht-Straßenoberflächenbereich definiert.
  • Dieses Beispiel hinterlässt jedoch die Probleme (1) bis (3) unten.
    • (1) Ein Hindernis, das von dem Boden entfernt ist, zum Beispiel eine Stoßstange, wird als Teil einer Straße erkannt, die entfernter als die tatsächliche Straße ist.
    • (2) Vertikale Kanten können leicht von Stereokameras erkannt werden, die rechts und links angeordnet sind, obwohl Abschnitte ohne Kanten und horizontale Kantenabschnitte nicht erkannt werden können. Insbesondere neigt die Grenze zu einem Hindernis, das von dem Boden entfernt ist, zum Beispiel einer Stoßstange, dazu, als eine Horizontalkante auf dem Bildschirm zu erscheinen.
    • (3) Obwohl eine Blickpunktwandlung von oben in diesem Beispiel nicht erwähnt wird, gibt es keinen Effekt der Verzerrungskorrektur für ein gewandeltes Bild eines Hindernisses.
  • Die Erfindung ist vorgeschlagen worden, um die Probleme des Standes der Technik bezüglich der Fahrunterstützungsvorrichtung zu lösen und zielt darauf ab eine Fahrunterstützungsvorrichtung bereitzustellen, die es dem Fahrer ermöglicht, die Situation um ein Hindernis intuitiv und genauer erkennen zu können, wodurch die Belastung des Fahrers reduziert wird.
  • Offenbarung der Erfindung
  • Eine Fahrunterstützungsvorrichtung gemäß der Erfindung hat eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist, eine Wandeleinrichtung zum Wandeln eines oder mehrerer Bilder, das bzw. die von der Bildaufnahmeeinrichtung aufgenommen wird bzw. werden, in ein Bild, das von einem virtuellen Blickpunkt bzw. Betrachtungspunkt oberhalb der Bildaufnahmeeinrichtung gesehen wird, oder in ein Bild, das von oben orthogonal projiziert wird, auf der Basis eines Straßenoberflächenmodells, eine Detektionseinrichtung zum Detektieren von dreidimensionalen Informationen, die andere als die über die Straßenoberfläche sind, auf der Basis einer Parallaxe zwischen Bildern, die durch die Bildaufnahmeeinrichtung aufgenommen werden, eine Verzerrungskorrektureinrichtung zum Korrigieren der Verzerrung einer Figur bzw. einer Abbildung in einem Bild, für das die Blickpunktswandlung auf der Basis der detektierten, dreidimensionalen Informationen durchgeführt wird, und eine Anzeigeeinrichtung zum Anzeigen eines Bildes, für das die Verzerrungskorrektur durchgeführt wird. Mit diesem Aufbau ist es möglich, dreidimensionale Informationen, die andere als die auf der Straßenoberfläche sind, auf der Basis der Parallaxe zwischen den Bildern, die von den Bildaufnahmemitteln aufgenommen werden zu detektieren und die Verzerrung des gewandelten Bildes zu korrigieren und das korrigierte Bild anzuzeigen.
  • Eine Fahrunterstützungsvorrichtung gemäß der Erfindung hat eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist, eine Wandeleinrichtung zum Wandeln eines oder mehrerer Bilder, das bzw. die durch die Bildaufnahmeeinrichtung aufgenommen wird bzw. werden, in ein Bild, das von einem virtuellen Betrachtungspunkt oberhalb einer Position der Bildaufnahmeeinrichtung gesehen wird, oder in ein Bild, das orthogonal von oben auf der Basis eines Straßenoberflächenmodells projiziert wird, eine Hindernisbereich-Detektionseinrichtung zum Detektieren eines Bereiches, wo eine Parallaxe zwischen den Bildern, die durch die Bildaufnahmemittel aufgenommen werden, nicht mit einer Parallaxe auf dem Straßenoberflächenmodell zusammenfällt, als einen Hindernisbereich. Mit diesem Aufbau ist es möglich, den Bereich, der nicht der Straßenoberfläche entspricht, als einen Hindernisbereich unter Verwendung der Parallaxe zwischen den Bildern, die durch die Bildaufnah meeinrichtung aufgenommen werden, und der Parallaxe auf einem Straßenoberflächenmodell zu detektieren.
  • Zudem hat die Fahrunterstützungsvorrichtung gemäß der Erfindung eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist, eine Wandeleinrichtung zum Wandeln eines oder mehrerer Bilder, das bzw. die durch die Bildaufnahmeeinrichtung aufgenommen wird bzw. werden, in ein Bild, das von einem virtuellen Blickpunkt über einer Position der Bildaufnahmeeinrichtung gesehen wird, oder in ein Bild, das von oben auf der Basis eines Straßenoberflächenmodells orthogonal projiziert wird, eine Hindernisbereich-Detektionseinrichtung zum Detektieren eines nicht übereinstimmenden Bereiches zwischen den gewandelten Bildern als einen Hindernisbereich, eine Überlagerungseinrichtung zum Überlagern des Hindernisbereiches in dem gewandelten Bild und eine Anzeigeeinrichtung zum Anzeigen des zusammengesetzten Bildes. Mit diesem Aufbau wird es ermöglicht, einen nicht-übereinstimmenden Bereich zwischen den gewandelten Bildern als einen Hindernisbereich zu detektieren und Signale, die den Hindernisbereich angeben, in dem gewandelten Bild zu überlagern und das sich ergebende Bild anzuzeigen.
  • Die Fahrunterstützungsvorrichtung gemäß der Erfindung hat eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist, eine Zwischenbild-Wandeleinrichtung zum Wandeln eines oder mehrerer Bilder, die durch die Bildaufnahmeeinrichtung aufgenommen werden, in ein Zwischenbild, in dem ein Abstand bzw, eine Entfernung und ein Winkel von der Bildaufnahmeeinrichtung Koordinaten auf der Basis eines Straßenoberflächenmodells sind, eine Hindernisbereich-Detektionseinrichtung zum Detektieren eines nicht zusammenpassenden bzw. nicht passenden Bereiches zwischen den gewandelten Bildern, die zwei Bilder in dem Bereich vergleicht, einen tatsächlichen Abstand ermittelt bzw. abschätzt, einen Abstand zu dem Bereich und ei ne Position des Bereiches in dem gewandelten Bild mit dem ermittelten Abstand korrigiert und den korrigierten Bereich als einen Hindernisbereich ausgibt, eine Überlagerungseinrichtung zum Überlagern des Hindernisbereiches in dem gewandelten Bild, eine Wandeleinrichtung zum Wandeln des zusammengesetzten Bildes in ein normales Koordinatenbild einer Straßenoberfläche und eine Anzeigeeinrichtung zum Anzeigen des gewandelten Bildes. Mit diesem Aufbau ist es möglich, den tatsächlichen Abstand eines nicht zusammenpassenden Bereiches zwischen Zwischenbildern unter Verwendung des Abstands und des Winkels von der Bildaufnahmeeinrichtung als Koordinaten zu ermitteln und die Position des Bereiches zu korrigieren, den korrigierten Bereich als einen Hindernisbereich zu detektieren, Signale zusammenzusetzen, die den Hindernisbereich angeben, das zusammengesetzte Bild in ein ordentliches Koordinatenbild zu wandeln und das resultierende Bild anzuzeigen.
  • Die Fahrunterstützungsvorrichtung gemäß der Erfindung hat eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist, eine Wandeleinrichtung zum jeweiligen Wandeln eines oder mehrerer Bilder, die durch die Bildaufnahmeeinrichtung aufgenommen werden, in ein Bild, das von einem virtuellen Blickpunkt oberhalb einer Position der Bildaufnahmeeinrichtung gesehen wird, oder ein von oben orthogonal projiziertes Bild, auf der Basis eines Straßenoberflächenmodells, und eine Anzeigeeinrichtung zum Anzeigen des gewandelten Bildes, worin die Wandeleinrichtung eine Stärke bzw. Intensität auf der Basis einer Größe jedes Pixels auf dem Straßenoberflächenmodell auf dem Bildschirm der Bildaufnahmeeinrichtung bestimmt und einen Winkel mit der Straßenoberfläche bestimmt und eine Helligkeit und eine Farbe der Pixel auf der Basis der Stärke bzw. Intensität variiert. Mit diesem Aufbau ist es möglich, die Helligkeit und die Farbe des Pixels auf der Basis der Größe jedes Pixels auf einem Straßenoberflächenmodell in dem Bildschirm der Bildaufnahmeeinrichtung und dessen Winkel mit der Straßenoberfläche zu ändern.
  • Eine Fahrunterstützungsvorrichtung gemäß der Erfindung hat eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist, eine Zwischenbild-Wandeleinrichtung zum Wandeln eines oder mehrerer Bilder, die durch die Bildaufnahmeeinrichtung aufgenommen werden, in ein Zwischenbild, in dem ein Abstand oder eine Höhe und ein Winkel von der Bildaufnahmeeinrichtung Koordinaten sind, auf der Basis eines Straßenoberflächenmodells und eines Zylindermodells, eine Hindernisbereich-Detektionseinrichtung zum Detektieren eines nicht-passenden Bereiches zwischen den gewandelten Bildern, die zwei Bilder in dem Bereich vergleicht, um einen tatsächlichen Abstand zu ermitteln, einen Abstand zu dem Bereich und eine Position des Bereiches in dem gewandelten Bild mit dem ermittelten Abstand korrigiert und den korrigierten Bereich als einen Hindernisbereich ausgibt, eine Überlagerungseinrichtung zum Überlagern des Hindernisbereiches in dem gewandelten Bild, eine Wandeleinrichtung zum Wandeln des zusammengesetzten Bildes in ein ordentliches bzw. normales Koordinatenbild einer Straßenoberfläche und eine Anzeigeeinrichtung zum Anzeigen des gewandelten Bildes. Mit dieser Konfiguration ist es möglich, den tatsächlichen Abstand eines unpassenden Bereiches zwischen Zwischenbildern unter Verwendung des Abstands und des Winkels von der Bildaufnahmeeinrichtung als Koordinaten zu ermittelt und die Position des Bereiches zu korrigieren, den korrigierten Bereich als einen Hindernisbereich zu detektieren, Signale zusammenzusetzen, die den Hindernisbereich angeben, das zusammengesetzte Bild in ein normales Koordinatenbild zu wandeln und das resultierende Bild anzuzeigen.
  • Eine Fahrunterstützungsvorrichtung gemäß der Erfindung hat Bildaufnahmemittel, die an einer mobilen Einheit angebracht sind, eine Zwischenbild-Wandeleinrichtung zum Wandeln eines Bildes, das von den Bildaufnahmemitteln aufgenommen wird, in ein Zwischenbild, in dem eine Ebene, die symmetrisch bezüglich einer geraden Linie, die zwischen den Bildaufnahmemitteln verbindet, als einer Achse ist, eine Projektionsebene ist, eine Hindernisbereich-Detektionseinrichtung zum Detektieren eines unpassenden Bereiches zwischen den gewandelten Bildern, die zwei Bilder in dem Bereich vergleicht, um einen tatsächlichen Abstand zu ermitteln, einen Abstand zu einem Bereich und eine Position des Bereiches in dem gewandelten Bild mit dem ermittelten Abstand korrigiert und den korrigierten Bereich als einen Hindernisbereich ausgibt, eine Überlagerungseinrichtung zum Überlagern des Hindernisbereichs in dem gewandelten Bild, eine Wandeleinrichtung zum Wandeln des zusammengesetzten Bildes in ein normales Koordinatenbild einer Straßenoberfläche und eine Anzeigeeinrichtung zum Anzeigen des gewandelten Bildes. Mit dieser Konfiguration ist es möglich, einen tatsächlichen Abstand eines unpassenden Bereichs in einem Zwischenbild zu ermitteln, das eine Ebene, die symmetrisch zu einer geraden Linie ist, die die Bildaufnahmeeinrichtungen oder Bildaufnahmemittel verbindet, als eine Projektionsebene verwendet, die Position des Bereiches zu korrigieren, den korrigierten Bereich als einen Hindernisbereich zu detektieren, Signale zusammenzustellen, die den Hindernisbereich in einem Zwischenbild angeben, das zusammengesetzte Bild in ein normales Koordinatenbild zu wandeln und das resultierende Bild anzuzeigen.
  • Eine Fahrunterstützungsvorrichtung gemäß der Erfindung hat eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist, eine Wandeleinrichtung zum Wandeln des Bildes, das von der Bildaufnahmeeinrichtung aufgenommen wird, in ein blickpunkt-gewandeltes Bild, das von einem virtuellen Blickpunkt aus gesehen wird, der unterschiedlich zu einer Position der Bildaufnahmeeinrichtung ist, eine Anzeigeeinrichtung zum Anzeigen eines Bildes, das von der Wandeleinrichtung gewandelt wird, worin die Bildaufnahmeeinrichtung eine Vielzahl von Bil dern aufnimmt, die eine vorgegebene Parallaxe haben, und worin die Anzeigeeinrichtung ein Bild anzeigt, das auf der Basis der Parallaxe korrigiert wird. Mit dieser Konfiguration ist es möglich, das Blickpunkt-gewandelte Bild auf der Basis der Parallaxe zwischen einer Vielzahl von Aufnahmebildern zu korrigieren und anzuzeigen.
  • Kurzbeschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm, das einen Aufbau einer Fahrunterstützungsvorrichtung gemäß einer ersten Ausführungsform der Erfindung zeigt;
  • 2A bis 2D sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der ersten Ausführungsform der Erfindung erläutern;
  • 3A bis 3D sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der ersten Ausführungsform der Erfindung erläutern;
  • 4A bis 4D sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der ersten Ausführungsform der Erfindung erläutern;
  • 5A bis 5D sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der ersten Ausführungsform der Erfindung erläutern;
  • 6 ist eine schematische Ansicht, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der ersten Ausführungsform der Erfindung erläutert;
  • 7 ist ein Blockdiagramm, das den Aufbau der Fahrunterstützungsvorrichtung gemäß der zweiten Ausführungsform der Erfindung erläutert;
  • 8A bis 8D sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der zweiten Ausführungsform der Erfindung erläutern;
  • 9A bis 9D sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der zweiten Ausführungsform der Erfindung erläutern;
  • 10A bis lOC zeigen Fotos von Beispielen von Vorteilen der Fahrunterstützungsvorrichtung gemäß der zweiten Ausführungsform der Erfindung;
  • 11A und 11B sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der zweiten Ausführungsform der Erfindung erläutern;
  • 12 ist ein Blockdiagramm, das den Aufbau einer Variation der Fahrunterstützungsvorrichtung gemäß der zweiten Ausführungsform der Erfindung erläutert;
  • 13 ist ein Blockdiagramm, das den Aufbau der Fahrunterstützungsvorrichtung gemäß einer dritten Ausführungsform der Erfindung zeigt;
  • 14 ist ein Blockdiagramm, das den Aufbau einer Variation der Fahrunterstützungsvorrichtung gemäß der dritten Ausführungsform der Erfindung zeigt;
  • 15A bis 15D sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der dritten Ausführungsform der Erfindung erläutern;
  • 16A bis 16D sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der dritten Ausführungsform der Erfindung und ihrer Variationen erläutern;
  • 17A bis 17D sind schematische Ansichten, die den Betrieb der Variation der Fahrunterstützungsvorrichtung gemäß der dritten Ausführungsform erläutern;
  • 18 ist ein Blockdiagramm, das den Aufbau der Fahrunterstützungsvorrichtung gemäß der vierten Ausführungsform der Erfindung zeigt;
  • 19 ist ein Blockdiagramm, das den Aufbau einer Variation der Fahrunterstützungsvorrichtung gemäß der vierten Ausführungsform der Erfindung zeigt; 20A bis 20D sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der vierten Ausführungsform der Erfindung und ihrer Variation erläutern;
  • 21 ist ein Blockdiagramm, das den Aufbau der Fahrunterstützungsvorrichtung gemäß der fünften Ausführungsform der Erfindung zeigt;
  • 22A und 22B sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der fünften Ausführungsform der Erfindung erläutern;
  • 23A bis 23D zeigen schematische Fotos, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der fünften Ausführungsform der Erfindung zeigen;
  • 24A und 24B sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der fünften Ausführungsform der Erfindung erläutern;
  • 25A bis 25C sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der fünften Ausführungsform der Erfindung erläutern;
  • 26 ist eine schematische Ansicht, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der fünften Ausführungsform der Erfindung erläutert;
  • 27 ist ein Flussdiagramm, das die Suchverarbeitung in der Fahrunterstützungsvorrichtung gemäß der fünften Ausführungsform der Erfindung erläutert;
  • 28A bis 28C sind schematische Ansichten, die den Aufbau einer Variation der Fahrunterstützungsvorrichtung gemäß der fünften Ausführungsform der Erfindung zeigen;
  • 29A bis 29C sind schematische Ansichten, die den Aufbau einer weiteren Variation der Fahrunterstützungsvorrichtung gemäß der fünften Ausführungsform der Erfindung zeigen;
  • 30A bis 30C zeigen eine Variation eines Stereokameraaufbau-Verfahrens gemäß der ersten bis fünften Ausführungsform der Erfindung;
  • 31A bis 31D sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung des Standes der Technik zeigen; und
  • 32A bis 32D sind schematische Ansichten, die die Probleme der Fahrunterstützungsvorrichtung des Standes der Technik aufzeigen.
  • In den Figuren gibt das Bezugszeichen 1001 eine Bildaufnahmeeinrichtung wieder, gibt 3002 eine Horizontalkanten-Gewinnungseinrichtung wieder, gibt 3003 eine Horizontalkanten-Gewinnungseinrichtung wieder, gibt 3004 eine Blocksetzeinrichtung wieder, gibt 3005 eine Sucheinrichtung wieder, gibt 3006 eine Unterpixel-Ermittlung/Zuverlässigkeit-Bestimmungseinrichtung wieder, gibt 3007 eine 3D-Kartenerzeugungseinrichtung wieder, gibt 3008 eine 3D-Bildzusammensetzungseinrichtung wieder, gibt 3009 eine Anzeigeeinrichtung wieder, gibt 3010 eine Standardparallaxe-Dateneinrichtung wieder, gibt 3011 eine Straßenoberfläche-Dateneinrichtung wieder, gibt 3012 eine Fahrzeugverhalten-Informationseinrichtung wieder, gibt 3013 eine Bildprojektionseinrichtung wieder, gibt 3014 eine Hinderniskantenabstandseinrichtung wieder, gibt 3015 eine Hindernisbereichseinrichtung wieder, gibt 3016 eine Überlagerungseinrichtung wieder, gibt 7013 eine Bildprojektionseinrichtung wieder, gibt 8001 eine Bildprojektionseinrichtung wieder, gibt 8002 eine Bildprojektionseinrichtung wieder, gibt 8003 eine Hindernisbereich-Detektionseinrichtung wieder, gibt 8004 eine Überlagerungseinrichtung wieder, gibt 8005 eine Linsenverzerrung-Korrektur/Abstand/Richtung-Bildeinrichtung wieder, gibt 8006 eine Linsenverzerrung-Korrektur/Abstand/Richtung-Bildeinrichtung wieder, gibt 8007 eine Kantenvergleichseinrichtung wieder, gibt 8008 eine Abstandsermittlungseinrichtung wieder, gibt 8009 eine Hindernisbereichseinrichtung wieder, gibt 8010 eine Abstand/Richtung-Straßenoberfläche-Wandeleinrichtung wieder, gibt 10001 eine Bildprojektionseinrichtung wieder, gibt 10002 eine Stärkenberechnungseinrichtung wieder, gibt 10005 eine Stärkenberechnungseinrichtung wieder, gibt 10006 eine Bildprojektionseinrichtung wieder, gibt 10007 eine Bildaufnahmevorrichtung wieder, gibt 13004 eine Überlagerungseinrichtung wieder, gibt 13004 eine Überlagerungseinrichtung wieder, gibt 13005 eine Linsenverzerrung-Korrektur/Abstand-Höhe/Richtung-Bildeinrichtung wieder, gibt 13006 eine Linsenverzerrung-Korrektur/Abstand-Höhe/Richtung-Bildeinrichtung wieder, gibt 13007 eine Kantengewinnungseinrichtung wieder, gibt 13008 eine Horizontalblockübereinstimmung/Abstand-Ermittlungseinrichtung wieder, gibt 13009 eine Hindernisgrenze-Einrichtung wieder und gibt 13012 eine Suchbereichdateneinrichtung 13012 wieder.
  • Bester Modus zum Ausführen der Erfindung
  • Ausführungsformen der Erfindung werden nachfolgend unter Bezug auf die Zeichnungen beschrieben.
  • Erste Ausführungsform
  • Die Fahrunterstützungsvorrichtung gemäß der ersten Ausführungsform der Erfindung ermöglicht dem Fahrer eines Fahrzeugs intuitiv und genau die Positionen der Hindernisse um das Fahrzeug herum und die Umgebungssituation zu erkennen, indem ein Bild, das von der Bildaufnahmeeinrichtung aufgenommen wird, in ein Bild gewandelt wird, das von einem virtuellen Betrachtungspunkt oberhalb gesehen ist, indem dreidimensionale Informationen, die andere als jene auf einer Straßenoberfläche sind, auf der Basis der Parallaxe zwischen Bildern detektiert werden, die durch eine Vielzahl von Bildaufnahmeeinrichtungen aufgenommen werden, indem die Verzerrung des gewandelten Bildes auf der Basis der dreidimensionalen Informationen korrigiert werden und indem das korrigierte Bild angezeigt wird.
  • 1 ist ein Blockdiagramm einer Fahrunterstützungsvorrichtung gemäß der ersten Ausführungsform der Erfindung. 2 bis 6 sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung erläutern.
  • Wie in 1 gezeigt ist, hat die Fahrunterstützungsvorrichtung gemäß der ersten Ausführungsform der Erfindung zwei Bildaufnahmeeinrichtungen 1001, 3001, Horizontalkantengewinnungseinrichtungen 3002, 3003 zum Gewinnen der Horizontalkante eines Bildes, das von der Bildaufnahmevorrichtung 1001 bzw. 3001 aufgenommen wird, eine Blocksetzeinrichtung 3004 zum Setzen des Blocks für eine Parallaxensuche unter Verwendung des Ausgangs der Horizontalkantengewinnungseinrichtung 3002, eine Sucheinrichtung 3005 zum Ausführen der Blocksuche auf der Basis des Ausgangs der Horizontalkantengewinnungseinrichtung 3003, des Ausgangs der Blocksetzeinrichtung 3004 und der Standardparallaxendaten 3010, die später erwähnt werden, eine Sub-Pixel-Ermittlung/Zuverlässigkeit-Bestimmungseinrichtung 3006 zum Ausgeben des Parallaxen- und Zuverlässigkeitsbestimmungsergebnisses mit Sub-Pixel-Genauigkeit von dem Ausgang der Sucheinrichtung 3005, eine 3D-Karte-Erzeugungseinrichtung 3007 zum Erzeugen einer 3D-Karte auf dem Bildschirm eines Bildes von der Bildaufnahmeeinrichtung 3001 auf der Basis des Ausgangs der Sub-Pixel-Ermittlung/Zuverlässigkeit-Bestimmungseinrichtung 3006, der Standardparallaxendaten 3010 und Straßenoberflächendaten 3011, die später erwähnt werden, eine 3D-Bildzusammensetzungseinrichtung 3008 zum Zusammensetzen eines Bildes, das von einem virtuellen Betrachtungspunkt bzw. Blickpunkt gesehen wird, auf der Basis eines Bildes von der Bildaufnahmeeinrichtung 3001 und seiner 3D-Karte auf dem Bildschirm und eine Anzeigeeinrichtung 3009 zum Anzeigen des Ausgangssignals der 3D-Bildzusammensetzungseinrichtung 3008.
  • Zudem hat die Fahrunterstützungsvorrichtung gemäß der ersten Ausführungsform der Erfindung eine Standardparallaxendateneinrichtung 3010, eine Straßenoberflächendateneinrichtung 3011 und eine Fahrzeugverhaltensinformationseinrichtung 3012.
  • Zwei Bildaufnahmeeinrichtungen 1001 und 3001 sind in Positionen angeordnet, die in 2A gezeigt sind. In diesem Beispiel sind die Einrichtungen in Positionen 10 cm voneinander entfernt auf einer geraden Linie 4001 in der Richtung rechtwinklig zu dem Boden angeordnet. Die Höhe der jeweiligen Einrichtung von dem Boden beträgt 100 cm bzw. 110 cm. Die jeweilige Richtung der Betrachtung bzw. des Blicks beträgt 40° nach unten bezüglich des Horizonts. Die Richtungen der Sichtlinien 4003 der beiden Bildaufnahmeeinrichtungen sind parallel zueinander. Der Bereich des Feldes 4001 jeder Bildaufnahmeeinrichtung beträgt 90° in der Vertikalrichtung (Richtung des Höhenwinkels).
  • Das Eingangsbild von den beiden Bildaufnahmeeinrichtungen 1001, 3001 sind Bilder, deren Positionen virtuell konstant in der Horizontalrichtung sind, aber in der Vertikalrichtung, wie in 2B bzw. 2C gezeigt ist, variieren. Die Bildaufnahmeeinrichtung 3001 ist in einer höheren Position als der Bildaufnahmeeinrichtung 1001 angeordnet. Die Position eines Horizonts als infiniter Punkt 4004 ist somit die gleiche auf dem Bildschirm, aber ein näherer Punkt (zum Beispiel ein Punkt 4005 auf einer weißen Linie auf einer Straßenoberfläche oder ein Punkt 4006 auf einer Stoßstange eines Fahrzeugs) ist niedriger als das Bild in 2B positioniert. Eine Änderung der Vertikalposition ergibt eine vertikale Parallaxe 4007 oder 4008, wie in 2B gezeigt ist, wo zwei Bilder überlagert sind. In diesem Beispiel gibt ein Bezugszeichen 4007 die Parallaxe einer weißen Linie auf einer Straßenoberfläche an, während ein Bezugszeichen 4008 die Parallaxe der Stoßstange eines Fahrzeugs über der Straßenoberfläche angibt.
  • Die Horizontalkantengewinnungseinrichtungen 3002, 3003, die in 1 gezeigt sind, gewinnen eine vertikale Kante der beiden Aufnahmebilder unter Verwendung des Betriebs des nachfolgenden Ausdrucks [1], worin L ein Helligkeitssignal eines Bildes wiedergibt, x eine horizontale Pixelposition wiedergibt und y eine vertikale Pixelposition wiedergibt. L'(x,y) = 2*L(x,y) – L(x,y – 1) – L(x,y + 1) Ausdruck [1]
  • Mittels dieses Betriebs, zum Beispiel in dem Bild von 2B, werden die Kanten (4009, 4010) der Stoßstange und die weiße Linie, die nahe zueinander horizontal auf dem Boden sind, hervorgehoben. Die Kanten (4011, 4012), die näher vertikal beieinander sind, werden geschwächt.
  • Die Blocksetzeinrichtung 3004 in 1 führt ein Blocksetzen für eine Parallaxensuche auf einem Bild durch, wobei eine horizontale Kante durch die Horizontalkantengewinnungseinrichtungen 3002, 3003 hervorgehoben wird. 3B erläutert das Blocksetzen. Der maximale Punkt und der minimale Punkt von L'(x,y), gezeigt im Ausdruck [1], werden in Übereinstimmung mit Abtastzeilen 4013 erhalten, die in der vertikalen Richtung alle zwei Pixel verlaufen. Die Blöcke 4014 der fünf vertikalen Pixel mal fünf horizontalen Pixel um diese Punkte werden gesetzt. Wie in 3B gezeigt ist, wird eine Vielzahl dieser Blöcke angeordnet, die sich gegenseitig auf der horizontalen Kante des Bildschirms überlappen.
  • Standardparallaxendaten 3010, die auf den Straßenoberflächendaten 3011 in 1 basieren, werden nachfolgend beschrieben. Dies ist ein Wert der Parallaxe, der im Vorhinein berechnet wird, unter der Annahme, dass beide Bildaufnahmeeinrichtungen 1001, 3001 die Straßenoberfläche aufnehmen, wie in 3C gezeigt ist. In 3C wird die Parallaxe eines Punktes 4015 auf der Straßenoberfläche als ein Winkel 4016 berechnet. 3D zeigt die Standardparallaxendaten auf dem Bildschirm. Während die Standardparallaxe 4017 der Position eines Horizonts an einem infiniten Punkt 4004 gleich 0 ist, wird die Standardparallaxe größer, wie durch 4018, 4019 gezeigt ist, wenn der Punkt näher kommt (niedriger auf dem Bildschirm wird). Der Punkt kommt noch näher, bis sich die Richtung der Sichtlinie der Bildaufnahmeeinrichtungen 1001, 3001 an die vertikale Richtung annähert. Dies reduziert die Standardparallaxe, wie durch das Bezugszeichen 4020 gezeigt ist.
  • Ein Objekt, das sich oberhalb einer Straßenoberfläche befindet erzeugt eine größere Parallaxe als die Standardparallaxe. Eine Sucheinrichtung 3005 in 1 führt deshalb eine Suche in der Richtung einer größeren Parallaxe aus, während die Standardparallaxe als ein Anfangswert der Suche verwendet wird.
  • Die obere Grenze der Suchparallaxe wird bestimmt wie folgt: Wie in 4A gezeigt ist, wird eine Parallaxe unter der Annahme einer Wand 4021, die 50 cm von einem Fahrzeug entfernt ist und rechtwinklig zum Boden ist, und einer Wand 4022 angenähert, die einen Winkel von 60 Grad bis gerade unterhalb der Bildaufnahmeeinrichtungen 1001, 3001 hat. Der Wert der Parallaxe 4023 auf dem Bildschirm wird als eine obere Grenze der Suchparallaxe angenommen.
  • Die Sucheinrichtung 3005 sucht nach einer Parallaxe DY, wobei ein Korrelationswert F, der in Ausdruck [2] unten gezeigt ist, das Maximum bezüglich eines Bildsignals L3' von der Bildaufnahmeeinrichtung 3001, was ein Fünf-mal-Fünf-Pixelsignal L'(x + j, y + i) betrifft, das durch die Blocksetzeinrichtung 3004 gesetzt wird, zwischen dem Anfangswert und dem oberen Grenzwert der Suche ist. F = ΣiΣjL'(x + j, y + i)*L3'(x + j, y + i + DY) Ausdruck [2] i = –2 bis 2, j = –2 bis 2)
  • Die Sub-Pixel-Ermittlung/Zuverlässigkeit-Bestimmungseinrichtung 3006 analysiert die Parallaxe DY und den Korrelationswert, der durch die Sucheinrichtung 3005 erhalten wird.
  • Die Sub-Pixel-Ermittlung/Zuverlässigkeit-Bestimmungseinrichtung 3006 bestimmt, dass das Verhältnis F/S des Korrelationswerts F und der Autokorrelationswert S des Blocksiignals L'(x + j, y + i), der erhalten wird unter Verwendung S = ΣiΣjL'(x + j, y + i)*L'(x + j, y + i) Ausdruck [3] :i = –2 bis 2, j = –2 bis 2), zuverlässig ist, wenn der Schwellenwert 0,75 oder mehr beträgt, und dass das Verhältnis F/S nicht zuverlässig ist, wenn der Schwellenwert kleiner als 0,75 ist.
  • Für einen Block, der als zuverlässig bestimmt wird, verwendet die Sub-Pixel-Ermittlung/Zuverlässigkeit-Bestimmungseinrichtung 3006, wie in 4B gezeigt ist, den Korrelationswert F um die pixel-basierende Parallaxe DY herum, um den maximalen Punkt 4025 einer Kurve 4024 zu erhalten, die unter Verwendung eines Ausdrucks zweiter Ordnung interpoliert wird, und nimmt die Position als die Parallaxe DY' mit Sub-Pixel-Genauigkeit an.
  • Die Sub-Pixel-Ermittlung/Zuverlässigkeit-Bestimmungseinrichtung 3006 gibt die Parallaxe DY' von Sub-Pixel-Genauigkeit und das Zuverlässigkeitsbestimmungsergebnis für jeden Block aus.
  • Die 3D-Kartenerzeugungseinrichtung 3007 erzeugt eine 3D-Karte auf dem Bildschirm eines Bildes von der Bildaufnahmeeinrichtung 3001 auf der Basis der Parallaxe DY' von Sub-Pixel-Genauigkeit und des Zuverlässigkeitsbestimmungsergebnisses für jeden Block als einen Ausgang von der Sub-Pixel-Ermittlung/Zuverlässigkeit-Bestimmungseinrichtung 3006, den Straßenoberflächendaten 3011 und den Standardparallaxendaten 3010.
  • Wie in 4C gezeigt ist, existiert eine horizontale Kante eines Bildes von der Bildaufnahmeeinrichtung 3001 in der Position 4026, wobei jeder Block, der als zuverlässig bestimmt wurde, um die Parallaxe DY' bewegt wird. Durch dieses Vorgehen, wie in 4D gezeigt ist, wird bestimmt, ob eine horizontale Kante 4027, wo die detektierte Parallaxe DY' mit den Standardparallaxendaten 3010 zusammenfällt, auf einer Straßenoberfläche existiert und ob eine unpassende, horizontale Kante 4028 über der Straßenoberfläche existiert. Die Kante, die als über der Straßenoberfläche existierend bestimmt wird, hat einen Abstand von der Bildaufnahmeeinrichtung 3001 in der Größe des Wertes der detektierten Parallaxe DY'.
  • Auf der Basis der Bestimmung und des erhaltenen Abstands wird eine 3D-Karte für den gesamten Bildschirm, wie in 5A gezeigt ist, erzeugt. Wie durch eine Abtastlinie 4032 gezeigt ist, wird der Bildschirm vertikal vom Boden abgetastet. Wenn bestimmt wird, dass ein spezifischer Bereich keine horizontale Kante hat, zum Beispiel wie ein Bereich 4029, oder über der Straßenoberfläche vorhanden ist, obwohl er eine horizontale Kante hat, wird bestimmt, dass der Bereich auf der Straßenoberfläche existiert und ein 3D-Abstand wird dem Bereich auf der Basis des Wertes der Straßenoberflächendaten 3011 gegeben. Zwischenzeitlich wird in einem Bereich 4030 zwischen Kanten, die als existierend über der Straßenoberfläche bestimmt werden, ein Wert erzeugt, der durch eine lineare Interpolation des Abstands zwischen den beiden Kanten erhalten wird. In einem Bereich über der Kante, die als über der Straßenoberfläche existierend bestimmt worden ist, sind die Abstandsdaten der Kante gegeben.
  • Die 3D-Bildzusammensetzungseinrichtung 3008 stellt ein Bild von einem Blickpunkt von oben auf der Basis eines Bildes von der Bildaufnahmeeinrichtung 3001 und der 3D-Karte des Bildes auf dem Bildschirm zusammen. Wie in 5B gezeigt ist, kann deshalb sogar bei einem Punkt 4033 über der Straßenoberfläche, zum Beispiel einer Stoßstange, die Position auf dem Bildschirm, die von einem virtuellen Blickpunkt aus gesehen wird, auf der Basis einer genauen 3D-Position bestimmt werden, und nicht die Position 4034 auf der Straßenoberfläche. Wie in 5C gezeigt ist, wird deshalb ein Bild in der genauen Position 4033 zusammengesetzt, und nicht in der Position 4034 auf der Straßenoberfläche. Andererseits wird ein Abschnitt hinter einem Fahrzeug durch schraffierte Linien angezeigt, wie durch den Bereich 4035 gezeigt ist.
  • Wie in einem Bereich 4036 in 5D gezeigt ist, ist es möglich, einen Bereich über einer Straßenoberfläche durch Verwendung eines roten, durchscheinenden Films oder durch Blinken hervorzuheben.
  • Das zusammengesetzte Bild wird auf einer Anzeigeeinrichtung 3009 angezeigt und der Fahrer kann die Position eines Hindernisses um das Fahrzeug herum intuitiv und genau erfassen.
  • Die Fahrzeuglageinformationseinrichtung 3012, die in 1 gezeigt ist, gibt Informationen über die Änderung der beobachteten Lage aus, wenn ein Fahrzeug mit Gepäck beladen ist bzw. wird oder beschleunigt wird. Die Straßenoberflächendateneinrichtung 3011, wie in 6 gezeigt ist, berechnet die geänderten Straßenoberflächenpositionsdaten 4038 aus den normalen Straßenoberflächenpositionsdaten 4037 für die Bildaufnahmeeinrichtungen 1001, 3001 in Antwort auf diese Informationen. Die geänderte Straßenoberfläche wird in der nachfolgenden Verarbeitung durch die Standardparallaxendateneinrichtung oder die 3D-Kartenerzeugungseinrichtung 3007 wiedergegeben. Im Ergebnis wird ein genaues Bild zusammengestellt, sogar wenn ein Fahrzeug mit Gepäck beladen wird oder wenn sich die Lage des Fahrzeugs durch eine Beschleunigung des Fahrzeugs ändert. Der Fahrer des Fahrzeugs kann die Position eines Hindernisses um das Fahrzeug herum intuitiv und genau zu jeder Zeit durch Beobachten dieses Bildes erfassen.
  • In der ersten Ausführungsform kann die Verzerrung bezüglich eines zusammengesetzten Bildes eines Hindernisses mit der Parallaxe zwischen den beiden Bildaufnahmeeinrichtungen 1001, 3001 durch Anordnen der Bildaufnahmeeinrichtungen 1001, 3001 mit einem vertikalen Abstand von 10 cm zwischen ihnen korrigiert werden. Dies hat den Vorteil, dass die Richtung eines Hindernisses nur gering durch irgendeine Fehlerspur in der Parallaxe beeinträchtigt bzw. beeinflusst wird, da der Abstand zwischen den beiden Bildaufnahmeeinrichtungen 1001, 3001 in der vertikalen Richtung ist, obwohl der Abstand des Hindernisses durch den Fehler etwas beeinflusst wird. Dies ist sehr wichtig, wenn ein Fahrzeug gefahren wird.
  • Durch Anordnen der Bildaufnahmeeinrichtungen 1001, 3001 mit einem vertikalen Abstand von 10 cm dazwischen ist es möglich, die nachfolgende Parallaxen-Detektionsverarbeitung auf den Kantenabschnitt zu begrenzen, der durch die Horizontalkantendetektionseinrichtung detektiert wird, wodurch das Verarbeitungsvolumen stark reduziert wird. Ein Abschnitt eines Fahrzeugs über einer Straßenoberfläche, zum Beispiel eine Stoßstange eines Fahrzeugs, hat eine horizontale Kante auf dem Bildschirm derart, dass die begrenzte Verarbeitung für diesen Abschnitt irgendein Hindernis ohne Fehler detektieren kann.
  • Auf diese Art und Weise kann gemäß der ersten Ausführungsform der Erfindung der Abstand zu und die Richtung von einem Hindernisbereich besser lesbar und genauer wiedergegeben werden, indem ein Bild, das durch die Bildaufnahmeeinrichtung aufgenommen wird, die an einer mobilen Einheit angebracht ist, in ein Bild korrigiert wird, das von einem virtuellen Betrachtungspunkt über der Bildaufnahmeeinrichtung gesehen wird, indem dreidimensionale Informationen über das, was nicht auf der Straßenoberfläche ist, auf der Basis der Parallaxe zwischen den Bildern detektiert werden, die durch eine Vielzahl von Bildaufnahmeeinrichtungen aufgenommen werden, indem die Verzerrung des gewandelten Bildes auf der Basis der detektierten dreidimensionalen Informationen korrigiert wird und indem das korrigierte Bild angezeigt wird. Der Fahrer des Fahrzeugs kann somit die Positionen der Hindernisse um das Fahrzeug und die Umgebungssituation durch Beobachten des angezeigten Bildes überprüfen.
  • Zweite Ausführungsform
  • Die Fahrunterstützungsvorrichtung gemäß der zweiten Ausführungsform der Erfindung ermöglicht, dass der Fahrer eines Fahrzeugs intuitiv und sicher die Positionen der Hindernisse um das Fahrzeug herum und die Umgebungssituation erkennen kann, indem ein Bild, das von der Bildaufnahmeeinrichtung aufgenommen wird, die an einer mobilen Einheit angebracht ist, gewandelt wird, indem ein Bild, das durch die Bildaufnahmeeinrichtung aufgenommen wird, in ein Bild gewandelt wird, das durch eine Orthogonalprojektion von oben erhalten wird, indem der Bereich, der nicht der Straßenoberfläche entspricht, als ein Hindernisbereich unter Verwendung der Parallaxe zwischen den Bildern, die durch die Vielzahl von Bildaufnahmeeinrichtungen aufgenommen werden, und der Parallaxe auf einem Straßenoberflächenmodell detektiert wird, indem Signale, die den Hindernisbereich angeben, mit den gewandelten Bildsignalen zusammengestellt werden, und indem das sich ergebende Bild angezeigt wird.
  • 7 ist ein Blockdiagramm einer Fahrunterstützungsvorrichtung gemäß der zweiten Ausführungsform der Erfindung. 8 bis 11 sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der zweiten Ausführungsform der Erfindung erläutern. 12 ist ein Blockdiagramm, das den Aufbau einer Variation der Fahrunterstützungsvorrichtung gemäß der zweiten Ausführungsform der Erfindung zeigt. Blockelemente, denen die gleichen Bezugszeichen wie jene in 1, in den Blockdiagrammen in 7 und 12 gegeben sind, haben den gleichen Aufbau und die gleichen Merkmale wie jene in 1.
  • Die Fahrunterstützungsvorrichtung gemäß der zweiten Ausführungsform der Erfindung hat eine Bildprojektionseinrichtung 3013, eine Hinderniskantenabstandseinrichtung 3014, eine Hindernisbereichseinrichtung 3015 und eine Überlagerungseinrichtung 3016. Die Fahrunterstützungsvorrichtung unterscheidet sich von der Fahrunterstützungsvorrichtung gemäß der ersten Ausführungsform darin, dass die Erstere keine 3D-Kartenerzeugungseinrichtung und keine 3D-Bildzusammensetzungseinrichtung hat.
  • Die Bildprojektionseinrichtung 3013 stellt ungleich der 3D-Bildzusammensetzungseinrichtung 3008 in 1 ein eingegebenes Bild von der Bildaufnahmeeinrichtung 3001 zusammen, wenn das Bild in einer Position vorhanden ist, wo das Bild auf eine Straßenoberfläche projiziert wird, wie in 8A gezeigt ist, auf der Basis der Daten der Straßenoberflächendateneinrichtung 3011. Der Blickpunkt, der verwendet wird, ist nicht ein virtueller Blickpunkt in der ersten Ausführungsform. Ein Bild, das durch die orthogonale Projektion gerade von oben erhalten wird, wird zusammengesetzt, wie durch den Blickpunkt 6001 in 8A gezeigt ist. Das sich ergebende, zusammengesetzte Bild, das erhalten wird, ist verzerrt, wie z. B, ein Stoßstangenpunkt 6002 des Fahrzeugs über einer Straßenoberfläche an einem weiter entfernten Punkt 6003 in dem Bild existiert, wie in 8B gemeinsam mit dem Stand der Technik gezeigt ist.
  • Die Hinderniskantenabstandseinrichtung 3014 ähnlich zu der 3D-Kartenerzeugungseinrichtung gemäß der ersten Ausführungsform, detektiert eine Kante, die über einer Straßenoberfläche existiert, als eine Hinderniskante auf der Basis der Parallaxe zwischen den horizontalen Kanten von zwei Bildern, die in 8C gezeigt sind, und die durch die Sub-Pixel-Ermittlung/Zuverlässigkeit-Bestimmungseinrichtung 3006 erhalten werden, wo durch der Abstand von der Bildaufnahmeeinrichtung 3001 berechnet wird. Wie durch eine Abtastlinie 6006 von 8C gezeigt ist, wird der Bildschirm in vertikaler Richtung vom Boden abgetastet und in dem Fall, dass eine Hindernislinie auf der vertikalen Linie existiert, wird der minimale Wert des Abstands der Hindernislinie gespeichert und pro vertikaler Linie ausgegeben.
  • Die Hindernisbereichseinrichtung 3015, wie in 8D gezeigt ist, setzt eine Position 6008, wo der minimale Wert des Abstands einer Hindernislinie pro vertikaler Linie des Ausgangs von der Hinderniskantenabstandseinrichtung 3014 auf eine Straßenoberfläche projiziert wird, und einen weiter entfernten Bereich 6009 als einen Hindernisbereich zusammen.
  • Die Überlagerungseinrichtung 3016 schreibt einen Befehl auf einer Schicht, die nicht dem zusammengesetzten Bild entspricht, und überlagert die zusammengesetzten Bilder in 8B und 8D, um ein neues zusammengesetztes Bild ausbilden zu können, wie in 9A gezeigt ist. Der Hindernisbereich 6009 wird als roter, durchscheinender Film in dem Bild in einem Bereich zusammengesetzt, wo das Fahrzeug in 8B vorhanden ist.
  • Der Ausgang der Überlagerungseinrichtung 3016 wird auf der Anzeigeeinrichtung 3009 angezeigt. Der Fahrer versteht die Position der weißen Linien auf der Straßenoberfläche und den Abstand zu und die Richtung von einem Hindernis, zum Beispiel einem anderen Fahrzeug, von dem Fahrzeug durch Beobachten dieses Bildes. Dies ermöglicht dem Fahrer, das Fahrzeug mit einer erheblich größeren Sicherheit und Genauigkeit zu fahren als in den Beispielen des Standes der Technik.
  • In der zweiten Ausführungsform muss ungleich der ersten Ausführungsform ein eingegebenes Bild nicht in eine 3D-Karte zu sammengesetzt werden, die mit Echtzeit variiert, aber muss einer Projektionswandlung in ein vorgegebenes Straßenoberflächenmodell unterzogen werden, wodurch die Implementation in einer Betriebsschaltung leicht gemacht wird.
  • Die Hinderniskantenabstandseinrichtung 3014 und die Hindernisbereichseinrichtung 3015 analysieren nur den minimalen Wert der Hindernislinie pro Vertikallinie, was ungleich zu der 3D-Kartenerzeugungseinrichtung 3007 ist. Dies hat den Vorteil, dass die Verarbeitung relativ einfach ist.
  • Dementsprechend hat die zweite Ausführungsform gegenüber der ersten Ausführungsform einen Vorteil darin, dass die Implementation in einer Betriebsschaltung erheblich einfacher ist. In der zweiten Ausführungsform erfasst wie in der ersten Ausführungsform der Fahrer genau die Position der weißen Linien auf der Straßenoberfläche und den Abstand zu einem Hindernis und die Richtung eines Hindernisses, zum Beispiel eines anderen Fahrzeugs, von dem Fahrzeug durch Beobachten des angezeigten Bildes. Dies ermöglicht, dass der Fahrer das Fahrzeug mit einer erheblich größeren Sicherheit und Genauigkeit fahren kann, als es in den Beispielen des Standes der Technik der Fall ist.
  • Wie in 9B gezeigt ist, kann nur die Position, wo der minimale Wert des Abstands einer Hindernislinie auf eine Straßenoberfläche projiziert wird, und auch der Hindernisbereich 6009 als eine Grenze angezeigt werden. In diesem Fall kann der Fahrer den Abstand zu einem Hindernis und die Richtung eines Hindernisses auch derart genau erfassen, dass er/sie das Fahrzeug sicher und genau fahren kann.
  • 10A bis lOC sind Beispiele, die den Vorteil von 9B in dem tatsächlichen Aufnahmebild zeigen. 10A zeigt ein Bild, das von einer Rückseitenkamera des Fahrzeugs beim Parken aufgenommen wird. In diesem Beispiel wird eine Fischauge-Linse bzw. Fish-eye-Linse verwendet, um einen weiten Bereich abbilden zu können. Dieses Bild enthält Raum, in den das Fahrzeug einparkt, einen Lastkraftwagen auf der linken Seite und ein Auto auf der rechten. 10B zeigt ein Bild, das unter Verwendung eines Aufnahmebildes von 10A mittels des Standes der Technik zusammengesetzt wird. Die Computergrafik der Situation des Parkplatzes, gesehen von oben, und des Fahrzeugs auf der linken Seite wird ausgebildet. Hier werden die weißen Linien auf der Straßenoberfläche in genauen Positionen derart zusammengesetzt, dass der Fahrer die Beziehung zwischen dem Fahrzeug und dem Parkraum genau erfassen kann. Jedoch, was oberhalb der Straßenoberfläche ist, wird derart abgebildet, als wäre es weiter entfernt als die tatsächliche Position. Obwohl ein ausreichender Raum zwischen dem Lastwagen und dem Fahrzeug in diesem Bild bereitgestellt ist, besteht tatsächlich eine Kollisionsgefahr. lOC zeigt ein Beispiel des Zusammensetzens in dieser Ausführungsform und zeigt den Abstand zu einem Hindernis unter Verwendung einer weißen Linie. Die weiße Linie ermöglicht, dass der Fahrer den aktuellen Abstand zu dem Lastkraftwagen auf einen Blick überprüfen kann und dass der Fahrer eine Berührungsgefahr erkennt, wenn er/sie das Fahrzeug weiter nach hinten fährt.
  • 9C ist ein Beispiel, in dem die Höhe der Hindernislinie von der Straßenoberfläche und auch der Minimalwert des Abstands gespeichert werden und in dem die Farbe und die Stärke der angezeigten Grenze in Abhängigkeit von der Höhe von der Straßenoberfläche geändert wird. In diesem Beispiel ist eine Hindernislinie 10 cm oder weniger in der Höhe in einer gelben dünnen Linie, von 10 bis 15 cm in einer roten dünnen Linie und von 20 cm oder mehr in einer roten, dicken Linie wiedergegeben. Wenn dies gemacht wird, erscheint die weiße Linie 6012, die aufgrund des Versatzes des Straßenoberflächenmodells von dem tatsächlichen Modell detektiert wird, zum Beispiel in dem Fall, dass die Straßenoberfläche sich ein wenig wölbt, in ei ner gelben, dünnen Linie. Eine niedrige Behinderung bzw. Begrenzung 6011 kleiner als 15 cm in der Höhe tritt als eine rote, dünne Linie auf und eine Grenze 6010, die ein Hindernis wiedergibt, zum Beispiel ein anderes Fahrzeug,tritt als rote, dicke Linie auf. Im Ergebnis kann der Fahrer ein Haupthindernis zuerst so wahrnehmen, dass der Einfluss einer Störung, die durch eine rauhe Straße verursacht wird, minimiert werden kann.
  • Zudem kann die Grenze 6010 eines Bereiches bei einer bestimmten Höhe oder darüber (entsprechend einem Hindernis) auf dem Bildschirm des zusammengesetzten Bilds derart blinken, dass die Aufmerksamkeit des Fahrers weiter angezogen wird.
  • Wie in 9D gezeigt ist, kann der Wert des Abstands zu einer Linie 6013, die rechtwinklig zu der Richtung des Abstands von dem Fahrzeug ist, die durch den allernächsten Punkt zu der Grenze 6010 eines Bereiches bei einer gewissen Höhe oder darüber hindurchgeht, in dem numerischen Wert 6014 angezeigt werden, damit der Fahrer den tatsächlichen Abstandswert erkennen kann.
  • Zudem müssen die beiden Aufnahmeeinrichtungen nicht auf einer geraden Linie in der vertikalen Richtung, wie in 11A gezeigt ist, angeordnet sein. Im Fall der Anordnung von 11A, obwohl der Punkt 7001 der Stoßstange eines hinteren Fahrzeugs, das in naher Nachbarschaft ist, ein blinder Fleck ist und nicht von der oberen Bildaufnahmeeinrichtung 3001 gesehen werden kann, kann das Bild der Straßenoberfläche dieses Abschnitts durch die Straßenoberflächenprojektion wie im Stand der Technik unter Verwendung eines Bildes zusammengesetzt werden, das durch die Bildaufnahmeeinrichtung 1001 erhalten wird, wie durch die Bildprojektionseinrichtung 7013 gezeigt ist.
  • In diesem Fall tritt wie im Stand der Technik ein Versatz der tatsächlichen Stoßstangenposition gegenüber dem zusammengesetzten Bild auf, obwohl die Stoßstangenposition in einer Richtung 7002 ausreichend unterhalb gesehen von der Bildaufnahmeeinrichtung 1001 ist, weshalb der Versatz klein ist.
  • Als obere Bildaufnahmeeinrichtung 3001, die für eine Bildzusammensetzung durch die Straßenoberflächenprojektion verwendet wird, kann eine Farbkamera mit einer hohen Auflösung von 1024 × 768 Pixel verwendet werden. Als untere Bildaufnahmeeinrichtung 1001 zur Detektion der Parallaxe kann eine monochrome Kamera mit 640 × 480 Pixel Auflösung verwendet werden. Dies reduziert die Kosten der unteren Bildaufnahmeeinrichtung 1001, während ein Farbzusammensetzungsbild hoher Auflösung erhalten wird.
  • Wie in 11B gezeigt ist, kann die obere Bildaufnahmeeinrichtung 3001 entfernte Bereiche mit einer hohen Auflösung aufnehmen, während die untere Bildaufnahmeeinrichtung 1001 die nahen Bereiche mit einer hohen Auflösung aufnehmen kann. Zur gleichen Zeit, wie durch die Bildprojektionseinrichtung 7013 in dem Blockdiagramm von 12 gezeigt wird, kann ein Bildsignal von der Bildaufnahmeeinrichtung 3001 für die Zusammensetzung der Straßenoberfläche in entfernten Bereichen verwendet werden, während ein Bildsignal von der Bildaufnahmeeinrichtung 1001 für die Zusammensetzung der Straßenoberfläche in nahen Bereichen verwendet werden kann.
  • Auf diese Art und Weise ist es gemäß der zweiten Ausführungsform der Erfindung möglich, intuitiv und genau die Positionen von Hindernissen um das Fahrzeug herum und die Umgebungssituation zu erkennen, indem ein Bild, das durch eine Bildaufnahmeeinrichtung aufgenommen wird, die an einer mobilen Einheit angebracht ist, in ein Bild gewandelt wird, das durch eine Orthogonalprojektion von oben erhalten wird, indem der Be reich, der nicht der Straßenoberfläche entspricht, als ein Hindernisbereich durch Verwenden der Parallaxe zwischen den Bildern, die durch eine Vielzahl von Bildaufnahmeeinrichtungen aufgenommen werden, und der Parallaxe auf ein Straßenoberflächenmodell detektiert wird, indem Signale, die den Hindernisbereich angeben, in die Bildsignale gewandelt werden und indem das sich ergebende Bild angezeigt wird.
  • Dritte Ausführungsform
  • Die Fahrunterstützungsvorrichtung gemäß der dritten Ausführungsform der Erfindung ermöglicht dem Fahrer eines Fahrzeugs, dass er intuitiv und genau die Positionen der Hindernisse um das Fahrzeug herum und die Umgebungssituation erkennen kann, indem ein Bild, das von einer Bildaufnahmeeinrichtung aufgenommen wird, die an einer mobilen Einheit angebracht ist,, in ein Bild gewandelt wird, das von einem virtuellen Blickpunkt oberhalb gesehen ist, indem ein unpassender bzw. nicht übereinstimmender Bereich zwischen den gewandelten Bildern als ein Hindernisbereich detektiert wird, indem Signale, die den Hindernisbereich angeben, in die gewandelten Bildsignale zusammengesetzt werden, und indem das resultierende Bild angezeigt wird.
  • 13 ist ein Blockdiagramm einer Fahrunterstützungsvorrichtung gemäß der dritten Ausführungsform der Erfindung. 14 ist ein Blockdiagramm, das eine Änderung von 13 zeigt. 15 bis 17 sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der dritten Ausführungsform der Erfindung erläutern. In 13 und 14 haben Blockelemente, denen gleiche Bezugszeichen wie jene in 7 gegeben sind, den gleichen Aufbau und Merkmale wie jene in 7.
  • In dieser Ausführungsform, wie in 15A gezeigt ist, werden wie bei der ersten Ausführungsform und der zweiten Ausführungsform Bilder von zwei Bildaufnahmeeinrichtungen 1001, 3001 eingegeben, die vertikal mit vorgegebenem Abstand zueinander angeordnet sind. Die zwei Bilder werden mit Bildern von einem virtuellen Betrachtungspunkt 1002 zusammengesetzt, um zusammengesetzte Bilder in einer Position ausbilden zu können, die auf eine Straßenoberfläche auf der Basis der Daten von der Straßenoberflächendateneinrichtung 3011 in den Bildprojektionseinrichtungen 8001 bzw. 8002 projiziert werden.
  • Bei dieser Ausführungsform wird ein Punkt 9001 einer Stoßstange eines hinteren Fahrzeugs, die über einer Straßenoberfläche angeordnet ist, in einer Richtung 9002 von der unteren Bildaufnahmeeinrichtung 1001 gesehen, wenn er auf die Straßenoberfläche projiziert wird, und in einer weiter entfernten Richtung 9003 von der unteren Bildaufnahmeeinrichtung 1001. In jeweiligen zusammengesetzten Bildern werden weiße Linien auf einer Straßenoberfläche in der gleichen Position, wie in 15B und 15C gezeigt ist, ausgebildet, während der Punkt 9001 einer Stoßstange eines hinteren Fahrzeugs, die über der Straßenoberfläche positioniert ist, in einer unterschiedlichen Position ausgebildet wird.
  • Die Hindernisbereichdetektionseinrichtung 8003 erhält den Unterschied zwischen den beiden zusammengesetzten Bildern und detektiert einen Bereich, in dem ein Unterschied, der ein bestimmtes Maß überschreitet, als ein Hindernisbereich aufgefunden wird. Die Bereiche werden derart detektiert, dass Abschnitte, die horizontale Kanten über einer Straßenoberfläche in den original aufgenommenen Bildern haben, als ein Bereich 9004 und ein Bereich 9005 auftreten, wie in 15D gezeigt ist.
  • Die Überlagerungseinrichtung 8004, wie in 16A gezeigt ist, überlagert den Hindernisbereich, der in 15D gezeigt ist, dem Bild, das in 15B gezeigt ist, um ein zusammengesetztes Bild auszubilden. Bei dieser Ausführungsform werden die Hindernisbereiche 9004, 9005 als rote, durchleuchtende Filme in dem Bild in einem Bereich zusammengesetzt, wo ein Fahrzeug in 15D existiert.
  • Die Anzeigeeinrichtung 3009 zeigt den Ausgang der Überlagerungseinrichtung 8004 an. Der Fahrer beobachtet das zusammengesetzte Bild, um weiße Linien auf einer Straßenoberfläche von Hindernissen genau unterscheiden zu können, was ungleich den Beispielen des Standes der Technik ist. Der Fahrer kann genau die Richtung eines Hindernisses, zum Beispiel eines anderen Fahrzeugs von dem Fahrzeug unterscheiden, obwohl der Abstand zu dem anderen Fahrzeug nicht genau in dem Bild ist. Dies ermöglicht, dass der Fahrer das Fahrzeug sicherer als in den Beispielen des Standes der Technik fahren kann.
  • Änderungen der dritten Ausführungsform werden unter Bezugnahme auf 14, 16B bis 16D und 17A bis 17D beschrieben. Aufgenommene Bilder von den Bildaufnahmeeinrichtungen 1001, 3001 werden in Bilder in Koordinaten gewandelt, die unter Verwendung des Abstands R von den Bildaufnahmeeinrichtungen und der Richtung Θ der Bildaufnahmeeinrichtungen entwickelt werden, die verwendet werden, wenn die Bilder auf eine Straßenoberfläche, wie in 16B, durch die Linsenverzerrung-Korrektur/Abstand/Richtung-Bildeinrichtungen 8005 bzw. 8006 projiziert werden. In dem Fall, dass eine Linsenverzerrung oder einer Verzerrung, die durch den Anbringungswinkel verursacht wird, in dem aufgenommenen Bild enthalten ist, wird der Verzerrungswert bzw. -betrag im Vorhinein zur Korrektur beim Ablauf der Wandlung gemessen. Die Bilder in Koordinaten, die unter Verwendung des Abstands R und der Richtung θ entwickelt werden, sind jeweils in 16C und 16D gezeigt. Ein Bild von der Bildaufnahmeeinrichtung 3001 ist in 16C gezeigt. Ein Bild von der Bildaufnahmeeinrichtung 3001 ist in 16D gezeigt. Weiße Linien auf einer Straßenoberfläche werden in den gleichen Positionen ausgebildet, während die Kantenposition, zum Beispiel jene der Stoßstange, in einer weiter entfernten Position in 16D als in 16C ausgebildet wird.
  • Die Kantenvergleichseinrichtung 8007 vergleicht die Kantenpositionen in Übereinstimmung mit den Abtastlinien 9008 in 16C und 16D. Die Kante in einem Bild auf der Abtastlinie 9008 ist in 17A gezeigt. In dieser Figur wird ein Kantensignal entsprechend der 16C durch ein Bezugszeichen 9009 wiedergegeben und ein Kantensignal entsprechend der 16D wird durch ein Bezugszeichen 9010 wiedergegeben. Wenn die Kante 9011 auf dem Kantensignal 9009 in Übereinstimmung mit der Abtastlinie detektiert wird, wird eine Kante 9012 auf dem Kantensignal 9010, die in der gleichen Position vorhanden ist, ignoriert, da sie eine Kante auf der Straßenoberfläche ist. Wenn die Kante 9013 auf dem Kantensignal 9009 detektiert wird und eine Kante auf dem Kantensignal 9010 in der gleichen Position fehlt, wird ein Abstand d zu der nächsten detektierten Kante 9014 detektiert. Der Abstand R1 zu der Kante 9013 in diesem Fall und der Abstand d von der Kante 9013 zu der Kante 9014 werden zu der Abstandsermittlungseinrichtung 8008 ausgegeben.
  • Die Abstandsermittlungseinrichtung 8008 ermittelt den aktuellen Abstand auf der Basis des Abstands zur Kante 9013 und des Abstands d von der Kante 9013 zur Kante 9014. 17B zeigt die Beziehung. Unter der Annahme, dass die Höhe der Bildaufnahmeeinrichtung 1001 H1 ist und dass der Unterschied der Höhe von der Bildaufnahmeeinrichtung 1001 zu der Bildaufnahmeeinrichtung 3001 Hd ist, wird die Beziehung zwischen der tatsächlichen Höhe H des Punktes und dem Abstand R' aus dem eingege benen R1 und d in den beiden relationalen Ausdrücken [4] und [5] erhalten. H*R1 = (H1 + Hd)*(R1 – R') Ausdruck [4] H*(Rl + d) = H1*(Rl + d – R') Ausdruck [5]
  • Aus diesen relationalen Ausdrücken werden die aktuelle Höhe des Punktes und der Abstand R' wie in den nachfolgenden Ausdrücken [6] und [7] ermittelt. R' = Rl*(R1 + d)*Hd/{Rl*Hd + d*(H1 + Hd)} Ausdruck [6] H = H1*(H1 + Hd)*d/{Hd*R1 + (H1 + Hd)*d} ... Ausdruck [7]
  • Die ermittelte Höhe H und der Abstand R' werden zu der Hindernisbereichseinrichtung 8009 ausgegeben.
  • Wenn der Abstand R', der mit der Höhe H erhalten wird, die eine Schwelle überschreitet, eingegeben wird, zieht die Hindernisbereichseinrichtung 8009 eine Linie an dem Abstand R' auf der Abtastlinie 9008, wie in 17C gezeigt ist, und bestimmt jeden weiter entfernten Bereich als einen Hindernisbereich.
  • Die Überlagerungseinrichtung 8004 überlagert den Hindernisbereich auf 16C als ein gewandeltes Bild von der Bildaufnahmeeinrichtung 3001, wie in 17C gezeigt ist.
  • Die Abstand/Richtung-Straßenoberfläche-Wandeleinrichtung 8010 wandelt die Koordinaten des sich ergebenden Bildes, das unter Verwendung eines Abstands zu und einer Richtung von einem normalen Bild einer Straßenoberfläche entwickelt wird, gesehen von oben, und gibt dann das Bild zu der Anzeigeeinrichtung 3009 aus.
  • Ein Bild, das auf der Anzeigeeinrichtung 3009 angezeigt wird, tritt als ein Hindernisbereich in der Position des tatsächlichen Abstands R1 auch dann auf, wenn das Hindernis über einer Straßenoberfläche ist, zum Beispiel eine Stoßstange. Der Fahrer beobachtet die Anzeige, um das Fahrzeug sicher fahren zu können.
  • Diese Ausführungsform hat die nachfolgenden Vorteile (1) bis (4).
    • (1) Wenn ein Bild in Koordinaten gewandelt wird, die in Form eines Abstands und einer Richtung entwickelt werden, kann eine Linsenverzerrung oder eine Verzerrung aufgrund eines Anbringungswinkels korrigiert werden.
    • (2) Wenn eine Parallaxe direkt zwischen zwei eingegebenen Bildern detektiert wird, müssen entsprechende Verzerrungen getrennt betrachtet werden. In dieser Ausführungsform kann dieser Vorgang weggelassen werden.
    • (3) Auch wenn der Feldwinkel zwischen zwei Bildaufnahmeeinrichtungen differiert, kann der Einfluss des Unterschieds durch diesen Betrieb absorbiert werden.
    • (4) In dem Fall, dass Kanten miteinander nach der Bildprojektion auf die Straßenoberfläche verglichen werden, muss ein Kantenvergleich in Form des Abstands und der Richtung auftreten. Der Abstand und die Richtung sind nicht konstant in einem Bild, das auf die Straßenoberfläche projiziert wird, so dass ein Speicherzugriff in der tatsächlichen Hardware mühsam ist. Dies gilt auch für die Bestimmung eines Hindernisbereichs, da der Abstand und die Richtung nicht konstant sind. In dieser Ausführungsform wird ein Kantenvergleich ausgeführt und ein Hindernisbereich wird mit dem Bild bestimmt, das in Koordinaten gewandelt wird, die in der Form des Abstands und der Rich tung entwickelt werden. Der Abstand und die Richtung werden als Koordinatenachsen in dem gewandelten Bild derart verwendet, dass der zuvor erwähnte Betrieb leicht in der arbeitenden Hardware ausgeführt werden kann.
  • Auf diese Art und Weise werden gemäß der dritten Ausführungsform der Abstand und die Richtung eines Hindernisses lesbarer und genauer wiedergegeben, indem ein Bild, das durch eine Bildaufnahmeeinrichtung aufgenommen wird, die an einer mobilen Einheit angebracht ist, in ein Bild gewandelt wird, das von einem virtuellen Betrachtungspunkt von oben gesehen wird, indem ein nicht-übereinstimmender bzw. unpassender Bereich zwischen den gewandelten Bildern als ein Hindernisbereich detektiert wird, indem Signale, die den Hindernisbereich angeben, zu gewandelten Bildsignalen zusammengestellt werden und indem das sich ergebende Bild angezeigt wird. Der Fahrer kann somit intuitiv und genauer die Positionen der Hindernisse um das Fahrzeug und die Umgebungssituation durch Beobachten des angezeigten Bildes erkennen.
  • Vierte Ausführungsform
  • Die Fahrunterstützungsvorrichtung gemäß der vierten Ausführungsform der Erfindung ermöglicht, dass der Fahrer eines Fahrzeugs zuverlässigere Abschnitte und weniger zuverlässige Abschnitte intuitiv erfassen kann, indem ein Bild, das durch eine Bildaufnahmeeinrichtung aufgenommen wird, die an einer mobilen Einheit angebracht ist, in ein Bild gewandelt wird, das von einem virtuellen Betrachtungspunkt von oben gesehen wird, und indem ein genauer Abschnitt mit geringerer Verzerrung in ein helles Bild und ein ungenauer Abschnitt mit einer großen Verzerrung in ein dunkles Bild umgesetzt werden.
  • 18 ist ein Blockdiagramm der Fahrunterstützungsvorrichtung gemäß der vierten Ausführungsform der Erfindung. 19 ist ein Blockdiagramm, das eine Änderung bzw. eine Variation von 18 zeigt. 20A bis 20D sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der vierten Ausführungsform der Erfindung erläutern. In 18 und 19 haben Blockelemente, denen die gleichen Bezugszeichen wie jene in 7 gegeben sind, den gleichen Aufbau und die gleichen Merkmale wie jene in 7.
  • In dieser Ausführungsform wird ein Bild von einer einzigen Bildaufnahmeeinrichtung 1001, wie in 18 gezeigt ist, eingegeben. In der Bildprojektionseinrichtung 10001 wird ein Bild in einer Position zusammengesetzt bzw. erzeugt, wo das eingegebene Bild auf eine Straßenoberfläche unter Verwendung der Daten von der Straßenoberfläche-Dateneinrichtung 3011 auf der Basis der eingegebenen Daten projiziert wird. Bei diesem Verfahren berechnet die Stärkenberechnungseinrichtung 10002 die Stärke bzw. Intensität der Projektion des Bildes auf die Straßenoberfläche auf der Basis der Beziehung zwischen einem Kameraparameter 10003 der Bildaufnahmeeinrichtung 1001 und den Daten von der Straßenoberfläche-Dateneinrichtung 3011 und bestimmt die Stärke.
  • Wie in 20A gezeigt ist, wird von einem Lichtstrahl 11001 bzw. hellen Strahl, der konstant pro Pixel ist, von der Bildaufnahmeeinrichtung 10001 ausgegangen. Die Stärke K der Projektion des Lichtstrahls auf die Straßenoberfläche wird in dem nachfolgenden Ausdruck [8] aus dem Bereich A, wo das einzelne Pixel auf eine Straßenoberfläche projiziert wird, und dem Winkel θ zwischen dem Lichtstrahl und der Straßenoberfläche berechnet.
  • Der Ausdruck [8] wird nachfolgend erläutert. Je größer der Bereich A ist, desto kleiner wird die Stärke bzw. Intensität. Je näher sich der Winkel zu der Straßenoberfläche an den rechten Winkel annähert, desto größer wird die Stärke. Die Stärke ist mit 1,0 angesetzt. K' = α·sin(θ)/S Ausdruck [8] wenn (K' > 1,0) K = 1,0
    ansonsten K = K'
    worin α eine Konstante ist, die die Verstärkungsstärke wiedergibt.
  • Durch die Berechnung der Stärke, wie in 20A gezeigt ist, hat eine Straßenoberfläche neben der Bildaufnahmeeinrichtung 1001 eine große Stärke, während eine Straßenoberfläche entfernt von der Bildaufnahmeeinrichtung 1001 eine kleine Stärke hat. Ein Bild, das in Übereinstimmung mit dem Stärkenwert zusammengesetzt ist, wird in ein Bild mit einer bestimmten Helligkeit ausgebildet, während die Stärke K bis zu einem bestimmten Straßenoberflächenabstand von der Bildaufnahmeeinrichtung 1001 gleich 1,0 ist. Wird dieser Grenzwert überschritten, wird das resultierende Bild dunkler, wenn der Abstand größer wird.
  • Das Bild, das auf der Basis des eingegebenen Bildes von der Bildaufnahmeeinrichtung 1001 zusammengesetzt wird, hat einen dunklen, entfernten Abschnitt, wo die Verzerrung und der Abstandsfehler groß sind, wie in 20C gezeigt ist.
  • Der Fahrer kann den genauen Abschnitt nahebei beobachten, der einen kleineren Fehlerwert in dem resultierenden Bild hat, was ungleich den Beispielen des Standes der Technik ist. Der Fahrer erkennt intuitiv, dass die Informationen über den entfernten Abschnitt mit einem großen Fehlerwert und einer großen Verzerrung weniger genau ist, da der Abschnitt in einem dunklen Bild auftritt. Der Fahrer kann somit intuitiv die Zuverlässigkeit jedes Abschnitts in dem zusammengesetzten Bild beurteilen bzw. erfassen, obwohl er/sie den Abstand bzw. die Entfernung zu einem Hindernis nicht genau erkennen kann. Dies ermöglicht, dass der Fahrer das Fahrzeug sicherer als in den Beispielen des Standes der Technik fahren kann.
  • Eine Abwandlung, die in 19 gezeigt ist, ist eine erweiterte Version von 18 und hat eine Vielzahl von Bildaufnahmeeinrichtungen. Betreffend eines Aufnahmebilds von jeder der Bildaufnahmeeinrichtungen 1001...10007, wird die Stärke der Projektion des Bildes auf die Straßenoberfläche durch die Stärkeberechnungseinrichtungen 10002...10005 auf der Basis der Beziehung jedes Kameraparameters 10003...10004 und der Straßenoberflächendaten 3011 berechnet und bestimmt und ein Bild wird durch die Bildprojektionseinrichtungen 10001, 10006 in Übereinstimmung mit der erhaltenen Stärke zusammengesetzt.
  • Das Bild, das durch die Zusammensetzung eines straßenoberfläche-projizierten Bildes erhalten wird, wird weiter in ein einzelnes Bild durch die Zusammensetzungseinrichtung 10007 zusammengesetzt. Bei diesem Verfahren wird die Zusammensetzung in Übereinstimmung mit Gewichten ausgeführt, um jede Stärke der Bildprojektion auf die Straßenoberfläche wiederzugeben und das resultierende Bild wird auf der Anzeigeeinrichtung 3009 angezeigt. Das angezeigte Bild ist ein straßenoberflächeprojiziertes Bild, das auf der Basis von Bildern von drei Bildaufnahmeeinrichtungen, wie für ein Beispiel in 20D gezeigt wird, ausgebildet wird.
  • In diesem Beispiel ist die Bildaufnahmeeinrichtung in der hinteren Mitte des Fahrzeugs von hoher Auflösung, während die rechte Bildaufnahmeeinrichtung und die linke Bildaufnahmeeinrichtung von niedriger Auflösung als Hilfseinrichtungen sind. Der Bereich, wo die rechte Bildaufnahmeeinrichtung und die linke Bildaufnahmeeinrichtung Bilder projizieren, hat deshalb einen großen Bereich pro Pixel derart, dass nur der Bereich in der nahen Nachbarschaft in ein helles Bild zusammengesetzt wird. Der Bereich, wo die Mittenbildaufnahmeeinrichtung Bilder projiziert, hat einen relativ kleinen Bereich pro Pixel derart, dass ein helles Bild bis zu einem entfernten Abschnitt erhalten wird. In einem Bereich 11002, wo Bilder, die durch diese Bildaufnahmeeinrichtungen projiziert werden, sich gegenseitig überlappen, wird ein Bild, das mit hoher Stärke projiziert wird, von der Mittenbildaufnahmeeinrichtung stark in der Zusammensetzung derart gewichtet, dass das erhaltene zusammengesetzte Bild zuverlässiger ist.
  • Der Fahrer kann intuitiv die Zuverlässigkeit jedes Abschnitts eines zusammengesetzten Bildes von einer Vielzahl von Bildaufnahmeeinrichtungen durch Beobachten dieses zusammengesetzten Bildes verstehen und das Fahrzeug sicherer als in den Beispielen des Standes der Technik fahren.
  • Auf diese Art und Weise kann der Fahrer gemäß der vierten Ausführungsform der Erfindung intuitiv zuverlässigere Abschnitte und weniger zuverlässige Abschnitte erfassen, indem ein Bild, das von einer Bildaufnahmeeinrichtung bzw. von Bildaufnahmeeinrichtungen aufgenommen wird, die an einer mobilen Einheit angebracht ist bzw. sind, in ein Bild gewandelt wird, das von einem virtuellen Blickpunkt von oben gesehen wird, und indem ein genauer Abschnitt mit kleinerer Verzerrung in ein helles Bild und ein ungenauer Abschnitt mit größerer Verzerrung in ein dunkles Bild zusammengesetzt werden. Dies verhindert ein gefährliches Fahren, zum Beispiel ein schnelles Bewegen des Fahrzeugs in Richtung des weniger zuverlässigen Abschnitts, was zu einem sichereren Fahren führt.
  • Obwohl nur die Helligkeit eines Bildes in Übereinstimmung mit der berechneten Stärke in der zuvor erwähnten vierten Ausführungsform variiert wird, können Farben variiert werden. Durch Mischen von Grau oder Weiß in einem Abschnitt kleinerer Stärke kann die Wirkung von Dunst bzw. Nebel erzeugt werden. Auf die se Art und Weise ist es möglich, zu verhindern, dass der Fahrer das Fahrzeug in Richtung der geringeren Stärke schnell bewegt, wodurch ein sichereres Fahren erzeugt wird.
  • Fünfte Ausführungsform
  • Die Fahrunterstützungsvorrichtung gemäß der fünften Ausführungsform der Erfindung ermöglicht, dass der Fahrer eines Fahrzeugs die Positionen von Hindernissen um das Fahrzeug und die Umgebungssituation intuitiv und genau erkennen kann, indem ein Bild, das von einer Bildaufnahmeeinrichtung aufgenommen wird, in ein Zwischenbild gewandelt wird, das einen Abstand oder eine Höhe von der Bildaufnahmeeinrichtung als eine Koordinate verwendet, indem der tatsächliche Abstand zu einem unpassenden Bereich zwischen den Zwischenbildern geschätzt wird und indem die Position des Bereichs korrigiert wird, indem der korrigierte Bereich als ein Hindernisbereich detektiert wird, indem Signale, die den Hindernisbereich angeben, in dem Zwischenbild zusammengestellt werden, indem das zusammengesetzte Bild in ein normales Bild in Koordinaten zusammengesetzt wird und indem das resultierende Bild angezeigt wird.
  • 21 ist ein Blockdiagramm einer Fahrunterstützungsvorrichtung gemäß der fünften Ausführungsform der Erfindung. 22 bis 26 sind schematische Ansichten, die den Betrieb der Fahrunterstützungsvorrichtung gemäß der fünften Ausführungsform der Erfindung erläutern. 27 ist ein Flussdiagramm, das die Suchverarbeitung erläutert. In 21 haben Blockelemente, denen gleiche Bezugszeichen wie jene in 7 gegeben sind, die gleichen Aufbauten und Merkmale wie jene in 7.
  • In dieser Ausführungsform hat jede Bildaufnahmeeinrichtung 1001, 3001 eine Fischauge-Linse bzw. Fish-eye-Linse. Bilder, die durch die Bildaufnahmeeinrichtungen 1001, 3001 aufgenommen werden, werden jeweils der Linsenverzerrung-Korrektur/Abstand- Höhe/Richtung-Bildeinrichtungen 13005, 13006 eingegeben. In der Linsenverzerrung-Korrektur/Abstand-Höhe/Richtung-Bildeinrichtungen 13005, 13006 wird davon ausgegangen, dass ein eingegebenes Bild auf eine Straßenoberfläche bis zu einem vorgegebenen Abstand Rmax von der Bildaufnahmeeinrichtung und auf einen Zylinder über den Abstand Rmax hinaus projiziert wird, wie in 22A gezeigt ist. Das Bild wird dann in ein Bild in Koordinaten gewandelt, die unter Verwendung des Abstands R auf der Straßenoberfläche oder der Höhe H auf dem Zylinder und der Richtung θ entwickelt werden.
  • In dem Fall, dass eine Linsenverzerrung oder eine Verzerrung, die durch einen Anbringungswinkel verursacht wird, in der Bildaufnahmeeinrichtung enthalten ist, wird der Verzerrungsgrad im Vorhinein für die Korrektur beim Ablauf der Wandlung gemessen. Zum Beispiel treten die aufgenommenen Bilder, die in 23A, 23B gezeigt sind, auf, wie in 23C bzw. 23D gezeigt ist. Der vorgegebene Abstand auf der Straßenoberfläche Rmax = 300 cm. Rmax = 0 cm und Hmax = 200 cm in 22A.
  • Die Kantengewinnungseinrichtung 13007 gewinnt die Horizontalkante der jeweiligen gewandelten Bilder durch Erhalten der Differenz von Signalen entfernt voneinander um fünf Pixel in vertikaler Richtung. 24A, 24B zeigen die Bilder mit horizontalen Kanten, die von dem Ausgang für gewandelte Bilder von der Linsenverzerrung-Korrektur/Abstand-Höhe/Richtung-Bildeinrichtungen 13005, 13006 jeweils ausgegeben werden. 24A ist ein Bild, das von der oberen Bildaufnahmeeinrichtung 3001 gesehen wird, und 24B ist ein Bild, das von der anderen Bildaufnahmeeinrichtung gesehen wird. Wie mit einer unterbrochenen Linie 14007 in der Figur gezeigt ist, erscheint eine schräge Kante nahe an der Vertikalrichtung in einer unauffälligen Wiedergabe. Wie mit einer dicken durchgezogenen Linie 14008 gezeigt ist, wird eine horizontale Kante hervorgehoben.
  • Die Horizontal-Block-Übereinstimmung/Entfernung-Ermittlungseinrichtung 13008 tastet die Kantenposition in Übereinstimmung mit einer Abtastzeile 14001 ab, detektiert den maximalen Punkt 14002 der Kante und speichert Bildsignale eine Blocks 14003, der 10 Pixel in vertikaler Richtung und 10 Pixel in horizontaler Richtung aufweist.
  • Als nächstes detektiert die Horizontal-Block-Übereinstimmung/Abstand-Ermittlungseinrichtung 13008 einen Block 14006, der die ähnlichsten Daten mit denen des gespeicherten Blocks 14003 innerhalb des Bereichs gemäß der Suchbereichdateneinrichtung 13012 hat. Auf diese Art und Weise wird der Abstand unter der Annahme der Differenz zwischen dem Mittenpunkt 14005 des Blocks 14006 und der Vertikalposition des maximalen Punktes 14002 der Kante als Parallaxendaten auf dem gewandelten Bild ermittelt.
  • Der Betrieb der Suchbereichdateneinrichtung 13012 und der Horizontal-Block-Übereinstimmung/Abstand-Ermittlungseinrichtung 13008 wird genauer unter Bezugnahme auf das Flussdiagramm von 27 ausgeführt. Die Suchbereichdateneinrichtung 13012 speichert die Daten entsprechend der vertikalen Position der Mittenposition 14002 des Blocks 14003. Wie durch den Punkt 14003 in 25A gezeigt ist, werden, wenn die Position des Punktes 14002, der von der oberen Bildaufnahmeeinrichtung 3001 gesehen wird, mit der Straßenoberfläche übereinstimmt, das heißt, wenn die Position des Punktes 14002 unterhalb Rmax in 24A ist, die Vertikalpositionen 14015, 14016 des Punktes 14013 auf die Straßenoberfläche und ein Punkt 14014 mit einem Abstand von 50 cm von der Bildaufnahmeeinrichtung, gesehen von der unteren Bildaufnahmeeinrichtung 1001, in der Suchbereichdateneinrichtung 13012 gespeichert. Es wird darauf hingewiesen, dass die Vertikalposition 14015 des Punktes 14013 auf der Straßenoberfläche, gesehen von der unteren Bildaufnahmeeinrichtung 1001, die gleiche wie die Vertikalposition des Punk tes 19002 ist, da beide gewandelten Bilder eine Straßenoberfläche voraussetzen.
  • Wie in 25A gezeigt ist, werden, wenn die Position des Punktes 14002, gesehen von der oberen Bildaufnahmeeinrichtung 3001, einem Zylinder entspricht, das heißt, wenn die Position des Punktes 14002 über Rmax in 24A ist, Vertikalpositionen 14020, 14021, 14022 und ein unendlicher Punkt 14017, ein Punkt des Zylinders 14018 und ein Punkt 14019 in einem Abstand von 50 cm von der Bildaufnahmeeinrichtung, gesehen von der unteren Bildaufnahmeeinrichtung 1001, in der Suchbereichdateneinrichtung 13012 gespeichert. Es wird darauf hingewiesen, dass auch in diesem Fall die Vertikalposition 14021 des Punktes auf dem Zylinder 14018, gesehen von der unteren Bildaufnahmeeinrichtung 1001, die gleiche Position wie die vertikale Position des Punktes 14002 ist, da beide gewandelten Bilder einen Zylinder voraussetzen.
  • Auf der Basis der Suchbereichsdaten wird eine Suche in Übereinstimmung mit dem Ablauf, der in 27 gezeigt ist, ausgeführt.
  • Zuerst wird bestimmt, ob die Position des Punktes 14002 einer Straßenoberfläche oder einem Zylinder entspricht (Schritt S1).
  • In dem Fall, dass bestimmt wird, dass die Position des Punktes 14002 einer Straßenoberfläche (JA im Schritt S1) entspricht, wird die Summe der Absolutwerte der Differenzen der Blocksignale (SRD) als eine Vertikalposition 14015 (Schritt S2) erhalten. In dem Fall, dass der SAD-Wert kleiner als ein Schwellenwert TH ist (JA im Schritt S3) wird ein Blockdaten-Passen bestimmt und die Verarbeitung wird mit einer Bestimmungsausgabe abgeschlossen, dass die horizontale Kante des Punktes 14002 eine Kante auf einer Straßenoberfläche ist (Schritt S4). Wenn der SAD-Wert größer als der Schwellenwert TH (NEIN im Schritt S3) ist, wird eine Suche innerhalb des Bereiches von einer Vertikalposition 14015 zu einer Vertikalposition 14016 nach einer Position ausgeführt, wo der SAD-Wert am kleinsten ist (Schritt S5). In dem Fall, dass der kleinste SAD-Wert kleiner als der Schwellenwert TH (JA im Schritt S6) ist, werden der Abstand und die Höhe von der Straßenoberfläche unter der Annahme der Differenz zwischen der Position und der Vertikalposition des Punktes 14002 als Parallaxendaten erhalten und die Verarbeitung wird mit der erhaltenen Datenausgabe (Schritt S7) abgeschlossen. In dem Fall, dass der kleinste SAD-Wert größer als der Schwellenwert TH (NEIN im Schritt S6) ist, wird die Verarbeitung mit einer Bestimmungsausgabe beendet, dass keine passenden, horizontalen Kanten gefunden worden sind (Schritt S8).
  • In dem Fall, dass es bestimmt wird, dass die Position des Punktes 14002 einem Zylinder entspricht (NEIN im Schritt S1), wird der kleinste SAD-Wert innerhalb des Bereiches von einer Vertikalposition 14020 zu einer Vertikalposition 14021 (Schritt S9) erhalten. In dem Fall, dass der kleinste SAD-Wert kleiner als der Schwellenwert TH (JA im Schritt S10) ist, wird bestimmt, dass die Blockdaten passen und die Verarbeitung: wird mit einer Bestimmungsausgabe beendet, dass die horizontale Kante des Punktes 14002 über den Abstand Rmax zu dem Zylinder (Schritt S11) hinausgeht. In dem Fall, dass der kleinste SAD-Wert größer als der Schwellenwert TH (NEIN im Schritt S10) ist, wird eine Suche innerhalb des Bereiches von einer Vertikalposition 14021 zu einer Vertikalposition 14022 nach einer Position durchgeführt, wo der SAD-Wert am kleinsten ist (Schritt S12). In dem Fall, dass der kleinste SRD-Wert kleiner als der Schwellenwert TH (JA im Schritt S13) ist, werden der Abstand und die Höhe von der Straßenoberfläche unter der Annahme der Differenz zwischen der Position und der Vertikalposition des Punktes 14002 als Parallaxendaten erhalten und die Verarbeitung wird mit der erhaltenen Datenausgabe (Schritt S14) beendet. In dem Fall, dass der kleinste SAD-Wert größer als der Schwellenwert TH ist (NEIN im Schritt S13) wird die Verarbeitung mit einer Bestimmungsausgabe beendet, dass keine passenden, horizontalen Kanten gefunden werden (Schritt S15).
  • Mittels der Verarbeitung des Verarbeitungsflusses ist es möglich, mit einem kleinen Aufwand an Verarbeitung irgendwelche horizontalen Kanten auf einer Straßenoberfläche oder in einem Abstand, die sich nicht auf Hindernisse beziehen, zu entfernen bzw. diese zu bestimmen. Die Verarbeitung konzentriert sich auf die Kanten, die sich auf Hindernisse beziehen, so dass der Abstand und die Höhe einer Kante, die sich auf ein Hindernis bezieht, insgesamt mit einem geringen Verarbeitungsaufwand berechnet werden kann.
  • Die Hindernisgrenzeinrichtung 13009 bestimmt als Hinderniskanten jene Kanten, deren Höhe 20 cm übersteigt, aus den Kanten, deren Abstand und Höhe erfasst worden sind, wie in 27 gezeigt ist. Die Hindernisgrenzeinrichtung 13009 zeichnet dann eine Linie an dem Ort des Abstands R', wie in 25C gezeigt ist, und im Ergebnis wird ein Satz von horizontalen Kanten eine Linie 14023, die eine Hindernisgrenze angibt.
  • Die Bildprojektionseinrichtung 13010 setzt separat ein Bild, das direkt von einem vertikalen Blickpunkt oben gesehen wird, auf der Basis eines Bildes von einer Bildaufnahmeeinrichtung 3001 zusammen. Eine Überlagerungseinrichtung 13004 überlagert das Hindernis auf das Bild von der Bildprojektionseinrichtung 13010, wie in 25C gezeigt ist.
  • Das überlagerte, zusammengesetzte Bild wird auf der Anzeigeeinrichtung 3009 angezeigt. Wie in 25C gezeigt ist, wird in dem gezeigten Bild eine Hindernisgrenzlinie in der Position des tatsächlichen Abstands auch dann gezeigt, wenn ein Hindernis über einer Straßenoberfläche, zum Beispiel eine Stoßstan ge, existiert. Der Fahrer kann das angezeigte Bild beobachten, um das Fahrzeug sicher fahren zu können.
  • Diese Ausführungsform hat die Vorteile (1) bis (8).
    • (1) Wenn ein Bild in Koordinaten gewandelt wird, die in Abhängigkeit von dem Abstand und der Richtung entwickelt werden, kann eine Linsenverzerrung oder eine Verzerrung aufgrund des Anbringungswinkels korrigiert werden.
    • (2) Wenn eine Parallaxe direkt zwischen zwei eingegebenen Bildern detektiert wird, müssen entsprechende Verzerrungen getrennt betrachtet werden. In dieser Ausführungsform kann dieser Prozess weggelassen werden.
    • (3) Auch, wenn der Feldwinkel zwischen zwei Bildaufnahmeeinrichtungen unterschiedlich ist, kann der Einfluss dieses Unterschieds durch diesen Betrieb ausgeglichen werden.
    • (4) Wie in 22A gezeigt wird, ist es möglich unter Verwendung eines gewandelten Bildes unter der Annahme eines Zylinders oder auch einer Straßenoberfläche, ein Hindernis zu detektieren, das nicht in einem straßenoberfläche-projizierten Bild auftritt, da es in einer hohen Position mit Bezug auf die Bildaufnahmeeinrichtung ist, und die entsprechende Hindernisgrenzlinie auf dem angezeigten Bild anzuzeigen.
    • (5) Mittels des Verarbeitungsablaufes, der in 27 gezeigt ist, ist es möglich, irgendeine horizontale Kante auf einer Straßenoberfläche oder in einem Abstand, die sich nicht auf Hindernisse bezieht, zu bestimmen und zu entfernen. Die Verarbeitung ist auf Kanten konzentriert, die sich auf Hindernisse beziehen, so dass der Abstand und die Höhe einer Kante mit Beziehung zu einem Hindernis mit insgesamt einem sehr geringen Aufwand der Verarbeitung berechnet werden kann.
    • (6) Durch Bereitstellen einer Suchbereichdateneinrichtung 13012 wird eine Suche auf einen notwendigen Bereich derart beschränkt, dass der Abstand zu einer Kante und die Höhe einer Kante, die sich auf ein Hindernis bezieht, insgesamt mit einem sehr geringen Verarbeitungsaufwand berechnet werden kann.
    • (7) Wie in 22A gezeigt ist, werden die Suchdaten unter Verwendung eines gewandelten Bildes und unter der Annahme eines Zylinders oder auch einer Straßenoberfläche nur in der vertikalen Position einer horizontalen Kante 14002 bestimmt und hängen nicht von der Horizontalposition ab. Dies reduziert die entsprechende Speichermenge dramatisch.
    • Zum Beispiel, wenn eine Stereoübereinstimmung unter Verwendung eines Bildes von einer Bildaufnahmeeinrichtung mit einer Fischauge-Linse wie in den Beispielen des Standes der Technik gemacht wird, wird der Suchbereich in Kurven 14025, 140125 wiedergegeben, die von den vertikalen und horizontalen Positionen auf dem Bildschirm abhängen. Das Speichern der Kurvendaten erfordert eine sehr große Speicherkapazität. In dieser Ausführungsform wird der Speicher stark reduziert und die Verarbeitung wird mit einer einfachen Konfiguration implementiert.
    • (8) Obwohl eine Genauigkeit über der Pro-Pixel-Genauigkeit bei dem Stereoübereinstimmen des Standes der Technik erforderlich ist, wird ein SAD-Wert für die Pro-Pixel-Genauigkeit in der tatsächlichen Suche erhalten. Das Quantisierungsrauschen hat einen nachteiligen Effekt. Diese Ausführungsform vermeidet diesen nachteiligen Effekt.
  • 28A bis 28C erläutern Abwandlungen der fünften Ausführungsform. Anstelle der Projektionsebenen, Straßenoberfläche und Zylinder, die in 22A und 22B gezeigt sind, kann eine sphärische Oberfläche mit einer Position der oberen Bildaufnahmeeinrichtung 3001 in einer Mitte als eine Projektionsebene verwendet werden. Wie in 28C gezeigt ist, muss die Horizontalachse eines gewandelten Bildes nicht einen Winkel von θ haben, sondern kann unter Verwendung der Funktion F(θ) komprimiert sein.
  • 29A erläutert eine weitere Abwandlung der fünften Ausführungsform. Die obere Bildaufnahmeeinrichtung 3001 hat eine 640 × 480 Pixel Auflösung. Die untere Bildaufnahmeeinrichtung 1001, die nur für eine Stereoübereinstimmung verwendet wird, hat eine Auflösung von 320 × 480 Pixel. Bei diesem Aufbau hat das zusammengesetzte Bild, das angezeigt wird, eine hohe Auflösung und es ist möglich, eine Hindernisgrenze mit praktisch ausreichender Genauigkeit zu detektieren, wodurch die Kosten der Bildaufnahmeeinrichtung reduziert werden.
  • 29B erläutert eine weitere Abwandlung der fünften Ausführungsform. Die Bildaufnahmeeinrichtung 18001 wird der gleichen Achse wie die Bildaufnahmeeinrichtungen 3001, 3001 hinzugefügt, um eine Kante, die als ein Hindernis detektiert wird, unter Verwendung eines Bildes von der Bildaufnahmeeinrichtung 18001 verifizieren zu können, wodurch Störungen bzw. Rauschen reduziert wird.
  • 29C erläutert eine weitere Abwandlung der fünften Ausführungsform. Die Bildaufnahmeeinrichtung 18002 wird in einer Position getrennt von der Achse der Bildaufnahmeeinrichtungen 3001, 1001 derart hinzugefügt, dass ein Hindernis unter Verwendung von vertikalen Kanten und auch von horizontalen Kanten detektiert werden kann.
  • 30A bis 30C zeigen einen Einzelkameraaufbau anstelle der oberen und unteren Kameras für Stereobildaufnahme in den ersten bis fünften Ausführungsformen. 30A zeigt einen Auf bau, der Stereobilder mit jeweiliger Parallaxe auf der rechten Seite und der linken Seite auf einer einzelnen Bildaufnahmeebene 1905 durch Anordnen einer Vielzahl von Spiegeln 1901 bis 1903 vor einer Linse 1904 erhält. 30B zeigt einen Aufbau, der praktisch Bilder mit Parallaxe in der vertikalen Richtung durch Aufnehmen von zwei konvexen Spiegeln 1906, 1907 durch eine Kamera 1908 erhält. 30C zeigt ein Bild, das durch die Kamera 1908 in 30B aufgenommen wird. Auf einem Bildschirm 1909 wird ein Bild 1910 gezeigt, das mit dem oberen, konvexen Spiegel 1907 aufgenommen wird, und ein Bild 1911 wird gezeigt, das mit dem unteren, konvexen Spiegel 1906 aufgenommen wird.
  • Hier wird durch Einstellen der Krümmung der konvexen Spiegel 1906, 1907 ermöglicht, den Aufnahmebereich und die Auflösung eines aufgenommenen Bildes einzustellen (die Einstellung kann in vertikaler Richtung und horizontaler Richtung unabhängig voneinander gemacht werden).
  • Während der Bereich eines Winkels, der mit jedem der konvexen Spiegel 1906, 1907 aufgenommen wird, fast der gleiche wie in 30B ist, hat der konvexe Spiegel 1906 eine größere Krümmung als der konvexe Spiegel 1907. Der konvexe Spiegel 1906 mit kleinerer Größe bildet den gleichen Bereich wie der konvexe Spiegel 1907 ab. Das Bild 1911 ist deshalb kleiner als das Bild 1910 auf dem Bildschirm 1909. Im Ergebnis ist die resultierende Auflösung des Bildes 1910 hoch, während jene des Bildes 1911 relativ niedrig ist. Das Bild 1911 wird als ein Bild verwendet, das durch eine Blickpunktwandlung zusammengesetzt wird, während das Bild 1910 nur für die Stereoanalyse verwendet wird.
  • Mittels dieses Aufbaus hat wie bei den anderen Abwandlungen der fünften Ausführungsform, die in 29A bis 29C gezeigt sind, ein zusammengesetztes Bild, das angezeigt werden soll, eine hohe Auflösung und es ist möglich, eine Hindernisgrenze mit praktisch ausreichender Genauigkeit zu detektieren, wodurch die Kosten einer Kamera und eines Bildprozessors reduziert werden können.
  • Wie unter Verwendung der 30A bis 30C gezeigt wird, kann eine einzelne Kamera, um ein Stereobild aufzunehmen, mit der Hilfe der konvexen Spiegel und reflektiver Spiegel anstelle der oberen und unteren Kameras in den ersten bis fünften Ausführungsformen verwendet werden.
  • Obwohl die Fahrunterstützungsvorrichtung der Erfindung hauptsächlich Bilder der Rückseitenrichtung in den ersten bis fünften Ausführungsformen erzeugt, ist die Erfindung nicht auf diese Anordnung beschränkt, sondern kann Bilder in der Vorwärtsrichtung oder in der seitlichen Richtung erzeugen.
  • Obwohl ein Beispiel, das auf der Bildzusammensetzung mittels eines virtuellen Blickpunkts unter Verwendung eines Straßenoberflächenmodells basiert, in der fünften Ausführungsform erläutert worden ist und obwohl ein Beispiel, das auf einer Bildzusammensetzung mittels einer Orthogonalprojektion von oben unter Verwendung eines Straßenoberflächenmodells basiert, in der zweiten Ausführungsform erläutert worden ist, können ein virtueller Blickpunkt und eine Orthogonalprojektion von oben austauschbar verwendet werden. In diesem Fall ist die Fahrunterstützungsvorrichtung der Erfindung immer noch von Vorteil.
  • Zudem können ein Teil der Merkmale oder alle Merkmale jeder Einrichtung der Fahrunterstützungsvorrichtung der Erfindung unter Verwendung eines Programms, das auf einem Computer ausgeführt wird, implementiert sein.
  • Obwohl die Erfindung im Detail und unter Bezugnahme auf spezielle Ausführungsformen beschrieben worden ist, können Fachleute erkennen, dass verschiedene Änderungen und Modifikationen in ihr gemacht werden können, ohne dass vom Geist und Bereich der Erfindung abgewichen wird.
  • Diese Patentanmeldung basiert auf der japanischen Patentanmeldung ( P2001-093721 ), die am 28. März 2001 eingereicht wurde, und auf der japanischen Patentanmeldung ( P2001-244275 ), die am 10. August 2001 eingereicht worden ist, wobei die Inhalte davon hier durch Bezugnahme aufgenommen werden.
  • Industrielle Anwendbarkeit
  • Wie vorstehend erwähnt wurde, stellt die Erfindung eine Fahrunterstützungsvorrichtung bereit, die einen ausgezeichneten Vorteil darin hat, dass sie den Abstand zu und die Richtung von einem Hindernis lesbarer und genauer wiedergeben kann, indem ein Bild, das von einer Bildaufnahmeeinrichtung aufgenommen wird, in ein Bild, das von einem virtuellen Betrachtungspunkt von oben gesehen ist, oder in ein Bild gewandelt wird, das durch eine Orthogonalprojektion von oben erhalten wird, indem dreidimensionale Informationen, die sich nicht auf eine Straßenoberfläche beziehen, detektiert werden, indem die Verzerrung des gewandelten Bildes aufgrund der dreidimensionalen Informationen korrigiert wird und indem das korrigierte Bild angezeigt wird.
  • Die Erfindung stellt eine Fahrunterstützungsvorrichtung bereit, die einen ausgezeichneten Vorteil darin hat, dass sie den Abstand zu einem Hindernis und die Richtung von einem Hindernis lesbarer und genauer wiedergeben kann, indem ein Bild, das durch eine Bildaufnahmeeinrichtung aufgenommen wird, in ein Bild, das von einem virtuellen Blickpunkt von oben gesehen wird, oder in ein Bild, das durch eine orthogonale Projektion von oben erhalten wird, gewandelt wird, indem der Bereich, der nicht der Straßenoberfläche entspricht, als ein Hindernisbereich unter der Verwendung der Parallaxe zwischen einer Vielzahl von aufgenommenen Bildern und der Parallaxe auf ein Straßenoberflächenmodell detektiert wird, indem Signale, die den Hindernisbereich angeben, in gewandelte Bildsignale zusammengestellt werden und indem das resultierende Bild angezeigt wird.
  • Die Erfindung stellt eine Fahrunterstützungsvorrichtung bereit, die einen ausgezeichneten Vorteil darin hat, dass sie den Abstand zu einem Hindernis und die Richtung von einem Hindernis lesbarer und genauer wiedergeben kann, indem ein Bild, das von einer Bildaufnahmeeinrichtung bzw. von Bildaufnahmeeinrichtungen aufgenommen wird, in ein Bild gewandelt wird, das von einem virtuellen Betrachtungspunkt von oben gesehen wird, oder in ein Bild gewandelt wird, das durch eine Orthogonalprojektion von oben erhalten wird, indem ein unpassender Bereich zwischen den gewandelten Bildern als ein Hindernisbereich detektiert wird, indem Signale, die den Hindernisbereich angeben, zu den gewandelten Bildsignalen zusammengesetzt werden und indem das resultierende Bild angezeigt wird.
  • Die Erfindung stellt eine Fahrunterstützungsvorrichtung bereit, die einen ausgezeichneten Vorteil darin hat, dass sie den Abstand zu einem Hindernis und die Richtung von einem Hindernis lesbarer und genauer wiedergeben kann, indem ein Bild, das von der Bildaufnahmeeinrichtung bzw. den Bildaufnahmeeinrichtungen aufgenommen wird, in ein Zwischenbild gewandelt wird, das einen Abstand und einen Winkel von der Bildaufnahmeeinrichtung als Koordinaten verwendet, indem der tatsächliche Abstand zu einem unpassenden bzw. nicht-übereinstimmenden Bereich zwischen den Zwischenbildern ermittelt wird und indem die Position des Bereiches korrigiert wird, indem der korrigierte Bereich als ein Hindernisbereich detektiert wird, indem Signale, die den Hindernisbereich angeben, in dem Zwischenbild zusammengestellt werden, indem das zusammengesetzte Bild in ein normales Bild in Koordinaten gewandelt wird und indem das resultierende Bild angezeigt wird.
  • Die Erfindung stellt eine Fahrunterstützungsvorrichtung bereit, die einen ausgezeichneten Vorteil darin hat, dass sie zuverlässigere Abschnitte und weniger zuverlässige Abschnitte wiedergeben kann, indem ein aufgenommenes Bild in ein Bild gewandelt wird, das von einem virtuellen Betrachtungspunkt von oben gesehen wird, oder in ein Bild gewandelt wird, das durch eine Orthogonalprojektion von oben erhalten wird, und indem der Abstand zu einem Hindernis und der Bereich von einem Hindernis mit einer großen Verzerrung lesbar wiedergegeben wird.
  • Die Erfindung stellt zudem eine Fahrunterstützungsvorrichtung bereit, die einen ausgezeichneten Vorteil darin hat, dass sie den Abstand zu einem Hindernis und die Richtung von einem Hindernis lesbarer und genauer wiedergeben kann, indem ein Bild, das von einer Bildaufnahmeeinrichtung aufgenommen wird, in ein Zwischenbild gewandelt wird, das einen Abstand bzw. eine Entfernung oder eine Höhe und einen Winkel von der Bildaufnahmeeinrichtung als Koordinaten verwendet, indem der tatsächliche Abstand zu einem unpassenden Bereich zwischen den Zwischenbildern ermittelt wird und indem die Position des Bereiches korrigiert wird, indem der korrigierte Bereich einen Hindernisbereich detektiert, indem Signale, die den Hindernisbereich in dem zwischenliegenden Bild angeben, zusammengesetzt werden, indem das zusammengesetzte Bild in ein normales Bild in Koordinaten gewandelt wird und indem das resultierende Bild angezeigt wird.
  • Die Erfindung stellt eine Fahrunterstützungsvorrichtung bereit, die einen ausgezeichneten Vorteil darin hat, dass sie den Abstand zu einem Hindernis und die Richtung von einem Hin dernis lesbarer und genauer wiedergeben kann, indem ein Bild, das von einer Bildaufnahmeeinrichtung aufgenommen wird, in ein Zwischenbild gewandelt wird, das eine Ebene symmetrisch um eine gerade Linie verwendet, die die Bildaufnahmeeinrichtung als eine Projektionsebene verbindet, indem der tatsächliche Abstand zu einem unpassenden bzw. nicht übereinstimmenden Bereich zwischen den Zwischenbildern ermittelt wird und die Position des Bereiches korrigiert wird, indem der korrigierte Bereich als ein Hindernisbereich detektiert wird, indem Signale, die den Hindernisbereich in dem Zwischenbild angeben, zusammengesetzt werden, indem das zusammengesetzte Bild in ein normales Bild in Koordinaten gewandelt wird und indem das resultierende Bild angezeigt wird.
  • Die Erfindung stellt eine Fahrunterstützungsvorrichtung bereit, die einen ausgezeichneten Vorteil darin hat, dass sie den Abstand zu einem Hindernis und die Richtung von einem Hindernis lesbarer und genauer wiedergeben kann, indem eine Vielzahl von Bildern mit einer vorgegebenen Parallaxe zwischen ihnen gewandelt wird, indem ein blickpunkt-gewandeltes Bild auf der Basis der Parallaxe zwischen der Vielzahl von aufgenommenen Bildern korrigiert wird und indem das resultierende Bild angezeigt wird.
  • Wie hier vorstehend erwähnt wurde, stellt die vorliegende Erfindung eine Fahrunterstützungsvorrichtung bereit, die einen ausgezeichneten Vorteil darin hat, dass sie die Belastung des Fahrers reduziert und ein genaues und sicheres Fahren erzeugt.
  • 1
    • 1001: Bildaufnahmeeinrichtung
    • 3001: Bildaufnahmeeinrichtung
    • 3002: Horizontalkantengewinnung
    • 3003: Horizontalkantengewinnung
    • 3004: Blocksetzen
    • 3005: Suche
    • 3006: Sub-Pixel-Ermittlung/Zuverlässigkeit-Bestimmung
    • 3007: 3D-Kartenerzeugung
    • 3008: 3D-Bildzusammensetzung
    • 3009: Anzeigeeinrichtung
    • 3010: Standardparallaxendaten
    • 3011: Straßenoberflächendaten
    • 3012: Fahrzeuglageinformationen
  • 6
    • Beispiel) Beschleunigen beim Rücksetzen des Fahrzeugs
  • 7
    • 1001: Bildaufnahmeeinrichtung
    • 3001: Bildaufnahmeeinrichtung
    • 3002: Horizontalkantengewinnung
    • 3003: Horizontalkantengewinnung
    • 3004: Blocksetzen
    • 3005: Suche
    • 3006: Sub-Pixel-Ermittlung/Zuverlässigkeit-Bestimmung
    • 3009: Anzeigeeinrichtung
    • 3010: Standardparallaxendaten
    • 3011: Straßenoberflächendaten
    • 3012: Fahrzeuglageinformationen
    • 3013: Bildprojektion
    • 3014: Hinderniskantenabstand
    • 3015: Hindernisbereich
    • 3016: Überlagerung
  • 8A
    • Bildaufnahmeeinrichtungen
  • 11A
    • 1004: Virtuelle Kamera
  • 11B
    • 1001 hat hohe Auflösung. 3001 hat hohe Auflösung.
  • 12
    • 1001: Bildaufnahmeeinrichtung
    • 3001: Bildaufnahmeeinrichtung
    • 3002: Horizontalkantengewinnung
    • 3003: Horizontalkantengewinnung
    • 3004: Blocksetzen
    • 3005: Suche
    • 3006: Sub-Pixel-Ermittlung/Zuverlässigkeit-Bestimmung
    • 3009: Anzeigeeinrichtung
    • 3010: Standardparallaxendaten
    • 3011: Straßenoberflächendaten
    • 3012: Fahrzeuglageinformationen
    • 3013: Bildprojektion
    • 3014: Hinderniskantenabstand
    • 3015: Hindernisbereich
    • 3016: Überlagerung
  • 13
    • 1001: Bildaufnahmeeinrichtung
    • 3001: Bildaufnahmeeinrichtung
    • 3009: Anzeigeeinrichtung
    • 3011: Straßenoberflächendaten
    • 3012: Fahrzeuglageinformationen
    • 8001: Bildprojektion
    • 8002: Bildprojektion
    • 8003: Hindernisbereichsdetektion
    • 8004: Überlagerung
  • 14
    • 1001: Bildaufnahmeeinrichtung
    • 3001: Bildaufnahmeeinrichtung
    • 3009: Anzeigeeinrichtung
    • 3011: Straßenoberflächendaten
    • 3012: Fahrzeuglageinformationen
    • 8004: Überlagerung
    • 8005: Linsenverzerrung-Korrektur/Abstand/Richtung-Bild
    • 8006: Linsenverzerrung-Korrektur/Abstand/Richtung-Bild
    • 8007: Kantenvergleich
    • 8008: Abstandsermittlung
    • 8009: Hindernisbereich
    • 8010: Abstand/Richtung-Straßenoberflächenwandlung
  • 15A
    • 1004: Virtuelle Kamera
  • 18
    • 1001: Bildaufnahmeeinrichtung
    • 3009: Anzeigeeinrichtung
    • 3011: Straßenoberflächendaten
    • 3012: Fahrzeuglageinformationen
    • 10001: Bildprojektion
    • 10002: Stärkenberechnung
    • 10003: Kameraparameter
  • 19
    • 1001: Bildaufnahmeeinrichtung
    • 3009: Anzeigeeinrichtung
    • 3011: Straßenoberflächendaten
    • 3012: Fahrzeuglageinformationen
    • 10001: Bildprojektion
    • 10002: Stärkenberechnung
    • 10003: Kameraparameter
    • 10004: Kameraparameter
    • 10005: Stärkenberechnung
    • 10006: Bildprojektion
    • 10007: Bildaufnahmeeinrichtung
    • 10007: Zusammensetzung
  • 20A
    • Große Stärke Kleine Stärke
  • 21
    • 1001: Bildaufnahmeeinrichtung
    • 3001: Bildaufnahmeeinrichtung
    • 3009: Anzeigeeinrichtung
    • 3011: Straßenoberflächendaten
    • 3012: Fahrzeuglageinformationen
    • 13004: Überlagerung
    • 13005: Linsenverzerrung-Korrektur/Abstand/Richtung-Bild
    • 13006: Linsenverzerrung-Korrektur/Abstand/Richtung-Bild
    • 13007: Kantengewinnung
    • 13008: Horizontal-Block-Passendsein/Abstand-Ermittlung
    • 13009: Hindernisgrenze
    • 13010: Bildprojektion
    • 13012: Suchbereichsdaten
  • 25A
  • 14017: Unendlichpunkt
  • 27
    • S1: Position von 14002 ist unterhalb Rmax
    • S2: Erhalte SAD-Wert in der Vertikalposition 14015
    • S3: SAD-Wert ist unterhalb des Schwellenwertes TH.
    • S4: Bestimmen/Ausgeben, dass die Kante auf der
    • Straßenoberfläche ist, beende dann die Verarbeitung.
    • S5: Erhalte den minimalen Punkt des SAD-Wertes innerhalb des Bereiches von einer Vertikalposition 14015 zu einer Vertikalposition 14016.
    • S6: SAD-Wert ist unterhalb des Schwellenwertes TH.
    • S7: Ermittle den Abstand zu der Kante und die Höhe der Kante unter Verwendung der Position des minimalen Punktes.
    • S8: Bestimme/Gebe aus, dass die unpassenden, horizontalen Kanten gefunden werden, und beende die Verarbeitung.
    • S9: Erhalte den minimalen Punkt des SAD-Wertes innerhalb des Bereiches von einer Vertikalposition 14020 zu einer Vertikalposition 14021.
    • S10: SAD-Wert ist unterhalb des Schwellenwertes TH.
    • S11: Bestimme/Gebe aus, dass die horizontale Kante des Punktes 14002 über den Abstand Rmax zu dem Zylinder hinaus geht und Beende die Verarbeitung.
    • S12: Erhalte den minimalen Punkt des SAD-Wertes innerhalb des Bereiches von einer Vertikalposition 14015 zu einer Vertikalposition 14016.
    • S13: SRD-Wert ist unterhalb des Schwellenwertes TH.
    • S14: Ermittle den Abstand zu der Kante und die Höhe von der Kante unter Verwendung der Position des minimalen Punktes.
    • S15: Bestimme/Gebe aus, dass die nicht passenden horizontalen Kanten gefunden werden, und Beende die Verarbeitung (in Hindernisbereichseinrichtung 13009).
  • 31A
    • 1004: Virtuelle Kamera
    • 1001: Bildaufnahmeeinrichtung
  • 31B
    • 1001: Bildaufnahmeeinrichtung
  • 32A
    • 1004: Virtuelle Kamera
    • 1001: Bildaufnahmeeinrichtung
  • ZUSAMMENFASSUNG
  • Die Aufgabe der Erfindung besteht darin, eine Fahrunterstützungsvorrichtung bereitzustellen, die dem Fahrer ermöglicht, die Situation um ein Hindernis intuitiv und genauer erkennen zu können, wodurch die Belastung des Fahrers reduziert wird. Die Fahrunterstützungsvorrichtung gemäß der Erfindung hat eine Vielzahl von Bildaufnahmeeinrichtungen, die an einer mobilen Einheit angebracht sind, eine Wandeleinrichtung zum Wandeln eines Bildes, das durch die Bildaufnahmeeinrichtung aufgenommen wird, in ein Bild, das von einem virtuellen Betrachtungspunkt oberhalb der Bildaufnahmeeinrichtungen gesehen wird, oder in ein Bild, das durch eine Orthogonalprojektion von oben auf der Basis eines Straßenoberflächenmodells erhalten wird, eine 3D-Kartenerzeugungseinrichtung zum Detektieren von dreidimensionalen Informationen, die sich nicht auf die Straßenoberfläche beziehen, auf der Basis der Parallaxe zwischen den Bildern, die durch die Vielzahl von Bildaufnahmeeinrichtungen aufgenommen werden, eine 3D-Bildzusammensetzungseinrichtung zum Korrigieren der Verzerrung einer Figur in dem blickpunktgewandelten Bild auf der Basis der detektierten dreidimensionalen Informationen und eine Anzeigeeinrichtung zum Anzeigen des verzerrungskorrigierten Bildes.

Claims (17)

  1. Fahrunterstützungsvorrichtung, die aufweist: eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist; eine Wandeleinrichtung zum Wandeln eines oder mehrerer Bilder, das bzw. die durch die Bildaufnahmeeinrichtung aufgenommen wird bzw. werden, in ein Bild, das von einem virtuellen Blickpunkt oberhalb der Bildaufnahmeeinrichtung gesehen wird, oder in ein Bild, das von oben orthogonal projiziert wird, auf der Basis eines Straßenoberflächenmodells; eine Detektionseinrichtung zum Detektieren von dreidimensionalen Informationen, die andere als jene auf der Straßenoberfläche sind, auf der Basis einer Parallaxe zwischen den Bildern, die durch die Bildaufnahmeeinrichtung aufgenommen werden; eine Verzerrungskorrektureinrichtung zum Korrigieren der Verzerrung einer Figur in einem Bild, für das diese Blickpunktwandlung durchgeführt wird, auf der Basis der detektierten, dreidimensionalen Informationen; und eine Anzeigeeinrichtung zum Anzeigen eines Bildes, für das die Verzerrungskorrektur durchgeführt wird.
  2. Fahrunterstützungsvorrichtung, die aufweist: eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist; eine Wandeleinrichtung zum Wandeln eines oder mehrerer Bilder, das bzw. die durch die Bildaufnahmeeinrichtung aufgenommen wird bzw. werden, in ein Bild, das von einem virtuellen Blickpunkt oberhalb einer Position der Bildaufnahmeeinrichtung gesehen wird, oder in ein Bild, das von oben orthogonal projiziert wird, auf der Basis eines Straßenoberflächenmodells; und eine Hindernisbereich-Detektionseinrichtung zum Detektieren eines Bereiches, wobei eine Parallaxe zwischen Bildern, die durch die Bildaufnahmeeinrichtung aufgenommen werden, nicht mit einer Parallaxe auf das Straßenoberflächenmodell als ein Hindernisbereich zusammenfällt.
  3. Fahrunterstützungsvorrichtung nach Anspruch 2, die aufweist: eine Überlagerungseinrichtung zum Überlagern des detektierten Bereiches in einem Bild, für das die Blickpunktwandlung durchgeführt wird, auf der Basis des Straßenoberflächenmodells; und eine Anzeigeeinrichtung zum Anzeigen des zusammengesetzten Bildes.
  4. Fahrunterstützungsvorrichtung nach Anspruch 3, worin die Überlagerungseinrichtung einen Abstand von der Bildaufnahmeeinrichtung und eine Höhe von einer Straßenoberfläche auf der Basis einer Parallaxe des detektierten Bereiches detektiert, eine Anzeige der Bereiche gemäß dem Abstand und der Höhe ändert und dann den detektierten Bereich in einem Bild überlagert, für das die Blickpunktwandlung durchgeführt wird, auf der Basis des Straßenoberflächenmodells.
  5. Fahrunterstützungsvorrichtung nach Anspruch 3, worin die Überlagerungseinrichtung einen Abstand von der Bildaufnahmeeinrichtung auf der Basis einer Parallaxe des detektierten Bereiches detektiert und den detektierten Bereich und das Zeichen überlagert, das den detektierten Abstand in einem Bild zeigt, für das die Blickpunktwandlung durchgeführt wird, auf der Basis des Straßenoberflächenmodells.
  6. Fahrunterstützungsvorrichtung, die aufweist: eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist; eine Wandeleinrichtung zum Wandeln eines Bildes oder mehrerer Bilder, die durch die Bildaufnahmeeinrichtung aufgenommen wird bzw. werden, in ein Bild, das von einem virtuellen Blickpunkt oberhalb einer Position der Bildaufnahmeeinrichtung gesehen wird, oder in ein Bild, das von oben auf der Basis eines Straßenoberflächenmodells orthogonal projiziert wird; eine Hindernisbereich-Detektionseinrichtung zum Detektieren eines unpassenden bzw. nicht-übereinstimmenden Bereiches zwischen den gewandelten Bildern als einen Hindernisbereich; eine Überlagerungseinrichtung zum Überlagern des Hindernisbereichs in dem gewandelten Bild; und eine Anzeigeeinrichtung zum Anzeigen des zusammengesetzten Bildes.
  7. Fahrunterstützungsvorrichtung, die aufweist: eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist; eine Zwischenbild-Wandeleinrichtung zum Wandeln eines oder mehrerer Bilder, die durch die Bildaufnahmeeinrichtung bzw. -einrichtungen aufgenommen wird bzw. werden, in ein Zwischenbild, in dem ein Abstand und ein Winkel von der Bildaufnahmeeinrichtung Koordinaten sind, auf der Basis eines Straßenoberflächenmodells; eine Hindernisbereich-Detektionseinrichtung zum Detektieren eines unpassenden Bereiches zwischen den gewandelten Bildern, die zwei Bilder in dem Bereich vergleicht, um einen tatsächlichen Abstand zu ermitteln, die einen Abstand und eine Position des Bereiches in dem gewandelten Bild mit dem ermittelten Abstand korrigiert und die den korrigierten Bereich als einen Hindernisbereich ausgibt; eine Überlagerungseinrichtung zum Überlagern des Hindernisbereiches in dem gewandelten Bild; eine Wandeleinrichtung zum Wandeln des zusammengesetzten Bildes in ein normales Koordinatenbild auf einer Straßenoberfläche; und eine Anzeigeeinrichtung zum Anzeigen des gewandelten Bildes.
  8. Fahrunterstützungsvorrichtung nach einem der Ansprüche 1 bis 7, worin eine Vielzahl von Bildaufnahmeeinrichtungen, die an der mobilen Einheit angebracht sind, an vorgegebenen Intervallen in einer vertikalen Richtung der mobilen Einheit, in einer vertikalen Richtung zu einem Straßenoberflächenmodell oder in einer Richtung von einer der Bildaufnahmeeinrichtungen zu dem virtuellen Blickpunkt oder einer Linie der orthogonal projizierten Ansicht angeordnet ist.
  9. Fahrunterstützungsvorrichtung, die aufweist: eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist; eine Wandeleinrichtung zum Wandeln eines oder mehrerer Bilder, das bzw. die durch die Bildaufnahmeeinrichtung aufgenommen wird bzw. werden, in ein Bild, das von einem virtuellen Blickpunkt oberhalb einer Position der Bildaufnahmeeinrichtung gesehen wird, oder in ein Bild, das von oben auf der Basis eines Straßenoberflächenmodells orthogonal projiziert wird; und eine Anzeigeeinrichtung zum Anzeigen des gewandelten Bildes, worin die Wandeleinrichtung eine Stärke auf der Basis einer Größe jedes Pixels auf der Straßenoberfläche auf dem Bildschirm der Bildaufnahmeeinrichtung und einen Winkel zu der Straßenoberfläche bestimmt und eine Helligkeit und eine Farbe der Pixel auf der Basis der Stärke variiert.
  10. Fahrunterstützungsvorrichtung, die aufweist: eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist; eine Zwischenbild-Wandeleinrichtung zum Wandeln eines Bildes oder mehrerer Bilder, das bzw. die durch die Bildaufnahmeeinrichtung aufgenommen wird bzw. werden, in ein Zwischenbild, in dem ein Abstand oder eine Höhe und ein Winkel von der Bildaufnahmeeinrichtung Koordinaten sind, auf der Basis eines Straßenoberflächenmodells und eines Zylindermodells; eine Hindernisbereich-Detektionseinrichtung zum Detektieren eines unpassenden Bereiches zwischen den gewandelten Bildern, die zwei Bilder in dem Bereich vergleicht, um einen tatsächlichen Abstand zu ermitteln, die einen Abstand und eine Position des Bereiches in dem gewandelten Bild mit dem ermittelten Abstand korrigiert und die den korrigierten Bereich als einen Hindernisbereich ausgibt; eine Überlagerungseinrichtung zum Überlagern des Hindernisbereichs in dem gewandelten Bild, eine Wandeleinrichtung zum Wandeln des zusammengesetzten Bildes in ein normales Koordinatenbild einer Straßenoberfläche; und eine Anzeigeeinrichtung zum Anzeigen des gewandelten Bildes.
  11. Fahrunterstützungsvorrichtung, die aufweist: Bildaufnahmemittel, die an einer mobilen Einheit angebracht sind; eine Zwischenbild-Wandeleinrichtung zum Wandeln eines Bildes, das durch die Bildaufnahmemittel aufgenommen wird, in ein Zwischenbild, in dem eine Ebene, die symmetrisch bezüglich einer geraden Linie ist, die zwischen den Bildaufnahmemitteln als eine Achse verbindet, eine Projektionsebene ist; eine Hindernisbereich-Detektionseinrichtung zum Detektieren eines unpassenden Bereiches zwischen den gewandelten Bildern, die zwei Bilder in dem Bereich vergleicht, um einen tatsächlichen Abstand zu ermitteln, einen Abstand und eine Position des Bereiches in dem gewandelten Bild mit dem ermittelten Abstand korrigiert und den korrigierten Bereich als einen Hindernisbereich ausgibt; eine Überlagerungseinrichtung zum Überlagern des Hindernisbereiches in dem gewandelten Bild, eine Wandeleinrichtung zum Wandeln des zusammengesetzten Bildes in ein normales Koordinatenbild einer Straßenoberfläche; und eine Anzeigeeinrichtung zum Anzeigen des gewandelten Bildes.
  12. Fahrunterstützungsvorrichtung nach Anspruch 7, 10 oder 11, die aufweist: eine Speichereinrichtung zum Speichern von Suchbereichsdaten.
  13. Fahrunterstützungsvorrichtung nach Anspruch 7, 10 oder 11, worin mindestens drei Einheiten der Bildaufnahmeeinrichtung auf der gleichen Achse angeordnet sind.
  14. Fahrunterstützungsvorrichtung nach Anspruch 7, 10 oder 11, worin insgesamt drei oder mehr Einheiten der Bildaufnahmeeinrichtung angeordnet sind, die zwei Einheiten der Bildaufnahmeeinrichtung auf einer vertikalen Achse und zwei Einheiten der Bildaufnahmeeinrichtung auf einer horizontalen Achse um die einzelne Bildaufnahmeeinrichtung herum enthalten.
  15. Fahrunterstützungsvorrichtung nach Anspruch 7, 10 oder 11, worin die Bildaufnahmeeinrichtung zwei oder mehr Bildaufnahmeeinrichtungen mit unterschiedlichen Auflösungen enthält.
  16. Fahrunterstützungsvorrichtung, die aufweist: eine Bildaufnahmeeinrichtung, die an einer mobilen Einheit angebracht ist; eine Wandeleinrichtung zum Wandeln eines Bildes, das von der Bildaufnahmeeinrichtung aufgenommen wird, in ein blickpunktgewandeltes Bild, das von einem virtuellen Blickpunkt gesehen wird, der unterschiedlich zu einer Position der Bildaufnahmeeinrichtung ist; und eine Anzeigeeinrichtung zum Anzeigen eines Bildes, das von der Wandeleinrichtung gewandelt wird, worin die Bildaufnahmeeinrichtung eine Vielzahl von Bildern mit einer vorgegebenen Parallaxe aufnimmt und worin die Anzeigeeinrichtung ein Bild anzeigt, das auf der Basis der Parallaxe korrigiert wird.
  17. Abstandsinformationengewinnungsvorrichtung, die aufweist: eine Bildaufnahmeeinrichtung zum Aufnehmen einer Vielzahl von Bildern von einer Vielzahl von Beobachtungspunkten; eine Wandeleinrichtung zum Wandeln der Vielzahl von Bildern in Zwischenbilder, die auf eine Ebene projiziert werden, die orthogonale Koordinaten hat; eine Einrichtung zum Definieren einer der orthogonalen Koordinaten (zum Beispiel einer horizontalen Koordinate) als eine Richtung des Drehwinkels um eine Achse, die durch die Vielzahl von Beobachtungspunkten hindurch geht und zu einer Suchrichtung ausgerichtet ist, um eine Parallaxe zwischen den Zwischenbildern in Richtung einer anderen Koordinate (zum Beispiel der vertikalen Koordinate) des orthogonalen Koordinatensystems zu erhalten; und eine Messeinrichtung zum Messen eines Abstands zu einem Ziel in dem Bild auf der Basis der Parallaxe.
DE10296593.5T 2001-03-28 2002-03-01 Fahrunterstützungsvorrichtung Expired - Lifetime DE10296593B4 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2001093721 2001-03-28
JP2001-93721 2001-03-28
JP2001-244275 2001-08-10
JP2001244275A JP4861574B2 (ja) 2001-03-28 2001-08-10 運転支援装置
PCT/JP2002/001933 WO2002080557A1 (en) 2001-03-28 2002-03-01 Drive supporting device

Publications (2)

Publication Number Publication Date
DE10296593T5 true DE10296593T5 (de) 2004-05-06
DE10296593B4 DE10296593B4 (de) 2017-02-02

Family

ID=26612416

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10296593.5T Expired - Lifetime DE10296593B4 (de) 2001-03-28 2002-03-01 Fahrunterstützungsvorrichtung

Country Status (4)

Country Link
US (1) US7218758B2 (de)
JP (1) JP4861574B2 (de)
DE (1) DE10296593B4 (de)
WO (1) WO2002080557A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006003538B3 (de) * 2006-01-24 2007-07-19 Daimlerchrysler Ag Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
EP3073446A1 (de) 2015-03-26 2016-09-28 Robert Bosch Gmbh Verfahren zum darstellen einer fahrzeugumgebung eines fahrzeuges
US11108992B2 (en) 2016-06-08 2021-08-31 Sony Corporation Imaging control device and method, and vehicle
US11158076B2 (en) 2016-06-08 2021-10-26 Sony Corporation Imaging control device and method, and vehicle

Families Citing this family (131)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3960092B2 (ja) * 2001-07-12 2007-08-15 日産自動車株式会社 車両用画像処理装置
JP2003132349A (ja) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd 描画装置
US7715591B2 (en) * 2002-04-24 2010-05-11 Hrl Laboratories, Llc High-performance sensor fusion architecture
JP3785456B2 (ja) * 2002-07-25 2006-06-14 独立行政法人産業技術総合研究所 駅ホームにおける安全監視装置
DE10244148A1 (de) * 2002-09-23 2004-04-08 Daimlerchrysler Ag Verfahren und Vorrichtung zur videobasierten Beobachtung und Vermessung der seitlichen Umgebung eines Fahrzeugs
DE10260555A1 (de) * 2002-12-21 2004-07-01 Eads Radio Communication Systems Gmbh & Co.Kg System zur Hinderniswarnung für spurgeführte Fahrzeuge
JP4092479B2 (ja) * 2003-01-07 2008-05-28 日産自動車株式会社 車両用運転支援装置
JP2004240480A (ja) * 2003-02-03 2004-08-26 Matsushita Electric Ind Co Ltd 運転支援装置
US7619626B2 (en) * 2003-03-01 2009-11-17 The Boeing Company Mapping images from one or more sources into an image for display
JP4256702B2 (ja) * 2003-03-20 2009-04-22 クラリオン株式会社 画像表示方法、画像表示装置及び画像処理装置
JP4677175B2 (ja) 2003-03-24 2011-04-27 シャープ株式会社 画像処理装置、画像撮像システム、画像表示システム、画像撮像表示システム、画像処理プログラム、及び画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
US20050007369A1 (en) * 2003-07-07 2005-01-13 Jiangen Cao Graphic engine for approximating a quadratic Bezier curve in a resource-constrained device
US7142211B2 (en) * 2003-07-07 2006-11-28 Arcsoft, Inc. Graphic engine for fill style transferring in a resource-constrained device
US6876366B2 (en) * 2003-07-07 2005-04-05 Arcsoft, Inc. Graphic engine for handling sub-pixel regions in a resource-constrained device
US7161597B2 (en) * 2003-07-07 2007-01-09 Arcsoft, Inc. Graphic engine for rasterizing a straight edge in a resource-constrained device
JP3936683B2 (ja) * 2003-08-04 2007-06-27 株式会社デンソー 道路位置検出装置及びプログラム
GB0325990D0 (en) * 2003-11-07 2003-12-10 Trw Ltd Method and apparatus for discriminating the colour of road markings
JP4457664B2 (ja) * 2003-12-25 2010-04-28 株式会社エクォス・リサーチ 駐車支援装置
JP3980565B2 (ja) * 2004-02-16 2007-09-26 松下電器産業株式会社 運転支援装置
JP2005294954A (ja) * 2004-03-31 2005-10-20 Pioneer Electronic Corp 表示装置及び補助表示装置
JP4315117B2 (ja) * 2004-04-02 2009-08-19 株式会社デンソー 車両周辺監視システム
WO2005107261A1 (ja) * 2004-04-27 2005-11-10 Matsushita Electric Industrial Co., Ltd. 車両周囲表示装置
JP4556494B2 (ja) * 2004-05-31 2010-10-06 日産自動車株式会社 車両周囲表示装置及び車両周囲表示方法
JP4488804B2 (ja) * 2004-06-23 2010-06-23 株式会社トプコン ステレオ画像の関連付け方法及び3次元データ作成装置
JP4744823B2 (ja) * 2004-08-05 2011-08-10 株式会社東芝 周辺監視装置および俯瞰画像表示方法
US7593547B2 (en) * 2004-10-12 2009-09-22 Siemens Corporate Research, Inc. Video-based encroachment detection
JP4573242B2 (ja) * 2004-11-09 2010-11-04 アルパイン株式会社 運転支援装置
JP4650079B2 (ja) * 2004-11-30 2011-03-16 日産自動車株式会社 物体検出装置、および方法
JP4715187B2 (ja) * 2004-12-14 2011-07-06 日産自動車株式会社 画像処理装置及び画像処理システム
US8170284B2 (en) * 2005-01-11 2012-05-01 Pioneer Corporation Apparatus and method for displaying image of view in front of vehicle
US7561732B1 (en) * 2005-02-04 2009-07-14 Hrl Laboratories, Llc Method and apparatus for three-dimensional shape estimation using constrained disparity propagation
ES2259543B1 (es) * 2005-02-04 2007-11-16 Fico Mirrors, S.A. Sistema para la deteccion de objetos en una zona exterior frontal de un vehiculos, aplicable a vehiculos industriales.
JP4341564B2 (ja) * 2005-02-25 2009-10-07 株式会社豊田中央研究所 対象物判定装置
JP4652849B2 (ja) * 2005-03-03 2011-03-16 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
KR100817656B1 (ko) * 2005-03-15 2008-03-31 오므론 가부시키가이샤 화상 처리 방법, 3차원 위치 계측 방법 및 화상 처리 장치
JP2006268076A (ja) * 2005-03-22 2006-10-05 Sanyo Electric Co Ltd 運転支援システム
JP2006306241A (ja) * 2005-04-27 2006-11-09 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
US7925391B2 (en) * 2005-06-02 2011-04-12 The Boeing Company Systems and methods for remote display of an enhanced image
JP4712487B2 (ja) * 2005-08-25 2011-06-29 株式会社リコー 画像処理方法及び装置、デジタルカメラ装置、並びに画像処理プログラムを記録した記録媒体
JP4662258B2 (ja) * 2005-08-31 2011-03-30 株式会社リコー 画像処理方法及び装置、デジタルカメラ装置、並びに画像処理プログラムを記録した記録媒体
US8120665B2 (en) 2005-08-25 2012-02-21 Ricoh Company, Ltd. Image processing method and apparatus, digital camera, and recording medium recording image processing program
TW200829466A (en) * 2007-01-03 2008-07-16 Delta Electronics Inc Advanced bird view visual system
JP2007124609A (ja) 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
JP4810953B2 (ja) * 2005-10-07 2011-11-09 日産自動車株式会社 車両用死角映像表示装置
JP4687411B2 (ja) * 2005-11-15 2011-05-25 株式会社デンソー 車両周辺画像処理装置及びプログラム
JP2007172501A (ja) * 2005-12-26 2007-07-05 Alpine Electronics Inc 車両運転支援装置
JP4707109B2 (ja) * 2006-03-02 2011-06-22 アルパイン株式会社 複数カメラ撮影画像処理方法及び装置
KR101143176B1 (ko) * 2006-09-14 2012-05-08 주식회사 만도 조감도를 이용한 주차구획 인식 방법, 장치 및 그를 이용한주차 보조 시스템
US8269820B2 (en) 2006-11-02 2012-09-18 Konica Minolta Holdings, Inc. Wide-angle image acquiring method and wide-angle stereo camera device
TW200829464A (en) * 2007-01-03 2008-07-16 Delta Electronics Inc Bird view visual system with fish eye improvement and method thereof
JP2008257502A (ja) * 2007-04-05 2008-10-23 Mitsubishi Electric Corp 車両周辺監視装置
US8049658B1 (en) * 2007-05-25 2011-11-01 Lockheed Martin Corporation Determination of the three-dimensional location of a target viewed by a camera
JP5234894B2 (ja) * 2007-06-28 2013-07-10 富士重工業株式会社 ステレオ画像処理装置
JP5053776B2 (ja) * 2007-09-14 2012-10-17 株式会社デンソー 車両用視界支援システム、車載装置、及び、情報配信装置
JP4458138B2 (ja) * 2007-09-18 2010-04-28 株式会社デンソー 車両周辺監視装置
JP4462333B2 (ja) * 2007-11-13 2010-05-12 株式会社デンソー 走行支援装置
WO2009092168A1 (en) * 2008-01-22 2009-07-30 Magna International Inc. Use of a single camera for multiple driver assistance services, park aid, hitch aid and liftgate protection
JP2009225322A (ja) * 2008-03-18 2009-10-01 Hyundai Motor Co Ltd 車両用情報表示システム
US8054201B2 (en) * 2008-03-19 2011-11-08 Mazda Motor Corporation Surroundings monitoring device for vehicle
US8705792B2 (en) * 2008-08-06 2014-04-22 Toyota Motor Engineering & Manufacturing North America, Inc. Object tracking using linear features
KR100929689B1 (ko) * 2008-09-08 2009-12-03 재단법인대구경북과학기술원 스테레오 영상 정보를 이용한 차량용 사고기록 장치 및 그 제어 방법
US20110205365A1 (en) * 2008-10-28 2011-08-25 Pasco Corporation Road measurement device and method for measuring road
KR100997617B1 (ko) 2008-11-20 2010-12-01 재단법인대구경북과학기술원 교통 수단의 사고 기록 장치, 방법 및 시스템
KR100972041B1 (ko) 2009-01-15 2010-07-22 한민홍 카메라를 이용한 장애물 인식방법
US8818695B2 (en) 2009-02-23 2014-08-26 Hti Ip, L.L.C. Method for reporting traffic conditions
JP5432545B2 (ja) * 2009-02-25 2014-03-05 株式会社トプコン 対象物検出装置
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
JP5099050B2 (ja) * 2009-03-09 2012-12-12 株式会社デンソー 車両用画像表示装置
JP5190712B2 (ja) 2009-03-24 2013-04-24 アイシン精機株式会社 障害物検出装置
US8965670B2 (en) * 2009-03-27 2015-02-24 Hti Ip, L.L.C. Method and system for automatically selecting and displaying traffic images
US8416300B2 (en) 2009-05-20 2013-04-09 International Business Machines Corporation Traffic system for enhancing driver visibility
JP2010278931A (ja) * 2009-05-29 2010-12-09 Toshiba Corp 画像処理装置
AU2009348935B2 (en) * 2009-06-30 2015-05-07 Saab Ab A method and an arrangement for estimating 3D models in a street environment
JP5436086B2 (ja) * 2009-08-03 2014-03-05 アルパイン株式会社 車両周辺画像表示装置および車両周辺画像表示方法
GB2472773B (en) * 2009-08-13 2015-01-28 Light Blue Optics Ltd Head up displays
US8988525B2 (en) * 2009-08-27 2015-03-24 Robert Bosch Gmbh System and method for providing guidance information to a driver of a vehicle
JP5051405B2 (ja) * 2009-11-09 2012-10-17 トヨタ自動車株式会社 距離測定装置、及び距離測定方法
JP5387856B2 (ja) * 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
JP5696872B2 (ja) * 2010-03-26 2015-04-08 アイシン精機株式会社 車両周辺監視装置
JP2011205513A (ja) * 2010-03-26 2011-10-13 Aisin Seiki Co Ltd 車両周辺監視装置
GB2479410A (en) * 2010-04-09 2011-10-12 Tektronix Uk Ltd Measuring perceived stereoscopic visual depth
JP5444139B2 (ja) * 2010-06-29 2014-03-19 クラリオン株式会社 画像のキャリブレーション方法および装置
US8665116B2 (en) 2010-07-18 2014-03-04 Ford Global Technologies Parking assist overlay with variable brightness intensity
JP5413516B2 (ja) * 2010-08-19 2014-02-12 日産自動車株式会社 立体物検出装置及び立体物検出方法
JP5690539B2 (ja) 2010-09-28 2015-03-25 株式会社トプコン 自動離着陸システム
JP5389002B2 (ja) * 2010-12-07 2014-01-15 日立オートモティブシステムズ株式会社 走行環境認識装置
JP5618840B2 (ja) 2011-01-04 2014-11-05 株式会社トプコン 飛行体の飛行制御システム
JP5775354B2 (ja) 2011-04-28 2015-09-09 株式会社トプコン 離着陸ターゲット装置及び自動離着陸システム
US8799201B2 (en) 2011-07-25 2014-08-05 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for tracking objects
WO2013018173A1 (ja) 2011-07-29 2013-02-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP5787695B2 (ja) 2011-09-28 2015-09-30 株式会社トプコン 画像取得装置
JP5414947B2 (ja) 2011-12-27 2014-02-12 パナソニック株式会社 ステレオ撮影装置
US20130169679A1 (en) * 2011-12-30 2013-07-04 Automotive Research & Test Center Vehicle image display system and correction method thereof
DE102012200731A1 (de) * 2012-01-19 2013-07-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
JP6029306B2 (ja) * 2012-03-29 2016-11-24 住友建機株式会社 作業機械用周辺監視装置
US20130293678A1 (en) * 2012-05-02 2013-11-07 Harman International (Shanghai) Management Co., Ltd. Virtual navigation system for video
CN104271406A (zh) * 2012-05-08 2015-01-07 丰田自动车株式会社 俯瞰图像显示装置
DE112013002636B4 (de) 2012-05-22 2019-05-09 Mitsubishi Electric Corporation Bildverarbeitungsvorrichtung
JP6458988B2 (ja) * 2012-08-31 2019-01-30 ソニー株式会社 画像処理装置および画像処理方法、並びに情報処理装置
US20140093131A1 (en) * 2012-10-01 2014-04-03 Xerox Corporation Visibility improvement in bad weather using enchanced reality
JP2014110028A (ja) * 2012-12-04 2014-06-12 Sony Corp 画像処理装置、画像処理方法およびプログラム
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
US9349056B2 (en) * 2013-02-15 2016-05-24 Gordon Peckover Method of measuring road markings
KR101413231B1 (ko) * 2013-02-18 2014-06-30 인하대학교 산학협력단 증강현실 기반 차량 주변 모니터링 장치 및 방법, 그리고 차량
US10318824B2 (en) * 2014-07-23 2019-06-11 GM Global Technology Operations LLC Algorithm to extend detecting range for AVM stop line detection
JP6380550B2 (ja) * 2014-11-14 2018-08-29 日産自動車株式会社 表示装置及び表示方法
DE102015117774A1 (de) * 2015-04-30 2016-11-03 Huf Hülsbeck & Fürst Gmbh & Co. Kg Rückfahrkameraeinrichtung für Kraftfahrzeuge
JP6091586B1 (ja) * 2015-11-12 2017-03-08 三菱電機株式会社 車両用画像処理装置および車両用画像処理システム
JP6511406B2 (ja) * 2016-02-10 2019-05-15 クラリオン株式会社 キャリブレーションシステム、キャリブレーション装置
JP2017199178A (ja) * 2016-04-27 2017-11-02 Kyb株式会社 路面状態検出装置
JP6443418B2 (ja) * 2016-10-03 2018-12-26 トヨタ自動車株式会社 車両運転支援装置
JP2018110328A (ja) * 2017-01-04 2018-07-12 株式会社デンソーテン 画像処理装置および画像処理方法
JP6501805B2 (ja) * 2017-01-04 2019-04-17 株式会社デンソーテン 画像処理装置および画像処理方法
IL252769B (en) 2017-06-08 2021-10-31 Israel Aerospace Ind Ltd Method and system for autonomous vehicle navigation
CN110709301B (zh) * 2017-06-15 2023-05-16 日立安斯泰莫株式会社 车辆控制装置
WO2019003533A1 (ja) * 2017-06-26 2019-01-03 日立オートモティブシステムズ株式会社 駐車支援装置
CN110831818B (zh) * 2017-07-07 2021-02-02 日产自动车株式会社 泊车辅助方法以及泊车辅助装置
JP6985872B2 (ja) * 2017-09-22 2021-12-22 株式会社デンソー 車両の周辺監視装置と周辺監視方法
CN109544460A (zh) * 2017-09-22 2019-03-29 宝沃汽车(中国)有限公司 图像矫正方法、装置及车辆
JP6970577B2 (ja) * 2017-09-29 2021-11-24 株式会社デンソー 周辺監視装置および周辺監視方法
WO2019181890A1 (en) 2018-03-19 2019-09-26 Ricoh Company, Ltd. Information processing apparatus, image capture apparatus, image processing system, and method of processing information
WO2019215789A1 (ja) * 2018-05-07 2019-11-14 三菱電機株式会社 駐車支援装置
JP7070082B2 (ja) * 2018-05-18 2022-05-18 株式会社デンソー 車載カメラ
US11892818B2 (en) 2018-10-17 2024-02-06 Niagara Bottling, Llc Dock door automation systems and methods
JPWO2020129115A1 (ja) * 2018-12-17 2021-11-04 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、情報処理方法およびコンピュータプログラム
JP7467074B2 (ja) * 2019-11-05 2024-04-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7452105B2 (ja) * 2020-03-05 2024-03-19 トヨタ自動車株式会社 情報処理装置、情報処理方法及びシステム
JP7207366B2 (ja) * 2020-05-19 2023-01-18 トヨタ自動車株式会社 車載表示システム
US11820290B2 (en) 2021-04-14 2023-11-21 Niagara Bottling, Llc Trailer alignment detection for dock automation using vision system and dynamic depth filtering
JP7488222B2 (ja) 2021-04-28 2024-05-21 Kddi株式会社 相対位置推定装置及びプログラム
JP2023103837A (ja) * 2022-01-14 2023-07-27 ヤマハ発動機株式会社 水域物体検出システムおよび船舶

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58110334A (ja) * 1981-12-23 1983-06-30 Hino Motors Ltd 路面視界表示装置
JPH0396451A (ja) * 1989-09-11 1991-04-22 Nissan Motor Co Ltd 車両用障害物検出装置
JP3381351B2 (ja) * 1993-12-24 2003-02-24 日産自動車株式会社 車両用周囲状況表示装置
JP3501841B2 (ja) * 1994-05-11 2004-03-02 株式会社デンソー 立体物領域検出装置及び立体物領域迄の距離測定装置及びそれらの検出、測定方法
JP2989744B2 (ja) 1994-06-13 1999-12-13 株式会社東芝 測定面抽出装置及びその方法
US5742507A (en) * 1994-11-25 1998-04-21 Itt Automotive Europe Gmbh Driving stability control circuit with speed-dependent change of the vehicle model
JP3556319B2 (ja) * 1995-04-10 2004-08-18 富士通株式会社 距離計測装置
JPH08305999A (ja) * 1995-05-11 1996-11-22 Hitachi Ltd 車載用カメラシステム
DE19539642A1 (de) * 1995-10-25 1996-11-14 Daimler Benz Ag Verfahren zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes insbesondere bei einem Fahrzeug, und Vorrichtung zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes
US6192145B1 (en) * 1996-02-12 2001-02-20 Sarnoff Corporation Method and apparatus for three-dimensional scene processing using parallax geometry of pairs of points
JP3500024B2 (ja) * 1997-01-07 2004-02-23 三菱重工業株式会社 自動運転システムにおける車両制御方法
US6198852B1 (en) * 1998-06-01 2001-03-06 Yeda Research And Development Co., Ltd. View synthesis from plural images using a trifocal tensor data structure in a multi-view parallax geometry
EP2259220A3 (de) * 1998-07-31 2012-09-26 Panasonic Corporation Vorrichtung und Verfahren zur Bildanzeige
JP3580475B2 (ja) * 1998-09-14 2004-10-20 矢崎総業株式会社 周辺監視装置
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
JP2000207693A (ja) * 1999-01-08 2000-07-28 Nissan Motor Co Ltd 車載用障害物検出装置
EP1050866B1 (de) * 1999-04-28 2003-07-09 Matsushita Electric Industrial Co., Ltd. Einparkhilfe-Assistenz-Vorrichtung
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
US6411867B1 (en) * 1999-10-27 2002-06-25 Fujitsu Ten Limited Vehicle driving support system, and steering angle detection device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006003538B3 (de) * 2006-01-24 2007-07-19 Daimlerchrysler Ag Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
EP3073446A1 (de) 2015-03-26 2016-09-28 Robert Bosch Gmbh Verfahren zum darstellen einer fahrzeugumgebung eines fahrzeuges
DE102015205479A1 (de) 2015-03-26 2016-09-29 Robert Bosch Gmbh Verfahren zum Darstellen einer Fahrzeugumgebung eines Fahrzeuges
US11108992B2 (en) 2016-06-08 2021-08-31 Sony Corporation Imaging control device and method, and vehicle
US11158076B2 (en) 2016-06-08 2021-10-26 Sony Corporation Imaging control device and method, and vehicle

Also Published As

Publication number Publication date
US20040105579A1 (en) 2004-06-03
DE10296593B4 (de) 2017-02-02
JP4861574B2 (ja) 2012-01-25
JP2002359838A (ja) 2002-12-13
WO2002080557A1 (en) 2002-10-10
US7218758B2 (en) 2007-05-15

Similar Documents

Publication Publication Date Title
DE10296593B4 (de) Fahrunterstützungsvorrichtung
DE60207655T2 (de) Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
DE102016212405B4 (de) Fahrzeugbildverarbeitungsvorrichtung und Fahrzeugbildverarbeitungssystem
DE10251880B4 (de) Bilderkennungsvorrichtung
DE102014116140B4 (de) Einparkhilfsvorrichtung und Einparkhilfsverfahren für ein Fahrzeug
DE60009114T2 (de) Vorrichtung zur unterstützung von kraftfahrzeugführern
DE102006003538B3 (de) Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
DE602004011164T2 (de) Vorrichtung und Methode zur Anzeige von Informationen
DE60005426T2 (de) Rückblicksüberwachungssystem für Fahrzeuge
DE10030421B4 (de) Fahrzeugumgebungsüberwachungssystem
DE102005056645B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE112010005661B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE112012003685T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
DE102014115399B4 (de) Vorrichtung und Verfahren zur Einparkhilfe
DE112017000816T5 (de) Fahrerassistenzsystem mit variabler Bildauflösung
DE102013220669A1 (de) Dynamische Rückspiegelanzeigemerkmale
DE102005056647B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE112008002819T5 (de) Autofokus-Bildsystem
EP2061234A1 (de) Abbildungsvorrichtung
DE112017007528T5 (de) Fahrzeugüberwachungskameravorrichtung
DE102016104732A1 (de) Verfahren zur Bewegungsabschätzung zwischen zwei Bildern eines Umgebungsbereichs eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE4308776A1 (de) System zur Überwachung des fahrzeugexternen Zustands unter Verwendung eines durch mehrere Fernsehkameras aufgenommenen Bildes
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
DE102019120796A1 (de) Fahrzeugfahrumgebungs-Detektionsvorrichtung und Fahrzeugfahr-Steuersystem
DE102005057090B4 (de) Vorrichtung zur und Verfahren der Bildextraktion

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP

R016 Response to examination communication
R082 Change of representative

Representative=s name: GRUENECKER, KINKELDEY, STOCKMAIR & SCHWANHAEUS, DE

R081 Change of applicant/patentee

Owner name: PANASONIC INTELLECTUAL PROPERTY MANAGEMENT CO., JP

Free format text: FORMER OWNER: PANASONIC CORPORATION, KADOMA-SHI, OSAKA, JP

Effective date: 20150205

R082 Change of representative

Representative=s name: GRUENECKER, KINKELDEY, STOCKMAIR & SCHWANHAEUS, DE

Effective date: 20150205

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE

Effective date: 20150205

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence
R071 Expiry of right