DE60009114T2 - Vorrichtung zur unterstützung von kraftfahrzeugführern - Google Patents

Vorrichtung zur unterstützung von kraftfahrzeugführern Download PDF

Info

Publication number
DE60009114T2
DE60009114T2 DE60009114T DE60009114T DE60009114T2 DE 60009114 T2 DE60009114 T2 DE 60009114T2 DE 60009114 T DE60009114 T DE 60009114T DE 60009114 T DE60009114 T DE 60009114T DE 60009114 T2 DE60009114 T2 DE 60009114T2
Authority
DE
Germany
Prior art keywords
image
moving body
area
determined
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60009114T
Other languages
English (en)
Other versions
DE60009114D1 (de
Inventor
Hirofumi Ishii
Atsushi Morimura
Masamichi Nakagawa
Shusaku Okamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of DE60009114D1 publication Critical patent/DE60009114D1/de
Application granted granted Critical
Publication of DE60009114T2 publication Critical patent/DE60009114T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • G06T7/238Analysis of motion using block-matching using non-full search, e.g. three-step search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Automotive Seat Belt Assembly (AREA)
  • Air Bags (AREA)
  • Studio Devices (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

  • Gebiet der Technik
  • Die vorliegende Erfindung betrifft ein Fahrassistenzsystem zum Unterstützen des Fahrens eines sich bewegenden Körpers, wie eines Fahrzeugs, indem ein Bild der Umgebungsbedingungen des sich bewegenden Körpers mit einer Kamera aufgenommen und eine Verarbeitung des Kamerabildes durchgeführt wird.
  • Stand der Technik
  • Was ein herkömmliches Fahrassistenzsystem mit einer Kamera angelangt, so wird das Erkennen eines Hindernisses oder eines sich nähernden Fahrzeugs z. B. in den offengelegten japanischen Patentveröffentlichung Nr. 9-240397 und 7-93693 offenbart.
  • Die offengelegte japanische Patentveröffentlichung Nr. 9-240397 (im folgenden als "das erste herkömmliche Beispiel" bezeichnet) offenbart eine Signalanlage für ein im seitlichen hinteren Bereich fahrendes Fahrzeug. Diese Signalanlage ermittelt auf der Grundlage eines Kamerabildes, das im seitlichen hinteren Bereich des eigenen Fahrzeugs aufgenommen wird, einen sich bewegenden Körper, der in einer benachbarten Fahrbahn vorhanden ist, und ermittelt weiter, ob beim Ermitteln eines sich bewegenden Körpers eine weiße Linie vorhanden ist oder nicht, um so ein anderes Fahrzeug durch Integration der Ergebnisse dieser Ermittlung zu ermitteln. So wird der Abstand zwischen dem eigenen Fahrzeug und einem anderen Fahrzeug beurteilt, damit ein Fahrer informiert werden kann, wenn die potentielle Gefahr eines zu geringen Abstands besteht.
  • Alternativ offenbart die offengelegte japanische Patentveröffentlichung Nr. 7-93693 (im folgenden als "das zweite herkömmliche Beispiel" bezeichnet) einen Gegenstandsdetektor für ein Fahrzeug. Dieser ist ein Gegenstandsdetektor für ein Fahrzeug, der in der Lage ist, einen Gegenstand, wie ein Fahrzeug, korrekt von einer Abbildung oder von einem Muster auf der Straße zu unterscheiden, so dass der Gegenstand zuverlässig ermittelt wird. Charakteristisch für die Struktur ist, dass die Bewegung eines Randpunk tes eines Gegenstandes in einem Bild durch ein Messinstrument für die scheinbare Fahrgeschwindigkeit gemessen wird, als ob es eine dreidimensionale Bewegung auf der Straße wäre, und die gemessene Bewegung und die Geschwindigkeit des Fahrzeugs durch eine Gegenstandbeurteilungsvorrichtung verglichen werden, um den Gegenstand zu unterscheiden.
  • Ein Rückfenstersichtsystem für ein Fahrzeug, einschließlich einer Panoramaansicht, ist aus der US 5 670 935 bekannt.
  • Aufgaben der Erfindung
  • Jedoch haben die vorher erwähnten herkömmlichen Techniken die folgenden Probleme:
  • Erstens: beim zweiten herkömmlichen Beispiel ist das Verfahren für das Erkennen eines Hindernisses durch Bewegungsanalyse eines Kamerabildes ein Verfahren, das im Allgemeinen als „Motion Stereo" („Bewegungsstereo") bezeichnet wird, bei dem die Änderung eines Bildes gemäß der Änderung eines Sichtpunktes aufgrund von Bewegung analysiert wird, um dreidimensionale Information über das Kamerabild zu gewinnen. Dieses Verfahren hat jedoch den Nachteil, dass die Änderung des Bildes gemäß der Änderung des Sichtpunktes bei einem Kamerabild, das in Bewegungsrichtung aufgenommen wird, klein ist. Wenn dieses Verfahren z. B. bei einem Fahrzeug verwendet wird, so entsteht ein Problem, dass die Nachweisempfindlichkeit herabgesenkt wird, wenn ein Gegenstand entlang der Bewegungsrichtung näher am vor- oder rückwärtigen Bereich ist.
  • Da außerdem die Technik der Bewegungsanalyse verwendet wird, um die Bewegung eines Gegenstandes auf einem Bildschirm zu ermitteln, wenn die Bildaufnahmevorrichtung an einem Fahrzeug angebracht ist, vibriert das Bild auf dem Schirm aufgrund Erschütterungen des Fahrzeugs, so dass die Bewegung nicht genau ermittelt werden kann.
  • Wenn außerdem ein sich nähernder Gegenstand ermittelt wird, ist es wichtig, wie der Fahrer über den sich nähernden Gegenstand informiert wird. Im Fall, in dem ein Warnton oder dergleichen verwendet wird, kann der Warnton den Fahrer überraschen oder erschrecken, was einen Fahrfehler verursachen kann. Auch die fehlerhafte oder irrtümliche Erkennung eines sich nähernden Gegenstandes kann sicherem Fahren durch den Fahrer entgegenstehen. Daher ist es ein wichtiges Problem, wie der Fahrer über einen sich nähernden Gegenstand informiert wird. In Bezug auf eine Warnung an den Fahrer beschreibt das erste herkömmliche Beispiel nur, dass der Fahrer über zu geringen Abstand informiert wird. Beim zweiten herkömmlichen Beispiel wird nicht beschrieben, wie der Fahrer über ein erkanntes Hindernis informiert wird.
  • Beschreibung der Erfindung
  • In Anbetracht solcher Probleme beim herkömmlichen Fahrassistenzsystem oder Bildwiedergabesystem für den beweglichen Körper ist es eine Aufgabe der Erfindung, ein Fahrassistenzsystem bereit zu stellen, bei dem ein Fahrer Umgebungsbedingungen, wie einen sich nähernden Gegenstand und ein Hindernis, direkt verifizieren kann, so dass die Belastung des Fahrers verringert wird.
  • Speziell umfasst das System zum Unterstützen des Fahrens eines sich bewegenden (fahrenden) Körpers gemäß dieser Erfindung eine Mehrzahl von Bildaufnahmevorrichtungen, die an dem sich bewegenden Körper angebracht sind, um Kamerabilder von der Rückseite des sich bewegenden Körpers aufzunehmen; und eine Erfassungsvorrichtung für das Ermitteln der Bewegung eines Gegenstandes, der hinter dem sich bewegenden Körper vorhanden ist, basierend auf den Kamerabildern der Mehrzahl der Bildaufnahmevorrichtungen, wobei die Mehrzahl der Bildaufnahmevorrichtungen in ihren Kamerabildern einen Überlappbereich aufweisen, der einen Bereich in der Nähe eines Fluchtpunktes umfasst und in welchem sich Bildbereiche der ersten Bildaufnahmevorrichtung und der zweiten Bildaufnahmevorrichtung überlappen, und die Erfassungsvorrichtung im Überlappbereich eine Stereoparallaxe zwischen der ersten Bildaufnahmevorrichtung und der zweiten Bildaufnahmevorrichtung ermittelt und auf der Grundlage der ermittelten Stereoparallaxe einen Abstand zum Gegenstand ermittelt.
  • Die Erfassungsvorrichtung des Fahrassistenzsystems gemäß dieser Erfindung ermittelt Flüsse entsprechend der zeitlichen Bewegung eines Bildes im Bildbereich der ersten Bildaufnahmevorrichtung, ausgenommen des Überlappbereichs, und ermittelt auf der Grundlage der ermittelten Flüsse die Bewegung des Gegenstandes, der hinter dem sich bewegenden Körper vorhanden ist.
  • Das erfindungsgemäße Fahrassistenzsystem umfasst vorzugsweise weiter eine Bildsynthesevorrichtung, um durch Bildsynthese mit den Kamerabildern der Mehrzahl der Bildaufnahmevorrichtungen ein Bild zu erzeugen, das den rückwärtigen Bereich hinter dem sich bewegenden Körper wiedergibt.
  • Weiterhin umfasst das erfindungsgemäße Fahrassistenzsystem vorzugsweise eine Gefahrenstufenermittlungsvorrichtung zum Bestimmen der Gefahr eines möglichen Zusammenstoßes zwischen dem sich bewegenden Körper und einem sich hinter dem sich bewegenden Körper nähernden Gegenstand, auf der Grundlage der Informationsausgabe der Erfassungsvorrichtung, und zum Ausgeben eines Hinweissignals, wenn festgestellt wird, dass die Gefahr eines Zusammenstoßes groß ist; und eine externe Warnvorrichtung zum Ausgeben einer Warnung für den Bereich hinter dem sich bewegenden Körper, wenn das Hinweissignal von der Gefahrenstufenermittlungsvorrichtung ausgegeben wird.
  • Alternativ umfasst es vorzugsweise eine Gefahrenstufenermittlungsvorrichtung zum Bestimmen der Gefahr eines möglichen Zusammenstoßes zwischen dem sich bewegenden Körper und einem sich hinter dem sich bewegenden Körper nähernden Gegenstand, auf der Grundlage der Informationsausgabe der Erfassungsvorrichtung, und zum Ausgeben eines Hinweissignals, wenn festgestellt wird, dass die Gefahr eines Zusammenstoßes groß ist; und eine Passagiersschutzvorrichtung zum Ergreifen von Maßnahmen, um einen Passagier des sich bewegenden Körpers zu schützen, wenn das Hinweissignal von der Gefahrenstufenermittlungsvorrichtung ausgegeben wird.
  • Kurzbeschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm, das die Struktur eines Fahrassistenzsystems gemäß der erfindungsgemäßen Ausführungsform 1 zeigt.
  • 2A ist ein Diagramm eines exemplarischen Kamerabildes und 2B ist ein Diagramm, in dem Flüsse auf dem Bild von 2A gezeigt werden.
  • 3 ist ein konzeptionelles Diagramm, das die Bedingungen, unter denen das Bild von 2A aufgenommen wird, bei einer Betrachtung von oben zeigt.
  • 4A ist ein Diagramm, das die Verhältnisse zwischen einem Fluchtpunkt und Flüssen zeigt, und 4B ist ein Diagramm eines Bereichs, in dem sich ein Körper bewegt, der aus dem Bild von 2A extrahiert wird.
  • 5 ist ein Flussdiagramm, das Verfahren zur Extraktion von Erschütterungskomponenten zeigt.
  • 6A und 6B sind Diagramme, die den Einfluss der vertikalen Erschütterung eines Fahrzeugs auf eine Bildaufnahmevorrichtung zeigen.
  • 7A bis 7G sind Diagramme, um Verfahren zum Ermitteln eines geschätzten Offset-Wertes eines Bewegungsvektors zu erläutern.
  • 8 ist ein Flussdiagramm, das Verfahren zur Erfassung eines sich bewegenden Körpers/erfassten Objekts zeigt.
  • 9A und 9B sind Diagramme, um ein Verfahren für das Diskriminieren eines sich bewegenden Körpers zu erläutern.
  • 10A und 10B sind Diagramme, um die Extraktion eines Bereichs, in dem sich ein Körper bewegt, unter Verwendung eines Bewegungsvektor zu erläutern.
  • 11A ist ein Diagramm eines Standardabstandswertes eines Bildaufnahmebereichs und 11B ist ein Diagramm zur Veranschaulichung der verwendeten Abstandsschätzung, wenn sich der Bereich, in dem sich ein Körper bewegt, über Bereiche AR1 und AR2 hinaus erstreckt.
  • 12A ist ein Diagramm eines Bildes, in dem Bewegungsvektoren eines unveränderlichen Hintergrundes gezeigt werden, und 12B ein Diagramm zum Erläutern der Beurteilung eines Hindernisses.
  • 13 ist ein Diagramm eines Beispiels einer Bildwiedergabe.
  • 14 ist ein Blockdiagramm zur Veranschaulichung der Struktur eines Fahrassistenzsystems gemäß der erfindungsgemäßen Ausführungsform 2.
  • 15 ist ein schematisches Diagramm zur Veranschaulichung eines Beispiels der Anordnung der Bildaufnahmevorrichtung bei der erfindungsgemäßen Ausführungsform 2.
  • 16A und 16B sind Diagramme von Kamerabildern, in denen Flüsse gezeigt sind, und 16C ist ein Diagramm, in dem eine Stereoparallaxe ermittelt wird, indem die zwei Bilder der 16A und 16B überlappt werden.
  • 17 ist ein Diagramm eines Beispiels eines Bildes, in dem ein Hindernis, ein sich bewegender Körper und ein sich nähernder Gegenstand extrahiert werden.
  • 18A und 18B sind Diagramme zur Veranschaulichung eines virtuellen Sichtpunktes, der für das Erzeugen eines synthetisierten Bildes verwendet wird, in dem ein sich bewegender Körper dreidimensional wiedergegeben wird.
  • 19A ist ein Diagramm eines Beispiels eines tatsächlich aufgenommenen Kamerabildes und 19B ist ein synthetisiertes Bild, das aus 19A generiert wurde.
  • 20A und 20B sind Diagramme zum Erläutern der Bildsynthese unter Berücksichtigung eines ermittelten Abstandes.
  • 21A und 21B sind Diagramme zum Erläutern der Bildsynthese bei der Verwendung von zwei Bildaufnahmevorrichtungen unter Berücksichtigung eines ermittelten Abstandes.
  • 22A und 22B sind Diagramme zur Veranschaulichung eines Beispiels der Anordnung einer Bildaufnahmevorrichtung gemäß einer Modifikation der erfindungsgemäßen Ausführungsform 2.
  • 23A, 23B und 23C sind Diagramme zum Erläutern eines Verfahren für das Ermitteln einer Stereoparallaxe gemäß der Modifikation der erfindungsgemäßen Ausführungsform 2.
  • 24 ist ein Blockdiagramm zur Veranschaulichung der Struktur eines Fahrassistenzsystems gemäß der erfindungsgemäßen Ausführungsform 3.
  • Bester Modus für das Durchführen der Erfindung
  • Bevorzugte Ausführungsformen der Erfindung werden jetzt mit Bezug auf die zugehörigen Zeichnungen beschrieben.
  • (AUSFÜHRUNGSFORM 1)
  • 1 ist ein Blockdiagramm zur Veranschaulichung der Struktur eines Fahrassistenzsystems (System zur Bildwidergabe eines sich bewegenden Körpers) gemäß der erfindungsgemäßen Ausführungsform 1.
  • In 1 bezeichnen: – das Bezugszeichen 101 die Bildaufnahmevorrichtung, die an einem sich bewegenden Körper vorgesehen wird; – das Bezugszeichen 102 eine Vorrichtung zum Erzeugen eines hierarchischen Bildes; – das Bezugszeichen 103 einen LPF (Tiefpassfilter); – das Bezugszeichen 104 eine Blockmusterungsvorrichtung; – das Bezugszeichen 105 eine hierarchische Blockanpassungsvorrichtung; – das Bezugszeichen 106 eine Sub-Pixel-Abschätz-/Zuverlässigkeitsermittlungsvorrichtung; – das Bezugszeichen 107 eine Vibrationskomponenten-Extraktions-/Eliminationsvorrichtung; – das Bezugszeichen 108 eine Vorrichtung zur Berechnung eines Fluchtpunktes, – das Bezugszeichen 109 die Erfassungsvorrichtung für einen sich bewegenden Körper/sich nähernden Gegenstand; – das Bezugszeichen 110 eine Bildsynthesevorrichtung; und – das Bezugszeichen 111 eine Wiedergabevorrichtung. Die konstituierenden Elemente 102 bis 109 bilden zusammen eine Erfassungsvorrichtung.
  • Die Bildaufnahmevorrichtung 101 ist z. B. eine Kamera und wird an einem hinteren Bereich, z. B. am Heck, eines Fahrzeugs bereitgestellt, damit ein Bild des rückseitigen Bereichs des Fahrzeugs aufgenommen werden kann. Als Wiedergabevorrichtung 111 kann eine speziell für dieses System ausgebildete Anzeigevorrichtung oder ein LCD-Monitor für Verkehrsnavigation verwendet werden.
  • Die Aufgabe des Bildwiedergabesystems für den sich bewegenden Körper dieser Ausführungsform ist hauptsächlich, durch direktes und verständliches Warnen und Anzeigen eines Gegenstands, der sich am rückseitigen Bereich nähert und eine potentielle Gefahr beim Ändern des Fahrkurses sein kann, die Belastung eines Fahrers zu verringern. Die Funktionsweise des Bildwiedergabesystems für den sich bewegenden Körper dieser Ausführungsform wird jetzt mit Bezug auf die 2 bis 13 beschrieben, Zuerst nimmt die Bildaufnahmevorrichtung 101 ein Bild (hier mit 320 Pixel × 240 Pixel) des rückseitigen Bereichs hinter dem eigenen Fahrzeug auf, wie in 2A gezeigt ist. Dieses Kamerabild umfasst Hindernisse, wie ein Gebäude 11 und einen Baum 12 am Straßenrand, und sich bewegende Körper, wie andere Fahrzeuge 13 und 14, die hinter dem eigenen Fahrzeug fahren. In 2 werden diese Hindernisse und sich bewegenden Körper schematisch dargestellt. Dieses Kamerabild wird in die Vorrichtung zum Erzeugen eines hierarchischen Bildes 102 und die Bildsynthesevorrichtung 110 eingegeben.
  • Die Vorrichtung zum Erzeugen eines hierarchischen Bildes 102 erzeugt ein erstes oberes Bild (mit 160 × 120 Pixel), indem sie jeweils 2 × 2 Pixel des Eingangsbildes addiert. Außerdem wird ein zweites oberes Bild (mit 80 × 60 Pixel) erzeugt, das ähnlich zum ersten oberen Bild ist. Diese drei Arten von Bildern werden zum Tiefpassfilter (LPF) 103 als hierarchische Bilder ausgegeben. Der Tiefpassfilter (LPF) 103 führt ein Tiefpassfiltern für 3 × 3 Pixel an jedem der hierarchischen Eingangsbilder durch.
  • Die Blockmusterungsvorrichtung 104 teilt jedes der hierarchischen Bilder in Blöcke von je 8 × 8 Pixel auf und führt eine Sub-Durchmusterung jedes Blocks an 16 (= 4 × 4) repräsentativen Punkten durch, die alle 2 Pixel ausgewählt werden.
  • Die hierarchische Blockanpassungsvorrichtung 105 erhält aus dem Bild der oberen Hierarchie eine SAD (Summe der absoluten Differenzen) durch die Blockanpassung in einem Bereich von 5 × 5 Pixeln, und erhält weiter einen Bewegungsvektor auf der Grundlage eines Punkts, an dem die SAD minimal ist. In Bezug auf einen Block des Bildes der niedrigeren Hierarchie wird weiter ein Bewegungsvektor in einem Bereich von 5 × 5 Pixeln mit einem Bewegungsvektor ermittelt, der in einem Block der höheren Hierarchie ermittelt wurde, der in der gleichen Position wie das Zentrum vorgesehen ist.
  • Die Sub-Pixel-Abschätz-/Zuverlässigkeitsermittlungsvorrichtung 106 schätzt, indem sie den Bewegungsvektor, der im Bild der niedrigsten Hierarchie (Kamerabild) ermittelt wurde, und die SAD verwendet, einen Bewegungsvektor mit einer Genauigkeit eines Sub-Pixels mit einem oder weniger Pixel auf Grundlage von Werten der SAD am Punkt, an dem die SAD minimal ist, und an acht Punkten um das SAD-Minimum. Weiterhin ermittelt die Sub-Pixel-Abschätz-/Zuverlässigkeitsermittlungsvorrichtung 106 die Zuverlässigkeit des Bewegungsvektors im Block.
  • Durch diese Prozesse der hierarchischen Blockanpassungsvorrichtung 105 und der Sub-Pixel-Abschätz-/Zuverlässigkeitsermittlungsvorrichtung 106 werden Bewegungsvektoren entsprechend der Bewegung aus einem vorhergehenden Bild an den jeweiligen Fluchtpunkten im Kamerabild als Flüsse FL ermittelt, wie in 2B gezeigt ist.
  • Die Flüsse FL im Kamerabild werden jetzt mit Bezug auf 3 beschrieben. Wie in 2B gezeigt ist, werden die oben erwähnten Flüsse FL an Randbereichen des Bildes erhalten. Dabei entspricht, nach dem Eliminieren der Kameravibrationen, eine zur Fahrtrichtung des Fahrzeugs von 3 entgegengesetzte Richtung einem Fluchtpunkt VP auf dem Bildschirm, der in 4A gezeigt ist. Ein Gegenstand, der unbeweglich auf dem Boden steht, hat einen Fluss FL in Richtung zum Fluchtpunkt VP auf dem Bildschirm. Demgemäß kann ein Bereich (wie ein rechteckiger Bereich 202) auf dem Bildschirm, der keinen Fluss FL in Richtung zum Fluchtpunkt VP hat, als sich bewegender Körper oder sich nähernder Gegenstand extrahiert werden.
  • Außerdem extrahiert und eliminiert die Vibrationskomponenten-Extraktions/Eliminationsvorrichtung 107 eine Vibrationskomponente, die durch die Erschütterungen des Fahrzeugs verursacht wird, indem die ermittelten Bewegungsvektoren integral verarbeitet werden. Da gemäß dieser Erfindung eine Vibrationskomponente des Bildes extrahiert wird, indem die Bewegungsvektoren verwendet werden, die für das Erfassen eines sich nähernden Gegenstandes ermittelt wurden, besteht keine Notwendigkeit, eine Vibrationskomponente des gesamten Bildes zwecks einer Vibrationskorrektur separat zu ermit teln. Die Vorrichtung zur Berechnung eines Fluchtpunktes 108 erhält den Fluchtpunkt VP der Flüsse FL des Bildes, das mit der Bewegung des Autos einhergeht. Insbesondere, wie 4A zeigt, wird der Fluchtpunkt VP als ein Fluchtpunkt erhalten, zu dem auf dem gesamten Bild die meisten Fluchtpunkte gerichtet sind.
  • Die Erfassungsvorrichtung für einen sich bewegenden Körper/sich nähernden Gegenstand 109 extrahiert, als einen Sich-bewegender-Körper/sich-nähernder-Gegenstand-Kandidatenblock, einen Block mit einem Bewegungsvektor, der von dem Fluss FL verschieden ist, der auf den Fluchtpunkt VP zeigt, der durch die Vorrichtung zur Berechnung eines Fluchtpunktes 108 erhalten wird. Außerdem werden nahe beieinander liegende Sich-bewegender-Körper/sich-nähernder-Gegenstand-Kandidatenblöcke miteinander verbunden, so dass ein Bereich, in dem der sich bewegende Körper/sich nähernde Gegenstand vorhanden ist, wie z. B. der rechteckige Bereich 202, als sich bewegender Körper extrahiert werden kann, wie in 4B gezeigt ist.
  • Nun wird die Vibrationskomponenten-Extraktions-/Eliminationsvorrichtung 107 mit Bezugnahme auf die 5 bis 7 beschrieben. 5 ist ein Flussdiagramm zum Erläutern der Betriebsweise.
  • Ein Fahrzeug bewegt sich nicht nur entlang der Fahrtrichtung, sondern aufgrund von Erschütterungen infolge von Unebenheiten der Straße und dergleichen auch in der vertikalen Richtung. Wie 6 zeigt, erscheint der Einfluss der Erschütterungen des Fahrzeugs auf der Bildaufnahmevorrichtung wie eine Positionsänderung, wie in 6A gezeigt ist, und eine Änderung der Bildaufnahmerichtung, wie in 6B gezeigt ist.
  • Die in 6A gezeigte vertikale Positionsänderung ist, verglichen mit einer Positionsänderung entlang der Fahrtrichtung des Fahrzeugs, sehr klein, weil der Bildabstand eines Bildsignals sehr klein ist. Weiterhing hängt der Einfluss einer Änderung der Position der Bildaufnahmevorrichtung stark vom Abstand zu einem Gegenstand ab, und ist groß bei einem nahen Gegenstand, aber minimal bei einem fernen Gegenstand. Der Abstand zu einem rückwärtigen Gegenstand, der bei dieser Ausführungsform überwacht wird, beträgt einige Meter bis einige Zehn Meter, was ausreichend weit entfernt ist. Demgemäß wird in diesem Fall nur die Änderung der Bildaufnahmerichtung, die in 6B gezeigt ist, betrachtet, während der Einfluss der vertikalen Positionsänderung nicht berücksichtigt wird.
  • Der Einfluss der Änderung der Bildaufnahmerichtung variiert nicht in Abhängigkeit vom Abstand zu einem Gegenstand, und wenn der Winkel der Änderung sehr klein ist, so kann sie als vertikaler Offset Vdy betrachtet werden, der auf dem gesamten Bildschirm konstant ist, in Bezug auf jeden Bewegungsvektor auf dem Bildschirm. In diesem Fall kann ein Bewegungsvektor (Vx, Vy) im ruhigen Hintergrund, von dem ein sich bewegender Körper ausgenommen ist, als eine Summe eines Bewegungsvektors (V0x, V0y), der auf den Fluchtpunkt VP, der aus der Bewegung des Fahrzeugs abgeleitet wurde, gerichtet ist, und des Offsets (0, Vdy) approximiert werden, wie in den folgenden Formeln angegeben ist: Vx = V0x Vy = V0y + Vdy
  • Im Flussdiagramm von 5 wird der Offset (0, Vdy) als Vibrationskomponente extrahiert, um so vom ermittelten Bewegungsvektor (Vx, Vy) eliminiert zu werden. Somit wird der Bewegungsvektor (V0x, V0y), der in Richtung des Fluchtpunktes VP im unbewegten Hintergrundbereich, ermittelt.
  • Zuerst wird für jeden Fluchtpunkt (x, y) auf dem Bildschirm ein Bewegungsvektor (Vx, Vy) eingegeben (S11). Dabei werden bei gleichförmigen Bereichen ohne Figuren, wie z. B. dem Himmel, Bewegungsvektoren wegen ihrer fehlenden Zuverlässigkeit von vornherein ausgeschlossen, und einzig und allein zuverlässige Bewegungsvektoren eingegeben. Weiterhin kann vorab ein virtueller Fluchtpunkt (x0, y0) erhalten werden, wenn angenommen wird, dass das Fahrzeug geradeaus fährt, da er anhand eines vorbestimmten Fluchtpunktes auf dem Bildschirm auf der Grundlage des Installationswinkels der Bildaufnahmevorrichtung 101 (S12) ermittelt werden kann.
  • Zunächst wird für jeden Bewegungsvektor der Offset berechnet (S13). Im Fall, dass der Fluchtpunkt (x, y) im unbewegten Hintergrundbereich liegt, gelten die folgenden Beziehungen: (x – x0)*V0y = (y – y0)*Vx (x – x0)*(Vy – Vdy) = (y – y0)*Vx
  • Auf der Grundlage dieser Beziehungen wird Vdy wie folgt bestimmt: Vdy = Vy – (y – y0)*Vx/(x – x0)
  • Auf der Grundlage dieser Formel kann Vdy aus einem einzigen Bewegungsvektor bestimmt werden. Jedoch umfassen die eingehenden Bewegungsvektoren viele Bewegungsvektoren von Bildbereichen, die nicht dem unbewegten Hintergrund zugeordnet werden können, wie z. B. eines sich bewegenden Körpers. Weiterhin beihaltet ein Bewegungsvektor für den unbewegten Hintergrundbereich einen Fehler. Daher wird der Offset Vdy des Bewegungsvektors über statistische Verfahren abgeschätzt. Insbesondere wird Vdy, wie 7 zeigt, für jeden Bewegungsvektor gemäß der oben erwähnten Formel bestimmt und die Frequenz von jedem Vdy berechnet, so dass das Vdy mit der höchsten Frequenz als entscheidender Offset-Schätzwert bestimmt werden kann (S14, S15 und S16).
  • Zuerst werden ein Fehler (+/–Vnx, +/–Vny) für einen Bewegungsvektor und ein kleiner Fehler (+/–nx, +/–ny) für die Position auf dem Bildschirm angenommen. Es wird dabei angenommen, dass der Offset Vdy in Bezug auf einen einzigen Bewegungsvektor bestimmt wird, wie 7A zeigt. Wenn der Fehler (+/–Vnx, +/–Vny) des Bewegungsvektors in Bezug auf diesen Offset betrachtet wird, so erhält man Verteilungen, wie in den 7B und 7C gezeigt sind, und wenn der kleine Fehler (+/–nx, +/–ny) der Position auf dem Bildschirm betrachtet wird, so erhält man Verteilungen, wie sie in den 7D und 7E gezeigt sind. Über das Faltungsintegral der Verteilungen der 7B bis 7E erhält man eine Verteilung, die in 7F gezeigt ist.
  • Als Summe von Produkte von Verteilungen, wie der von 7F, der Bewegungsvektoren auf dem gesamten Bildschirm erhält man eine Verteilung, die in 7G gezeigt ist. Bei dieser Verteilung wird ein Wert von Vdy, der die höchste Frequenz aufweist, als Schätzwert für den Offset aufgrund der Vibration ermittelt.
  • Die Vorrichtung zur Berechnung eines Fluchtpunktes 108 von 1 eliminiert den geschätzten Offset und bestimmt dann wieder einen tatsächlichen Fluchtpunkt. Dabei ist der berechnete Fluchtpunkt in Fällen, in denen z. B. ein sich bewegender Körper einen großen Bereich auf dem Bildschirm einnimmt oder das Fahrzeug Erschütterungen in einer Richtung ungleich der vertikalen Richtung erfährt oder das Fahrzeug nicht geradeaus fährt, sondern eine Kurve durchfährt oder dergleichen, stark vom virtuellen Fluchtpunkt verschieden. In solchen Fällen wird das nachfolgende Erfassungsverfahren für den sich bewegenden Körper/sich nähernden Gegenstand ausgesetzt und ein Bild synthetisiert, indem ein Resultat verwendet wird, das von einem vorhergehenden Bild erhalten wurde und das synthetisierte Bild wird wiedergegeben.
  • Andererseits wird im Fall, dass der berechnete Fluchtpunkt innerhalb eines vorbestimmten Bereiches in der Nähe des virtuellen Fluchtpunktes liegt, festgestellt, dass die Verarbeitung normal ist, und die Erfassungsvorrichtung für einen sich bewegenden Körper/sich nähernden Gegenstand 109 führt die folgende Operation durch:
  • 8 ist ein Flussdiagramm zur Veranschaulichung der spezifischen Operationen der Erfassungsvorrichtung für einen sich bewegenden Körper/sich nähernden Gegenstand 109. Zuerst werden, auf die gleiche Weise wie bei der Vibrationskomponentenextraktion, ein Bewegungsvektor (Vx, Vy) für jeden Fluchtpunkt (x, y) auf dem Bildschirm und der virtuelle Fluchtpunkt (x0, y0) eingegeben (S21 und S22).
  • Es wird abhängig davon, ob der Eingangsvektor nach dem Eliminieren des Offsets eine Bewegung in Richtung zum Fluchtpunkt repräsentiert oder nicht, ermittelt, ob der Fluchtpunkt ein sich bewegender Körper ist oder nicht (S23). Insbesondere, wie in 9 gezeigt, wird diese Ermittlung abhängig davon durchgeführt, ob die Verteilung von Vdy (von 7F), die durch die Vibrationskomponentenextraktion unter Berücksichtigung der Störung (+/–Vnx, +/–Vny) des Bewegungsvektors und der kleinen Störung (+/–nx, +/–ny) der Position auf den Bildschirm, mit dem geschätzten Offsetwert übereinstimmt oder nicht. Mit anderen Worten: da in 9A die Verteilung von Vdy und der geschätzte Offset-Wert nicht mit einander übereinstimmen, wird der Fluchtpunkt dieses Bewegungsvektors als sich bewegender Körper erkannt. Da auf der anderen Seite in 9B die Verteilung Vdy und der geschätzte Offsetwert miteinander übereinstimmen, wird der Fluchtpunkt dieses Bewegungsvektors als der unbewegter Hintergrund erkannt.
  • Wie 10A zeigt, werden Bewegungsvektoren FL1, von denen jeder als sich bewegender Körper erkannt wird, in den jeweiligen Bereichen des sich bewegenden Körpers auf dem Bildschirm ermittelt. Daher wird ein Bereich einschließlich dieser Bewegungsvektoren FL1 gruppiert, wie in 10B gezeigt ist, um einen rechteckigen Bereich 202, in dem sich ein Körper bewegt, zu erzeugen (S24). Ein Abstand vom Fahrzeug zu diesem sich bewegenden Körper wird dann an der Position des unteren Endes UE des Bereichs 202, in dem sich der Körper bewegt, abgeschätzt.
  • 11A ist ein Diagramm zur Veranschaulichung eines Standard-Abstandswertes in einem Bildaufnahmebereich der Bildaufnahmevorrichtung 101. Wie in 11A gezeigt, wird dabei angenommen, dass ein erster Bereich AR1 unterhalb einer vorbestimmten Position im Kamerabild auf einer Straßenoberfläche RS liegt, und dass ein zweiter Bereich AR2 oberhalb der vorbestimmten Position einen vorbestimmten Abstand DD (von z. B. 50 m) von der Bildaufnahmevorrichtung 101 entfernt ist. Insbesondere wird in Bezug auf den ersten Bereich AR1 ein geschätzter Abstand zur Straßenoberfläche RS als der Standard-Abstandswert gespeichert, und wird in Bezug auf den zweiten Bereich AR2 der vorbestimmte Abstand DD als der Standard-Abstandswert gespeichert.
  • Außerdem wird, wie in 11B gezeigt ist, im Fall, dass sich z. B. der Bereich des sich bewegenden Körpers 202 über die Bereiche AR1 und AR2 auf dem Bildschirm erstreckt, der Abstand auf der Grundlage des unteren Endes UE des Bereichs 202, in dem sich der Körper bewegt, der im ersten Bereich AR1 enthalten ist, abgeschätzt, indem angenommen wird, dass der Gegenstand am unteren Ende UE in Kontakt mit der Straßenoberfläche RS ist.
  • Der Abstand zum Bereich, in dem sich der Körper bewegt, der auf diesen Fluchtpunkt geschätzt wird, wird in einem Speicher gespeichert. Wenn ein Bereich eines sich bewegenden Körpers durch die Verarbeitung eines folgenden Bildes an der gleichen Position ermittelt wird und der geschätzte Abstand zum Bereichs, in dem sich der Körper bewegt, kürzer als der geschätzte Abstand ist, der beim vorhergehenden Rahmen ermittelt wur de und im Speicher gespeichert ist, so wird festgestellt, dass das Objekt, das im Bereich des sich bewegenden Körpers enthalten ist, ein sich näherndes Objekt ist (S26).
  • Auf der anderen Seite wird für Bewegungsvektoren F12, die als der unbewegte Hintergrund gemäß 12A erkannt wurden, ein Abstand Z auf der Grundlage der Größe des Vektors (mit eliminiertem Offset) durch die folgende Formel (S27) berechnet (S27): Z = dZ*r/dr,wobei dZ eine vom Fahrzeug zwischen den Bildern zurückgelegte Strecke F ist, r ein Abstand zum Fluchtpunkt VP auf dem Bildschirm ist, und dr die Größe des Bewegungsvektors ist, die wie folgt darstellbar sind: r = sqrt((x – x0)2 + (y – y0)2)) dr = sqrt(Vx2 + (Vy – Vdy)2)
  • Der dabei ermittelte Abstand Z wird mit dem Abstand zur Straßenoberfläche verglichen, der als der Standard-Abstandswert gespeichert ist (S28). Somit wird ein Gegenstand über der Straßenoberfläche, wie ein Baum OB am Straßenrand in 12B, als Hindernis erkannt. Auch wenn sich ein Gegenstand, wie ein Fahrzeug MM, im wesentlichen von rechts hinten nähert, wird ein Bewegungsvektor in der Umgebung des Fluchtpunktes ermittelt, dessen Größe aber sehr klein ist. Wenn daher der Abstand Z in der vorher erwähnten Weise ermittelt wird, kann ein Wert, der einen Gegenstand unterhalb der Straßenoberfläche repräsentiert, ermittelt werden. Da gewöhnlich kein Gegenstand unterhalb der Straßenoberfläche vorliegt, wird solch ein Bewegungsvektor als sich bewegender Körper erkannt und somit durch das Bereichsextraktionsverfahren S24 für sich bewegende Körper verarbeitet.
  • Durch die vorher erwähnte Verarbeitung werden ein Hindernis, ein sich bewegender Körper, ein sich nähernder Gegenstand und ihre Abstände im Bild auf der Grundlage der jeweiligen Bewegungsvektoren der Fluchtpunkte auf dem Bildschirm ermittelt (S29), und die resultierenden Informationen an die Bildsynthesevorrichtung 110 ausgegeben.
  • Die Bildsynthesevorrichtung 110 synthetisiert einen Rahmen 203 mit rechteckiger Fläche 202, der auf dem Kamerabild, das von der in 13 gezeigten Bildaufnahmevorrichtung 101 eingegeben wird, rot leuchtet, und gibt das synthetisierte Bild an die Wiedergabevorrichtung 111 aus. Das Wiedergabevorrichtung 111 gibt ein Bild wieder, das durch laterales Invertieren des synthetisierten Bildes erhalten wird, damit es in Phase mit dem Bild auf einem Rückspiegel ist.
  • Auf diese Weise sieht der Fahrer das wiedergegebene Bild, wie in 13 gezeigt, so dass er das Näherkommen des sich nähernden Gegenstandes infolge des leuchtenden roten Rahmens 203 erkennt. Insbesondere sieht der Fahrer das Kamerabild, um die Umgebungsbedingungen zu bestätigen, und kann einen sich nähernden Gegenstand, der besonders beachtet werden sollte, auf natürliche Weise beachten, ohne durch einen Warnton oder dergleichen überrascht zu werden.
  • Weiterhin können die Informationen darüber, aus welcher Richtung und wie schnell ein sich nähernder Gegenstand dem eigenen Fahrzeug näher kommt, welche mit einem Warnton nur schwer vermittelbar sind, unmittelbar und einfach verstanden werden.
  • Obgleich ein sich nähernder Körper bei dieser Ausführungsform nur mit einem blinkenden roten Rahmen angezeigt wird, ist ein Verfahren für das Erwecken/Erhöhen der Aufmerksamkeit des Fahrers nicht darauf eingeschränkt: so kann auch eine andere Farbe verwendet werden, oder der rote Rahmen kann ohne Blinken angezeigt werden. Wenn sich außerdem das Bild eines sich nähernden Gegenstandes, das auf der Wiedergabevorrichtung 111 angezeigt wird, abwärts bewegt, kann dies so verstanden werden, dass der Gegenstand sich dem sich bewegenden Körper nähert, und wenn sich das Bild aufwärts bewegt, kann dies so verstanden werden, dass der Gegenstand sich vom sich bewegenden Körper weg bewegt.
  • Da außerdem der Abstand zum sich nähernden Gegenstand ermittelt wird, kann das Erfassen der Umgebungsbedingungen durch den Fahrer weiter unterstützt werden, indem der Abstand selbst anzeigt wird oder die Anzeige gemäß dem Abstand geändert wird. Die Farbe des Rahmens kann gemäß dem Abstand geändert werden: z. B. wird der Rahmen in Grün angezeigt, wenn der Abstand 50 m oder mehr beträgt, in Gelb, wenn der Abstand zwischen 50 m und 20 m beträgt, und in Rot, wenn der Abstand kleiner als 20 m ist, oder der Abstandswert selbst kann im oberen rechten Teil des Bereichs, in dem sich ein sich bewegender Körper bewegt, angezeigt werden.
  • (AUSFÜHRUNGSFORM 2)
  • 14 ist ein Blockdiagramm zur Veranschaulichung der Struktur eines Wiedergabesystems für das Bild eines sich bewegenden Körpers, das als Fahrassistenzsystem gemäß der erfindungsgemäßen Ausführungsform 2 dient. In 14 werden für Elemente, die auch in 1 dargestellt sind, gleiche Bezugszeichen verwendet, und auf eine ausführliche Beschreibung dieser Elemente wird verzichtet. Die konstituierenden Elemente, die sich von denen in 1 unterscheiden, sind eine zweite Bildaufnahmevorrichtung 401, die separat von der ersten Bildaufnahmevorrichtung 101 vorgesehen ist, eine hierarchische Block-Stereo-Anpassungsvorrichtung 405, eine 3D-Informations-Abschätz-/ Hinderniserkennungsvorrichtung 409 und eine 3D-Bildsynthesevorrichtung 410, die als Bildsynthesevorrichtung oder als Bilderzeugungsvorrichtung dient. Die konstituierenden Elemente 102 bis 109, 405 und 409 bilden zusammen eine Erfassungsvorrichtung.
  • Eine Aufgabe des Wiedergabesystems für das Bild des sich bewegenden Körpers gemäß dieser Ausführungsform ist, einen sich nähernden Gegenstand oder ein Hindernis nahe eines Fluchtpunktes, der Bewegungsvektoren (Flüsse) aufweist, die nur schwierig genau zu ermitteln sind, genau zu ermitteln. Die Arbeitsweise des Wiedergabesystems des Bildes des sich bewegenden Körpers gemäß dieser Ausführungsform wird jetzt mit Bezug auf die 15 bis 21 beschrieben.
  • 15 ist ein schematisches Diagramm eines eigenen Fahrzeugs und der Umgebung, wie sie von oben gesehen werden. Wie 15 zeigt, sind beim Fahrassistenzsystem gemäß dieser Ausführungsform zwei Bildaufnahmevorrichtungen 101 und 401 an einem hinteren Bereich des Fahrzeugs vorgesehen, die in horizontaler Richtung voneinander beabstandet sind. Die Bildaufnahmevorrichtungen sind so vorgesehen, dass sie einen Überlappbereich OL aufweisen, in dem ein erster Bildaufnahmebereich VA1 der ersten Bildaufnahmevorrichtung 101, die als eine Bildaufnahmevorrichtung dient, und ein zweiter Bildaufnahmebereich VA2 der zweiten Bildaufnahmevorrichtung 401, die als eine weitere Bildaufnahmevorrichtung dient, miteinander überlappen.
  • Die Bildaufnahmevorrichtungen werden wie in 15 gezeigt vorgesehen, um ein Bild vom rückseitigen Bereichs des Fahrzeugs aufzunehmen, und um den. rückseitigen Bereich des Fahrzeugs bei einem großen Sichtfeld zu überwachen, indem eine Kamera verwendet wird, die ein allgemeines Objektiv mit einem begrenzten Sichtwinkel hat. Wenn daher mehrere Bildaufnahmevorrichtungen vorgesehen werden, kann ein Bild mit einem großen Sichtfeld genommen werden, ohne dass ein spezielles Objektiv wie ein Fischaugenobjektiv verwendet werden muss. Indem die mehreren Bildaufnahmevorrichtung verwendet werden, kann weiter die Auflösung des ermittelten Bildes hoch gehalten werden.
  • Außerdem ist es notwendig, die ermittelten mehreren Bilder für die Wiedergabe in dem Fall miteinander zu kombinieren, in dem das System für die Überwachung verwendet wird. Im Fall, in dem die Bilder, die von den unterschiedlichen Positionen aufgenommen werden, wie in 15 gezeigt ist, kombiniert werden, werden mit die zwei Bildaufnahmebereiche vorzugsweise unter Berücksichtigung von Okklusion, die mit den Positionen einher geht, überlappt.
  • Die Verarbeitung wird jetzt im Detail beschrieben. Die Vorrichtung zum Erzeugen eines hierarchischen Bildes 102, der Tiefpassfilter (LPF) 103, die Blockmusterungsvorrichtung 104 und die hierarchische Blockanpassungsvorrichtung 105 führen mit jedem Kamerabild der Bildaufnahmevorrichtungen 101 und 401 dieselbe Verarbeitung durch, wie bei Ausführungsform 1, um Flüsse (Bewegungsvektoren) zu erhalten.
  • 16A und 16B sind Diagramme, in denen die Flüsse, die in der vorher erwähnten Weise erhalten wurden, in den Kamerabildern überlappt werden, die durch die Bildaufnahmevorrichtung 101 bzw. 401 erhalten werden. OL bezeichnet einen Überlappbereich der Kamerabilder. In den 16A und 16B werden Flüsse in Bezug auf unbewegte Gegenstände, wie ein Gebäude und einen Baum, durch durchgezogene Pfeile angezeigt, und Flüsse in Bezug auf sich bewegende Körper, wie ein Auto, werden durch unterbrochene Pfeile angezeigt.
  • Die Flüsse in Bezug auf die unbewegten Gegenstände sind Flüsse, die infolge der Bewegung des eigenen Fahrzeugs in Richtung des Fluchtpunktes VP gerichtet sind. Die Größe jedes dieser Flüsse ist proportional zu der Geschwindigkeit des eigenen Fahr zeugs und dem Abstand zum Fluchtpunkt VP auf dem Bildschirm. Daher hat ein Fluss in der Nähe des Fluchtpunktes VP eine kleine Größe und ist folglich schwierig zu ermitteln.
  • Daher führt die hierarchische Block-Stereo-Anpassungsvorrichtung 405 eine Stereo-Analyse des Überlappbereichs OL der zwei Bilder von 16A und 16B durch, um eine Stereoparallaxe zu ermitteln. Da der Fluchtpunkt VP in Bezug auf die Fahrtrichtung des Fahrzeugs rechts hinten gebildet wird, können die Bildaufnahmevorrichtungen 101 und 401 leicht angebracht werden, damit der Überlappbereich OL den Fluchtpunkt VP im Kamerabild einschließt.
  • 16C ist ein Diagramm, das durch Überlappen der zwei Bilder von 16A und 16B erhalten wird. In dieser Zeichnung entspricht die Verschiebung VD im Bild des Fahrzeugs der ermittelten Stereoparallaxe.
  • Wenn die Bildaufnahmevorrichtung angebracht sind, um in der horizontalen Richtung angeordnet zu werden, so wird die Stereoparallaxe VD im wesentlichen in der horizontalen Richtung erzeugt. Daher wird durch Blockanpassung eine SAD (eine Summe absoluter Unterschiede) in einem Bereich von 5 horizontalen Pixeln × 3 vertikalen Pixeln aus dem Bild der höheren Hierarchie erhalten, und eine Stereoparallaxe wird aus einem Punkt, an dem die SAD minimal ist, erhalten. In Bezug auf das Bild der niedrigeren Hierarchie wird weiter eine Stereoparallaxe in einem Bereich von 5 horizontalen Pixeln × 3 vertikalen Pixeln mit einer Stereoparallaxe ermittelt, die im Bild der höheren Hierarchie in einem Block in der gleichen Position wie das Zentrum ermittelt wird.
  • Die Sub-Pixel-Abschätz-/Zuverlässigkeitsermittlungsvorrichtung 106 schätzt, indem es den Bewegungsvektor, der im Bild der niedrigsten Hierarchie ermittelt wird (Kamerabild), und die SAD verwendet, den Bewegungsvektor mit einer Genauigkeit von einem oder weniger Sub-Pixel auf Grundlage des SAD-Minimum-Punktes und den SAD Werten an acht Punkten um den SAD-Minimum-Punkt. Auch ermittelt es die Zuverlässigkeit des Bewegungsvektors im Block.
  • Weiterhin wird die Verarbeitung für die Bewegungsvektoren bei der Stereoparallaxe VD angewendet, die durch die hierarchische Block-Stereo-Anpassungsvorrichtung 405 auf die genau gleiche Weise ermittelt wird, um eine Stereoparallaxe mit der Genauigkeit eines Sub-Pixels abzuschätzen und die Zuverlässigkeit der Stereoparallaxe festzustellen.
  • Durch die oben erwähnte Verarbeitung wird ein Fluss, der der zeitlichen Bewegung gegenüber einem vorangegangenen Bild entspricht, für jeden Fluchtpunkt im Kamerabild erhalten, und die Stereoparallaxe wird im Überlappbereich OL ermittelt.
  • Im allgemeinen kann, wenn die Stereoparallaxe und die relative Lage der Bildaufnahmevorrichtungen ermittelt werden, ein Abstand von der Bildaufnahmevorrichtung zum Gegenstand über das Prinzip der trigonometrischen Vermessung ermittelt werden. Auch kann auf der Grundlage eines Flusses, der der zeitlichen Bewegung eines Bildes entspricht, unter der Annahme, dass z. B. der Gegenstand immer noch auf dem Boden ist, der Abstand von der Bildaufnahmevorrichtung zum Gegenstand im Verhältnis zur Fahrgeschwindigkeit erhalten werden.
  • Indem sie dies verwendet, schätzt die 3D-Informations-Abschätz-/Hinderniserkennungsvorrichtung 409 dreidimensionale Information in Bezug auf die in 17 gezeigten zwei Kamerabilder und erkennt einen Bereich auf dem Bildschirm als Hindernis OB, der auf eine vorbestimmte Höhe oder noch mehr über dem Boden eingeschätzt wird.
  • Weiterhin extrahiert die Erfassungsvorrichtung für einen sich bewegenden Körper/sich nähernden Gegenstand 109 als einen Sich-bewegenden-Körper/sich-nähernden-Gegenstands-Kandidatenblock einen Block, der einen Bewegungsvektor hat, der sich von einem Fluss in Richtung des Fluchtpunktes VP unterscheidet, und extrahiert einen sich bewegenden Körper MM, wie in 17 gezeigt, indem sie zwei nahe beieinander liegende Sich-bewegende-Körper/sich-nähernde-Gegenstands-Kandidatenblöcke verbindet. Wenn festgestellt wird, dass der Abstand zu einem Hindernis, das in einem Bereich in der Nähe des Fluchtpunktes VP vorhanden ist, sich auf der Grundlage der von der 3D-Informations-Abschätz-/Hinderniserkennungsvorrichtung 409 ermittelten 3D Informationen kleiner wird, so wird dieser Gegenstand weiter als ein sich nähernder Gegenstand AP extrahiert, wie in 17 gezeigt.
  • Wie 17 zeigt, verwendet die 3D-Bildsynthesevorrichtung 410 die dreidimensionale Information, die von der 3D-Infonnations-Abschätz-/Hinderniserkennungsvorrichtung 409 ermittelt wird, um die zwei Kamerabilder zu synthetisieren, die von den Bildaufnahmevorrichtungen 101 und 401 eingegeben werden. Außerdem gibt sie im synthetisierten Bild Bereiche des sich bewegenden Körpers MM und des sich nähernden Gegenstandes AP, die z. B. mit einem z. B. leuchtenden roten Rahmen umgeben sind, wieder und gibt das Hindernis OB mit einem umgebenden, z. B. grünen, Rahmen wieder, und gibt diese an die Wiedergabevorrichtung 111 aus. Dabei gibt die Wiedergabevorrichtung 111 ein Bild wieder, das erhalten wird, indem das synthetisierte Bild lateral invertiert wird, so dass es in Phase mit einem Bild auf einem Rückspiegel ist.
  • Der Fahrer sieht die graphische Darstellung, wie in 17 gezeigt, und wird damit durch den leuchtenden roten Rahmen über das Näherkommen des sich bewegenden Körpers MM und des sich nähernden Gegenstands AP informiert und kann einfach und direkt erkennen, aus welcher Richtung und wie schnell der sich nähernde Gegenstand AP dem eigenen Fahrzeug näher kommt. Außerdem kann der Fahrer das Vorhandensein und die Position des Hindernisses infolge der Wiedergabe des grünen Rahmens einfach und direkt erkennen.
  • Außerdem wird, wie beim zweiten herkömmlichen Beispiel und bei der erfindungsgemäßen Ausführungsform 1, im sogenannten "Motion Stereo" Verfahren für das Ermitteln eines Hindernisses und eines sich nähernden Gegenstandes durch Bewegungsanalyse eines Kamerabildes dreidimensionale Information anhand des Kamerabildes ermittelt, indem die Änderung eines Bildes gemäß der Änderung eines Sichtpunktes mit der Bewegung analysiert wird. In diesem Fall gibt es ein Problem, dass die Änderung eines Bildes, das in einer Bewegungsrichtung oder in einer Rückwärtsrichtung gemäß der Änderung des Sichtpunktes aufgenommen wird, in einem Bereich in der Nähe des Fluchtpunktes der Flüsse (Bewegungsvektoren), die von der Bewegung abgeleitet wurden, klein ist. Wenn dieses Verfahren z. B. bei einem Fahrzeug angewendet wird, so entsteht ein Problem, dass die Nachweisempfindlichkeit in einem Bereich herabgesenkt wird, der näher dem vorderseitigen oder rückwärtigen Bereich entlang der Fahrtrichtung ist.
  • Jedoch wird gemäß Ausführungsform 2 das Erkennen in einem Bereich in der Nähe des Fluchtpunktes auf dem Bildschirm durch die Stereoanalyse des Überlappbereichs OL kompensiert, der durch die zwei Kameras ermittelt wird, und folglich kann das Erkennen mit hoher Empfindlichkeit durchgeführt werden.
  • Die 3D-Bildsynthesevorrichtung 410 verwendet die dreidimensionale Information, die von der 3D-Inforrnations-Abschätz-/Hinderniserkennungsvorrichtung 409 ermittelt wurde, um den Fahrer auf geeignete Weise auf die Information hinsichtlich des sich nähernden Gegenstandes und des Hindernisses hinzuweisen. Das Verfahren wird nachfolgend beschrieben.
  • In Ausführungsform 1 sollte, wenn ein Kamerabild betrachtet wird, das mit den Informationen über einen sich nähernden Gegenstand synthetisiert wird, basierend auf der scheinbaren Größe des Gegenstandes auf dem synthetisierten Bild ein Abstand in einer Tiefenrichtung auf dem Bildschirm festgestellt werden können. Wenn insbesondere die Bildaufnahmevorrichtung an einem Fahrzeug angebracht ist, kann sie nicht in einer Position bereitgestellt sein, die höher als die Höhe des Fahrzeugs ist und sollte im wesentlichen in horizontaler Richtung ausgerichtet sein, damit eine möglichst große Sichtweite erhalten wird. Infolgedessen liegt der Abstand zu einem sich nähernden Gegenstand unvermeidbar in der Tiefenrichtung auf dem Bildschirm.
  • Als Verfahren, um den Abstand zu einem sich nähernden Gegenstand auf einem Bildschirm leicht zu erfassen, kann eine Technik eingesetzt werden, um den Sichtpunkt eines synthetisierten Bildes zu ändern, wie sie in der offengelegten japanischen Patentanmeldung Nr. 10-217261 von den gegenwärtigen Erfindern entwickelt wurde. Bei einem System, das in dieser Anwendung offenbart ist, wird angenommen, dass mehrere Kamerabilder um ein Fahrzeug herum durch das dreidimensionale Aufnehmen von Bildern des Bodens erhalten werden, um ein synthetisiertes Bild von einem neuen Sichtpunkt zu erzeugen, z. B. als ob von unten in Richtung des Himmels geblickt wird. In diesem Fall ist ein Abstand zwischen dem Fahrzeug und einem anderen Gegenstand proportional zum Abstand auf dem Bildschirm, und folglich kann er intuitiv erfasst werden.
  • Die 3D-Bildsynthesevorrichtung 410 dieser Ausführungsform verwendet die vorher erwähnte Technik, um die Kamerabilder, die durch die Bildaufnahmevorrichtungen 101 und 401 erhalten wurden, in ein synthetisiertes Bild umzuwandeln, das von einem Sichtpunkt gesehen wird, der höher als die tatsächlichen Einbaupositionen der Bildaufnahmevorrichtung ist. Um ein großes Sichtfeld bis zu einem weit entfernten Platz zu errei chen, wird ein Sichtpunkt, der schräg nach unten orientiert ist (Blickrichtung) gegenüber einem Sichtpunkt bevorzugt, der geradeaus orientiert ist (Blickrichtung).
  • 18A zeigt die Position eines virtuellen Sichtpunktes VVP für das Ermitteln solch eines synthetisierten Bildes. Der virtuelle Sichtpunkt VVP ist oberhalb der Bildaufnahmevorrichtung 101 vorgesehen bezüglich des Fahrzeugs nach hinten und schräg nach unten gerichtet. Unter der Annahme, dass das tatsächliche Kamerabild, das durch die Bildaufnahmevorrichtung 101 aufgenommen wird, an dem mit Bezug auf 11A beschriebenen Standard-Abstand ist, so kann das synthetisierte Bild, das vom virtuellen Sichtpunkt VVP gesehen wird, aus dem tatsächlichen Kamerabild erzeugt werden, wie in 18B gezeigt ist.
  • Wenn z. B. das tatsächliche Kamerabild so wie in 19A gezeigt ist, so ist das synthetisierte Bild, das vom virtuellen Sichtpunkt VVP gesehen wird, wie in 19B gezeigt. Wie anhand 19 ersichtlich ist, werden eine weiße Linie 411 u. ä., die wirklich auf der Straßenoberfläche im Standard-Abstand vorhanden sind, in den genauen Position auch auf dem synthetisierten Bild synthetisiert, und da es ein Bild ist, das von oben gesehen wird, wird der Abstand verstärkt, damit er leicht erfasst werden kann. Jedoch werden ein Baum 412 und ein Fahrzeug 413, die nicht wirklich auf der Straßenoberfläche vorhanden sind, verlängert, so dass sie auf dem synthetisierten Bild unnatürlich verzerrt sind. Das synthetisierte Bild, das in 19B gezeigt wird, schließt einen Bereich 414 außerhalb das wirklich aufgenommenen Bildes ein.
  • Insbesondere wenn die herkömmliche Bildsynthesetechnik direkt verwendet wird, werden Gegenstände, die nicht wirklich auf dem Boden vorhanden sind, wie ein anderes Fahrzeug und ein Hindernis, auf dem synthetisierten Bild nachteilig verzerrt, da bei der Bildumwandlung alleine die Position des Bodens angenommen wird.
  • Daher wird bei dieser Ausführungsform die dreidimensionale Information, die von der 3D-Informations-Abschätz-/Hinderniserkennungsvorrichtung 409 eingeholt wird, verwendet, damit die Verzerrung eines Fahrzeugs und der dergleichen, die auf dem synthetisierten Bild verursacht werden, weitgehend verbessert werden können. Dieses wird mit Bezug auf die 20 und 21 beschrieben.
  • Bei dieser Ausführungsform wird die dreidimensionale Information, die von der 3D-Informations-Abschätz-/Hinderniserkennungsvorrichtung 409 eingeholt wird, für das Ermitteln eines Hindernisses und des sich nähernden Gegenstandes verwendet, die über dem Boden vorhanden sind. Daher wird ein Bereich des Hindernisses oder des sich nähernden Gegenstandes gemäß der dreidimensionale Information synthetisiert, wie in 20A gezeigt, und daher kann das synthetisierte Bild ein natürliches verzerrungsfreies Bild sein, selbst wenn ein Bild, das vom virtuellen Sichtpunkt VVP gesehen wird, synthetisiert wird.
  • Insbesondere werden für den Baum 412 und das Fahrzeug 413, die tatsächlich nicht auf der Straßenoberfläche vorhanden sind, die tatsächlichen Abstände RD von der Bildaufnahmevorrichtung 101 ermittelt, und daher werden die Bereiche an Positionen synthetisiert, die unter Berücksichtigung der tatsächlichen Abstände RD auf dem synthetisierten Bild bestimmt werden. Demgemäß werden, wie in 20B gezeigt, der Baum 412 und das Fahrzeug 413, die tatsächlich nicht auf der Straßenoberfläche vorhanden sind, nicht auf der Grundlage der Standard-Abstände, sondern auf der Grundlage der tatsächlichen Abstände RD synthetisiert, und daher sind sie auf dem synthetisierten Bild nicht länglich, sondern natürlich.
  • In dieser Weise werden im synthetisierten Bild eine weiße Linie und dergleichen, die tatsächlich auf der Straßenoberfläche mit den Standard-Abständen vorliegen, an den genauen Positionen synthetisiert, und auch bezüglich eines Baums und eines Fahrzeugs, die nicht wirklich auf der Straßenoberfläche vorhanden sind, können natürliche Bilder erhalten werden. Da außerdem das synthetisierte Bild ein Bild ist, das von oben betrachtet wird, kann dem Fahrer ein Bild vor Augen geführt werden, in dem ein Abstand leicht erfasst werden kann.
  • 21 ist ein Diagramm der Erzeugung eines synthetisierten Bildes aus den Kamerabildern der zwei Bildaufnahmevorrichtungen 101 und 401. Wie in 21A gezeigt ist, werden auch in diesem Fall in Bezug auf einen Baum 412 und ein Fahrzeug 413, die nicht wirklich auf der Straßenoberfläche vorhanden sind, die tatsächlichen Abstände RD von den Bildaufnahmevorrichtungen 101 und 401 ermittelt, und folglich werden die Bereiche an Positionen synthetisiert, die unter Berücksichtigung der tatsächlichen Abstände RD auf dem synthetisierten Bild bestimmt werden. So erhält man ein synthetisiertes Bild, wie es in 21B gezeigt ist. Im synthetisierten Bild von 21B bezeichnen VA1 bzw. VA2 Bereiche, die den Sichtfeldbereichen der Bildaufnahmevorrichtungen 101 und 401 entsprechen, und OL bezeichnet einen Überlappbereich, in dem sich die Sichtfeldbereiche überlappen. Verglichen mit dem Bild, das in 20B gezeigt wird, wird ein Bild mit einem großen Sichtwinkel synthetisiert. Außerdem kann auch in einem Bereich außerhalb des Überlappbereichs OL ein Abstand auf Grundlage eines Flusses ermittelt werden, weil er vom Fluchtpunkt weg gerichtet ist, und folglich kann z. B. ein Baum 415 in einer Position unter Berücksichtigung des Abstandes synthetisiert werden.
  • (MODIFIKATION VON AUSFÜHRUNGSFORM 2)
  • Eine Modifikation von Ausführungsform 2 wird jetzt mit Bezug auf die 22 und 23 beschrieben.
  • 22 ist ein Diagramm zur Veranschaulichung eines Beispiels der Anordnung für die Bildaufnahmevorrichtung gemäß dieser Modifikation. Im Unterschied zur vorher erwähnten Ausführungsform werden die zwei Bildaufnahmevorrichtungen 101 und 401 nicht in der horizontalen Richtung, sondern in der vertikalen Richtung mit einem Abstand k voneinander beabstandet angebracht. Auch in Bezug auf die Sichtfeldbereiche der Bildaufnahmevorrichtungen werden der erste Bildbereich VA1 der Bildaufnahmevorrichtung 101 und der zweite Bildbereich VA2 der zweiten Bildaufnahmevorrichtung 401, ähnlich zur Ausführungsform 2, miteinander überlappt, um den Überlappbereich OL zu bilden.
  • Ähnlich zu Ausführungsform 2 wird ein Stereo-Analyse-Bereich ST im Überlappbereich zwischen den zwei Bildbereichen bereitgestellt, und Bewegungsanalyse-Bereiche MA1 und MA2 werden in anderen Abschnitten bereitgestellt.
  • Die Verarbeitung im Stereo-Analyse-Bereich ST gemäß dieser Modifikation wird jetzt beschrieben.
  • Wie in 23B gezeigt ist, wird bei diesen zwei Bildern eine Stereoparallaxe VD in der vertikalen Richtung erzeugt. Dabei werden horizontale Ränder ER vorher aus den zwei Bildern extrahiert, die in 23C gezeigt sind, und die zwei Bilder werden mit einander in Bezug auf die horizontalen Ränder ER verglichen, um so die Stereoparallaxe VD auf einfache Weise zu erhalten. Außerdem umfasst ein Bild eines auf der Straße fahrenden Fahrzeugs, das der Hauptaspekt dieser Erfindung ist, eine größere Anzahl von horizontalen Rändern, so z. B. den Stoßdämpfer und eine Linie der Motorhaube, als andere Ränder, und kann folglich leicht ermittelt werden. Da ein Abstand von der Bildaufnahmevorrichtung aus der Stereoparallaxe VD ermittelt wird, können ein sich nähernder Gegenstand und ein Hindernis auf die gleiche Weise wie bei der vorher erwähnten Ausführungsform ermittelt werden, und ein Bild eines sich nähernden Gegenstands oder ein Hindernis können für eine Wiedergabe dreidimensional synthetisiert werden.
  • Bei dieser Modifikation werden die zwei Bildaufnahmevorrichtungen und der virtuelle Sichtpunkt in der vertikalen Richtung angeordnet, und folglich wird eine vertikale Parallaxe im synthetisierten Bild erhöht. Außerdem wird in einem Bereich, in dem die Zahl an horizontalen Rändern so klein ist, dass die Stereoparallaxe VD nicht genau erhalten werden kann, auch die Genauigkeit des synthetisierten Bildes gesenkt, aber da die Zahl horizontalen Rändern klein ist, wird Unnatürlichkeit, die durch Positionsverschiebung verursacht wird, minimal erkannt. Demgemäß ist das synthetisierte Bild als Ganzes sehr natürlich, und in einem Bereich, in dem es horizontale Ränder gibt (wie ein Bereich, in dem ein anderer Fahrzeug abgebildet ist), kann ein synthetisiertes Bild erzeugt werden, in dem Informationen über eine Position in der Tiefenrichtung erhöht sind.
  • Nun wird das Verhältnis zwischen dem Abstand k zwischen der Bildaufnahmevorrichtung und einem nachweisbaren Abstand komplementär beschrieben. Zur Vereinfachung der Beschreibung wird angenommen, dass die Bildaufnahmevorrichtung nach rechts hinten gerichtet ist. Unter der Annahme, dass ein Winkel der Bildaufnahmevorrichtung in der horizontalen Richtung ungefähr 90 Grad beträgt, wenn ein Abstand D 10 m beträgt, so entspricht der Feldwinkelbereich in der horizontalen Richtung ungefähr 20 m. Wenn außerdem das Aspektverhältnis der Pixel der Bildaufnahmevorrichtung 3 : 4 ist, so entspricht der Feldwinkelbereich Vh in der vertikalen Richtung ungefähr 15 m. Speziell gilt Vh/D = 1,5.
  • Wenn die Zahl an Pixel in der vertikalen Richtung des Bildschirmes Vp ist, so wird weiterhin ein Abstand D, der für einen horizontalen Rand eines Fahrzeugs erforderlich ist, das hinterher fährt und auf gleicher Höhe positioniert ist, wie die Bildaufnahmevorrichtung, um das Verursachen einer Parallaxe anzunähern, die einem Pixel der Parallaxe Null bei Unendlich entspricht, auf der Grundlage einer Formel Vh/k = Vp wie folgt erhalten: D = k*Vp/1,5.
  • Wenn die Zahl Vp der Pixel in der vertikalen Richtung 480 ist und der Abstand k zwischen der Bildaufnahmevorrichtung 10 Zentimeter (= 0,1 m) beträgt, so wird der Abstand D grob wie folgt geschätzt: D = 0,1*480/1,5 = 32 (m).
  • Die tatsächliche Genauigkeit für das Ermitteln einer Parallaxe ist 0,3 bis 1 Pixel, und nimmt man an, dass ein gewünschter Abstand für das Ermitteln eines sich nähernden Gegenstandes 30 bis 70 m beträgt und dass der Feldwinkel der Bildaufnahmevorrichtung 60 bis 120 Grad beträgt, so kann der Abstand zwischen den Bildaufnahmevorrichtungen gemäß dieser groben Berechnung ungefähr 7 bis 20 cm betragen.
  • Auf diese Weise kann, selbst wenn die Bildaufnahmevorrichtungen in einem verhältnismäßig kleinen Abstand von ungefähr 7 bis 20 cm voneinander vorgesehen werden, ein sich nähernder Gegenstand ermittelt werden, und daher kann das System mit weniger Aufwand an einem Fahrzeug angebracht werden.
  • Ein Bereich hinter einem Fahrzeug wird als Hauptüberwachungsbereich bei den Ausführungsformen 1 und 2 beschrieben, was aber die Erfindung nicht einschränkt. Z. B. kann ein Bereich an der Frontseite oder auf einer Seite des Fahrzeugs der Überwachungsbereich sein, um ein Bild des Frontbereichs oder auf der Seite des Fahrzeugs zu erzeugen.
  • (AUSFÜHRUNGSFORM 3)
  • 24 ist ein Blockdiagramm zur Veranschaulichung der Struktur eines Fahrassistenzsystems gemäß Ausführungsform 3 der Erfindung. In 24 sind die konstituierenden Elemente, die von denen, die in 14 gezeigt sind, verschieden sind: eine Gefahren stufenermittlungsvorrichtung 501, eine externe Warnvorrichtung 502 und eine Passagierschutzvorrichtung 503.
  • Ähnlich wie bei Ausführungsform 2 wird ein Überlappbereich zwischen mehreren Bildaufnahmevorrichtungen 101 und 401 durch die hierarchische Block-Stereo-Anpassungsvorrichtung 405 stereo-analysiert, um einen sich direkt hinter dem Fahrzeug nähernden Gegenstand genau zu ermitteln, der herkömmlicherweise schwierig zu ermitteln ist.
  • Ein herkömmliches System für das Ermitteln eines sich nähernden Gegenstandes erfasst einen Gegenstand, der sich direkt von hinten nähert, nicht nur deswegen nicht, weil solch ein sich nähernder Gegenstand schwierig allein durch Bewegungserfassung zu ermitteln ist, sondern auch, weil es wenige Verfahren für das Vermeiden des Zusammenstoßes oder der dergleichen nach dem Erkennen solch eines sich nähernden Gegenstandes gibt. Z. B. kann beim ersten herkömmlichen Beispiel im Fall, bei dem ein Gegenstand, der sich auf einer benachbarten Fahrbahn neben der Fahrbahn, auf der das eigenen Fahrzeug fährt, nähert, ermittelt wird, ein Zusammenstoß leicht vermieden werden, indem man die Warnung ausgibt, nicht auf die benachbarte Fahrbahn überzuwechseln. Andererseits ist es bei einem Fahrzeug, das sich auf der gleichen Fahrbahn nähert, wie das eigene Fahrzeug fährt, notwendig, zu agieren, z. B. indem man durch Erhöhen der Geschwindigkeit nach vorne ausweicht oder auf eine andere Fahrbahn überwechselt. In jedem Fall entsteht eine weitere Gefahr wie eines Zusammenstoßes mit einem anderen Fahrzeug oder einem Gegenstand, der vom sich nähernden Gegenstand verschieden ist.
  • Daher ermittelt bei dieser Ausführungsform, wenn die Erfassungsvorrichtung für einen sich bewegenden Körper/sich nähernden Gegenstand 109 einen Gegenstand ermittelt, der sich direkt von hinten nähert, die Gefahrenstufenermittlungsvorrichtung 501 der Gefahr eine potentielle Gefahr des Zusammenstoßes mit diesem sich nähernden Gegenstand auf der Grundlage der Zeit bis zum Zusammenstoß, der Änderung der Geschwindigkeit des sich nähernden Gegenstandes und dergleichen. Wenn sie feststellt, dass die potentielle Gefahr des Zusammenstoßes groß ist, wird ein Hinweissignal ausgegeben. Die externe Warnvorrichtung 502 empfängt das Hinweissignal und gibt eine Warnung nach hinten aus, beispielweise indem ein Bremslicht automatisch aufleuchtet. Diese Warnung ist aber nicht auf das Aufleuchten eines Bremslichtes eingeschränkt, sondern kann auch das Abstrahlen oder Aufblitzen eines anderen Lichtes, das nach hinten ausgerichtet ist, ein Warnton oder eine Warnung, die elektrische Wellen verwendet, wie ein Radio, sein.
  • Wenn die Gefahrenstufenermittlungsvorrichtung 501 das Hinweissignal ausgibt, so trifft die Passagierschutzvorrichtung 503 Maßnahmen, wie das Straften eines Sicherheitsgurts oder das Vorbereiten des Einsatzes eines Airbagsystems, um die Passagiere zu schützen. Wenn vorher erkannt wird, dass eine große potentielle Gefahr eines Zusammenstoßes vorliegt, so können in Bezug auf das Airbagsystem verschiedene Vorbereitungen wie die Vorbereitung für den Betrieb und Erkennen der Köpfe der Passagiere durchgeführt werden, um die Passagiere ausreichend zu schützen.
  • Die Erfassungsvorrichtung für einen sich nähernden Gegenstand dieser Ausführungsform ist nicht auf die Vorrichtung eingeschränkt, die die Stereo-Bilder und die Bewegungsanalyse verwendet, sondern kann auch eine andere Vorrichtung sein, die z. B. Radar oder Laser verwendet.
  • Es muss nicht erwähnt werden, dass die Erfindung nicht nur für (fahrende) Fahrzeuge, sondern auch für sich bewegende Körper wie ein Schiff, ein Flugzeug und einen Zug leicht angewendet werden kann.
  • Auch die Einbaupositionen und die Anzahl der mehreren Bildaufnahmevorrichtungen sind nicht auf die eingeschränkt, die hier beschrieben wurden.
  • Weiterhin können die Funktionen der Erfassungsvorrichtung und der Bilderzeugungsvorrichtung als Ganzes oder teilweise durch speziell vorgesehene Hardware oder Software. realisiert werden. Weiterhin kann ein Aufnahmemedium oder ein Transfermedium, die ein Programm speichern, damit ein Computer alle oder einen Teil der Funktionen der Erfassungsvorrichtung und der Bilderzeugungsvorrichtung des erfindungsgemäßen Fahrassistenzsystems ausführt, verwendet werden.
  • Wie aus der oben genannten Beschreibung deutlich hervorgeht, kann gemäß der Erfindung ein sich nähernder Gegenstand ermittelt werden, ohne dass dies durch Vibratio nen aufgrund von Erschütterungen eines Fahrzeugs beeinflusst wird. Wenn weiterhin die Stereo-Analyse eine Mehrzahl von Bildaufnahmevorrichtungen zusammen verwendet, so kann ein sich direkt von hinten nähernder Gegenstand, der eine kleine Bewegungsänderung in einem Bild verursacht, ermittelt werden.
  • Da die Information eines Erkennungsresultats über einen sich nähernden Gegenstand und dergleichen auf einer Bildwiedergabevorrichtung dargestellt wird, kann der Fahrer die Relativlage und die Umgebungsbedingungen direkt bestätigen. Außerdem kann, wenn ein Bild in ein Bild umgewandelt wird, das von einem höheren Sichtpunkt mit Blickrichtung schräg nach unten aus gesehen wird, der Abstand zu einem sich nähernden Gegenstand einfacher dargestellt werden.
  • Außerdem wird nicht nur der Fahrer informiert, sondern auch eine Warnung an ein sich näherndes Fahrzeug ausgegeben, so dass die potentielle Gefahr eines Zusammenstoßes gesenkt werden kann, und Maßnahmen, um Passagiere vor den Folgen des Zusammenstoßes zu schützen, können früher eingeleitet werden.
  • Auf diese Weise stellt die vorliegende Erfindung ein Fahrassistenzsystem für das Verringern der Belastungen eines Fahrers bereit.

Claims (4)

  1. Ein Fahrassistenzsystem zum Unterstützen des Fahrens eines sich bewegenden Körpers, umfassend: eine Mehrzahl von Bildaufnahmevorrichtungen (101), die an dem sich bewegenden Körper angebracht sind, um Kamerabilder vom Bereich hinter dem sich bewegenden Körper aufzunehmen; eine Erfassungsvorrichtung (102109), um auf Grundlage der Kamerabilder der Mehrzahl der Bildaufnahmevorrichtungen (101) die Bewegung eines Gegenstandes, der hinter dem sich bewegenden Körper vorhanden ist, zu erfassen; wobei die Mehrzahl der Bildaufnahmevorrichtungen (101) in ihren Kamerabildern einen Überlappbereich aufweisen, der einen Bereich in der Nähe eines Fluchtpunktes umfasst und in welchem sich Bildbereiche der ersten Bildaufnahmevorrichtung und der zweiten Bildaufnahmevorrichtung überlappen, und die Erfassungsvorrichtung im Überlappbereich eine Stereoparallaxe zwischen der ersten Bildaufnahmevorrichtung und der zweiten Bildaufnahmevorrichtung ermittelt und auf der Grundlage der ermittelten Stereoparallaxe einen Abstand zum Gegenstand ermittelt, dadurch gekennzeichnet, dass die Erfassungsvorrichtung (102109) Flüsse entsprechend der zeitlichen Bewegung eines Bildes im Bildbereich der ersten Bildaufnahmevorrichtung, ausgenommen des Überlappbereichs, ermittelt, und auf der Grundlage der ermittelten Flüsse die Bewegung des Gegenstandes, der hinter dem sich bewegenden Körper vorhanden ist, ermittelt.
  2. Das Fahrassistenzsystem gemäß Anspruch 1, weiter umfassend: eine Bildsynthesevorrichtung (110), um durch Bildsynthese der Kamerabilder der Mehrzahl der Bildaufnahmevorrichtungen ein Bild zu erzeugen, das den Bereich hinter dem sich bewegenden Körper wiedergibt.
  3. Das Fahrassistenzsystem gemäß Anspruch 1, weiter umfassend: eine Gefahrstufenermittlungsvorrichtung (501), um auf der Grundlage der Informationsausgabe der Erfassungsvorrichtung die Gefahr eines Zusammenstoßes zwischen dem sich bewegenden Körper und einem sich hinter dem sich bewegenden Körper nähernden Gegenstand zu bestimmen, und um ein Hinweissignal auszugeben, wenn festgestellt wird, dass die Gefahr eines Zusammenstoßes groß ist; und eine externe Warnvorrichtung zum Ausgeben einer Warnung für den Bereich hinter dem sich bewegenden Körper, wenn das Hinweissignal von der Gefahrenstufenermittlungsvorrichtung ausgegeben wird.
  4. Das Fahrassistenzsystem gemäß Anspruch 1, weiter umfassend: eine Gefahrenstufenermittlungsvorrichtung, um auf der Grundlage der Informationsausgabe der Erfassungsvorrichtung die Gefahr eines Zusammenstoßes zwischen dem sich bewegenden Körper und einem sich hinter dem sich bewegenden Körper nähernden Gegenstand zu bestimmen, und um ein Hinweissignal auszugeben, wenn festgestellt wird, dass die Gefahr eines Zusammenstoßes groß ist; und eine Passagiersschutzvorrichtung zum Ergreifen von Maßnahmen, um einen Passagier des sich bewegenden Körpers zu schützen, wenn das Hinweissignal von der Gefahrenstufenermittlungsvorrichtung ausgegeben wird.
DE60009114T 1999-09-20 2000-09-20 Vorrichtung zur unterstützung von kraftfahrzeugführern Expired - Lifetime DE60009114T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP26562999 1999-09-20
JP26562999 1999-09-20
PCT/JP2000/006393 WO2001021446A1 (en) 1999-09-20 2000-09-20 Device for assisting automobile driver

Publications (2)

Publication Number Publication Date
DE60009114D1 DE60009114D1 (de) 2004-04-22
DE60009114T2 true DE60009114T2 (de) 2004-08-05

Family

ID=17419801

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60009114T Expired - Lifetime DE60009114T2 (de) 1999-09-20 2000-09-20 Vorrichtung zur unterstützung von kraftfahrzeugführern

Country Status (7)

Country Link
US (1) US6993159B1 (de)
EP (1) EP1223083B1 (de)
JP (2) JP3300340B2 (de)
KR (1) KR100466458B1 (de)
CN (1) CN1160210C (de)
DE (1) DE60009114T2 (de)
WO (1) WO2001021446A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7652686B2 (en) 2001-06-28 2010-01-26 Robert Bosch Gmbh Device for image detecting objects, people or similar in the area surrounding a vehicle
DE102009038406A1 (de) * 2009-08-24 2011-03-03 Volkswagen Ag Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs
DE102009005505B4 (de) * 2008-03-28 2018-11-15 Volkswagen Ag Verfahren und Vorrichtung zur Erzeugung eines Abbildes der Umgebung eines Kraftfahrzeugs

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4573977B2 (ja) * 1999-09-22 2010-11-04 富士重工業株式会社 監視システムの距離補正装置、および監視システムの消失点補正装置
JP3620710B2 (ja) * 2000-07-28 2005-02-16 日本ビクター株式会社 撮像装置
JP3739693B2 (ja) * 2001-11-09 2006-01-25 本田技研工業株式会社 画像認識装置
DE10218228A1 (de) * 2002-04-24 2003-11-06 Volkswagen Ag Verfahren und Einrichtung zur Funktionskontrolle einer Videokamera in einem Fahrzeug
JP3904988B2 (ja) * 2002-06-27 2007-04-11 株式会社東芝 画像処理装置およびその方法
JP2004147210A (ja) * 2002-10-25 2004-05-20 Matsushita Electric Ind Co Ltd 運転支援装置
DE10303792A1 (de) * 2003-01-31 2004-08-12 Robert Bosch Gmbh Verfahren zur Anzeige fahrzeugspezifischer Informationssignale
JP2004240480A (ja) * 2003-02-03 2004-08-26 Matsushita Electric Ind Co Ltd 運転支援装置
KR20050036179A (ko) * 2003-10-15 2005-04-20 현대자동차주식회사 차량의 전방 감시장치 및 방법
ATE479967T1 (de) * 2003-11-11 2010-09-15 Technikus Ag Einrichtung zur aufzeichnung von fahr- und/oder verkehrssituationen von fahrzeugen und verfahren zur auswertung dieser aufzeichnungen
JP4638143B2 (ja) 2003-12-26 2011-02-23 富士重工業株式会社 車両用運転支援装置
JP3980565B2 (ja) * 2004-02-16 2007-09-26 松下電器産業株式会社 運転支援装置
US7406182B2 (en) * 2004-03-31 2008-07-29 Fujifilm Corporation Image capturing apparatus, image capturing method, and machine readable medium storing thereon image capturing program
US8082101B2 (en) 2004-04-08 2011-12-20 Mobileye Technologies Ltd. Collision warning system
JP2005311868A (ja) 2004-04-23 2005-11-04 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP4586416B2 (ja) * 2004-05-20 2010-11-24 日産自動車株式会社 運転支援装置
EP2182730B1 (de) * 2004-06-15 2020-05-20 Panasonic Intellectual Property Management Co., Ltd. Monitor und Fahrzeugumgebungsmonitor
US20080018668A1 (en) * 2004-07-23 2008-01-24 Masaki Yamauchi Image Processing Device and Image Processing Method
NZ552920A (en) * 2004-08-04 2009-12-24 Intergraph Software Tech Co Method of preparing a composite image with non-uniform resolution real-time composite image comparator
JP2006054662A (ja) * 2004-08-11 2006-02-23 Mitsubishi Electric Corp 運転支援装置
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US7609290B2 (en) * 2005-01-28 2009-10-27 Technology Advancement Group, Inc. Surveillance system and method
KR100782811B1 (ko) * 2005-02-04 2007-12-06 삼성전자주식회사 영상의 주파수 특성에 따라 포맷을 달리하는 스테레오 영상 합성 방법 및 장치와, 그 영상의 송신 및 수신 방법과, 그 영상의 재생 방법 및 장치
DE102006010275A1 (de) * 2005-03-03 2006-12-14 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zum Vermeiden einer Kollision bei einem Spurwechsel eines Fahrzeugs
JP4544028B2 (ja) * 2005-05-13 2010-09-15 日産自動車株式会社 車載画像処理装置、および画像処理方法
JP4626400B2 (ja) * 2005-05-25 2011-02-09 日産自動車株式会社 俯瞰画像表示装置及び俯瞰画像表示方法
KR100666276B1 (ko) * 2005-07-13 2007-01-10 현대자동차주식회사 소실점을 이용한 자동차의 차선이탈 경보방법
SE529304C2 (sv) * 2005-09-06 2007-06-26 Gm Global Tech Operations Inc Metod och system för förbättrande av trafiksäkerhet
JP4353162B2 (ja) * 2005-09-26 2009-10-28 トヨタ自動車株式会社 車輌周囲情報表示装置
FR2891934B1 (fr) * 2005-10-12 2008-01-18 Valeo Electronique Sys Liaison Dispositif de traitement de donnees video pour un vehicule automobile
JP2007148835A (ja) * 2005-11-28 2007-06-14 Fujitsu Ten Ltd 物体判別装置、報知制御装置、物体判別方法および物体判別プログラム
JP4757085B2 (ja) * 2006-04-14 2011-08-24 キヤノン株式会社 撮像装置及びその制御方法、画像処理装置、画像処理方法、及びプログラム
JP4846426B2 (ja) * 2006-04-20 2011-12-28 パナソニック株式会社 車両周囲監視装置
JP4847884B2 (ja) * 2007-01-31 2011-12-28 オプトレックス株式会社 障害物検出装置、車両用表示装置及び障害物検出方法
JP5271511B2 (ja) * 2007-06-14 2013-08-21 富士通テン株式会社 運転支援装置および画像表示装置
EP2240796A4 (de) * 2008-01-22 2012-07-11 Magna Int Inc Verwendung einer einzelkamera für mehrere fahrunterstützungsdienste, parkhilfe, kupplungshilfe und heckklappenschutz
CA2714492C (en) 2008-02-08 2014-07-15 Google, Inc. Panoramic camera with multiple image sensors using timed shutters
JP4513871B2 (ja) * 2008-02-15 2010-07-28 ソニー株式会社 画像処理方法、画像処理プログラムおよび画像処理装置
JP4986069B2 (ja) * 2008-03-19 2012-07-25 マツダ株式会社 車両用周囲監視装置
KR100929689B1 (ko) * 2008-09-08 2009-12-03 재단법인대구경북과학기술원 스테레오 영상 정보를 이용한 차량용 사고기록 장치 및 그 제어 방법
KR100971731B1 (ko) 2008-11-07 2010-07-22 주식회사 케이제이몰 차량용 영상 저장 시스템에서의 영상 처리 장치 및 방법
KR100997617B1 (ko) 2008-11-20 2010-12-01 재단법인대구경북과학기술원 교통 수단의 사고 기록 장치, 방법 및 시스템
JP4553072B1 (ja) * 2009-03-31 2010-09-29 コニカミノルタホールディングス株式会社 画像統合装置および画像統合方法
JP4733756B2 (ja) * 2009-04-28 2011-07-27 本田技研工業株式会社 車両周辺監視装置
JP5039765B2 (ja) * 2009-09-17 2012-10-03 日立オートモティブシステムズ株式会社 車両制御装置
CN102577372B (zh) * 2009-09-24 2015-06-10 松下电器产业株式会社 驾驶辅助显示装置
US8633810B2 (en) 2009-11-19 2014-01-21 Robert Bosch Gmbh Rear-view multi-functional camera system
JP2011118482A (ja) * 2009-11-30 2011-06-16 Fujitsu Ten Ltd 車載装置および認知支援システム
US8751191B2 (en) 2009-12-22 2014-06-10 Panasonic Corporation Action analysis device and action analysis method
CN102275558B (zh) * 2010-06-12 2013-01-23 财团法人车辆研究测试中心 双视觉前车安全警示装置及其方法
JP5609597B2 (ja) * 2010-12-02 2014-10-22 富士通株式会社 接触可能性検知装置、接触可能性検知方法、及びプログラム
JP5695405B2 (ja) * 2010-12-10 2015-04-08 東芝アルパイン・オートモティブテクノロジー株式会社 車両用画像処理装置および車両用画像処理方法
KR101243108B1 (ko) 2010-12-30 2013-03-12 주식회사 와이즈오토모티브 차량의 후방 영상 표시 장치 및 방법
JP2012155655A (ja) * 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
JP5329582B2 (ja) * 2011-02-09 2013-10-30 本田技研工業株式会社 車両用周辺監視装置
CN103797530B (zh) * 2011-09-21 2015-09-09 本田技研工业株式会社 车辆周围监测装置
DE102011084554A1 (de) * 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
CN103085716A (zh) * 2011-10-31 2013-05-08 鸿富锦精密工业(深圳)有限公司 交通意外防止系统及方法
JP5760999B2 (ja) * 2011-12-02 2015-08-12 トヨタ自動車株式会社 画像処理装置及び画像処理方法
KR101340014B1 (ko) * 2011-12-09 2013-12-10 에스엘 주식회사 위치 정보 제공 장치 및 방법
WO2013099169A1 (ja) 2011-12-27 2013-07-04 パナソニック株式会社 ステレオ撮影装置
CN103448652B (zh) * 2012-06-04 2016-06-15 宏达国际电子股份有限公司 行车警示方法及其电子装置
CN103522952A (zh) * 2012-07-06 2014-01-22 昆达电脑科技(昆山)有限公司 驾驶中提示危险的警报装置及其方法
JP5695000B2 (ja) * 2012-08-13 2015-04-01 本田技研工業株式会社 車両周辺監視装置
TWI494234B (zh) * 2012-08-24 2015-08-01 Altek Autotronics Corp 行車輔助系統及其啟用方法
JP6084434B2 (ja) * 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
CN104118380B (zh) * 2013-04-26 2017-11-24 富泰华工业(深圳)有限公司 行车侦测系统及方法
US9800780B2 (en) 2013-05-16 2017-10-24 Sony Corporation Image processing device, image processing method, and program to capture an image using fisheye lens
US10171775B1 (en) 2013-05-31 2019-01-01 Vecna Technologies, Inc. Autonomous vehicle vision system
KR20150051389A (ko) * 2013-11-04 2015-05-13 현대모비스 주식회사 영상 처리 방법 및 이를 위한 장치
CN105765966B (zh) * 2013-12-19 2020-07-10 英特尔公司 碗形成像系统
US9449234B2 (en) * 2014-03-31 2016-09-20 International Business Machines Corporation Displaying relative motion of objects in an image
JP6264173B2 (ja) 2014-04-18 2018-01-24 富士通株式会社 撮像方向の正常性判定方法、撮像装置取り付け状態評価プログラムおよび撮像装置取り付け状態評価装置
JP6299373B2 (ja) 2014-04-18 2018-03-28 富士通株式会社 撮像方向の正常性の判定方法、撮像方向の正常性の判定プログラムおよび撮像方向の正常性の判定装置
JP6299371B2 (ja) 2014-04-18 2018-03-28 富士通株式会社 撮像方向の傾き検出方法、撮像方向の傾き検出プログラムおよび撮像方向の傾き検出装置
US9355547B2 (en) 2014-05-22 2016-05-31 International Business Machines Corporation Identifying a change in a home environment
US9613274B2 (en) * 2014-05-22 2017-04-04 International Business Machines Corporation Identifying an obstacle in a route
WO2015182147A1 (ja) * 2014-05-28 2015-12-03 京セラ株式会社 ステレオカメラ装置およびステレオカメラ装置を設置した車両
CN104200213B (zh) * 2014-08-12 2018-07-17 合肥工业大学 一种基于多部件的车辆检测方法
JP5949861B2 (ja) * 2014-09-05 2016-07-13 トヨタ自動車株式会社 車両の接近物体検出装置及び車両の接近物体検出方法
JP6356586B2 (ja) * 2014-11-28 2018-07-11 株式会社デンソー 車両の走行制御装置
CN104477126A (zh) * 2014-12-12 2015-04-01 常州博显汽车电子有限公司 用于汽车上的主动式安全带装置
US10144349B2 (en) * 2014-12-26 2018-12-04 The Yokohama Rubber Co., Ltd. Collision avoidance system and collision avoidance method
JP5880740B1 (ja) * 2014-12-26 2016-03-09 横浜ゴム株式会社 衝突回避システム及び衝突回避方法
JP6564577B2 (ja) * 2015-02-16 2019-08-21 修一 田山 自動車における近接体警報知装置
KR101639722B1 (ko) * 2015-05-26 2016-07-15 주식회사 피엘케이 테크놀로지 소실점 보정 장치 및 방법
DE112016003912T5 (de) * 2015-08-31 2018-05-09 Mitsubishi Electric Corporation Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Programm
US11648876B2 (en) 2015-09-02 2023-05-16 SMR Patents S.à.r.l. System and method for visibility enhancement
EP3139340B1 (de) * 2015-09-02 2019-08-28 SMR Patents S.à.r.l. System und verfahren zur verbesserung der sichtbarkeit
CN108292469B (zh) * 2015-12-09 2021-02-05 笠原一 位置信息确定方法、装置以及计算机存储介质
KR102565485B1 (ko) * 2016-01-11 2023-08-14 한국전자통신연구원 도시 거리 검색 서비스 제공 서버 및 방법
DE102016104730A1 (de) * 2016-03-15 2017-09-21 Connaught Electronics Ltd. Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
US20170297488A1 (en) * 2016-04-19 2017-10-19 GM Global Technology Operations LLC Surround view camera system for object detection and tracking
KR102529119B1 (ko) 2016-06-27 2023-05-04 삼성전자주식회사 객체의 깊이 정보를 획득하는 방법, 디바이스 및 기록매체
IT201600094858A1 (it) * 2016-09-21 2018-03-21 St Microelectronics Srl Procedimento per un cross traffic alert avanzato a basso costo, corrispondente sistema di elaborazione, sistema per cross traffic alert e veicolo
US20180374237A1 (en) * 2017-06-23 2018-12-27 Canon Kabushiki Kaisha Method, system and apparatus for determining a pose for an object
KR101849326B1 (ko) * 2017-08-31 2018-04-17 주식회사 핀텔 차량용 카메라 시스템
JP6958147B2 (ja) * 2017-09-07 2021-11-02 トヨタ自動車株式会社 画像表示装置
JP2020086491A (ja) * 2018-11-15 2020-06-04 株式会社リコー 情報処理装置、情報処理システム及び情報処理方法
CN109263557B (zh) * 2018-11-19 2020-10-09 威盛电子股份有限公司 车辆盲区侦测方法
CN110435650A (zh) * 2019-08-22 2019-11-12 爱驰汽车有限公司 车辆后碰撞紧急避让方法、系统、设备及存储介质
CN111813116A (zh) * 2020-07-09 2020-10-23 海南发控智慧环境建设集团有限公司 一种基于三维模型的避障辅助系统

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4851444A (de) 1971-11-02 1973-07-19
DE2215576B2 (de) * 1972-03-30 1976-06-10 Zusatz in: 22 56 850 Zusatz in: 22 56 885 Zusatz in: 22 56 915 Ernst Leitz GmbH, 6330 Wetzlar Einrichtung zum messen, regeln und/ oder anzeigen der bewegung von landfahrzeugen
CH564778A5 (de) 1972-03-30 1975-07-31 Leitz Ernst Gmbh
DE3637165A1 (de) 1986-10-31 1988-05-05 Rainer Ashauer Verfahren und einrichtung zum verhindern von zusammenstoessen, insbesondere fuer kraftfahrzeuge im strassenverkehr
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
JP3239521B2 (ja) * 1993-03-30 2001-12-17 トヨタ自動車株式会社 移動体認識装置
JPH06333200A (ja) 1993-05-21 1994-12-02 Toshiba Corp 車載用監視システム
JPH0717328A (ja) 1993-06-30 1995-01-20 Mitsubishi Motors Corp 車両用周辺認識補助装置
JP3063481B2 (ja) 1993-09-21 2000-07-12 日産自動車株式会社 車両用物体検出装置
JP3381351B2 (ja) 1993-12-24 2003-02-24 日産自動車株式会社 車両用周囲状況表示装置
US6118475A (en) * 1994-06-02 2000-09-12 Canon Kabushiki Kaisha Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
JP3117902B2 (ja) 1995-07-28 2000-12-18 株式会社アイチコーポレーション 高所作業車の作業範囲規制装置
US5886744A (en) * 1995-09-08 1999-03-23 Intel Corporation Method and apparatus for filtering jitter from motion estimation video data
JP3485135B2 (ja) 1995-09-27 2004-01-13 矢崎総業株式会社 車両用後側方監視装置
JP3765862B2 (ja) 1996-02-15 2006-04-12 本田技研工業株式会社 車両用環境認識装置
JPH09249083A (ja) 1996-03-15 1997-09-22 Toshiba Corp 移動体識別装置および方法
JP3456843B2 (ja) * 1996-07-22 2003-10-14 富士通株式会社 前方車間距離計測装置
JPH10222665A (ja) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd 画像認識装置
JPH10341430A (ja) * 1997-06-06 1998-12-22 Yazaki Corp 前方車両検出方法及び車両前方監視システム
JP3841323B2 (ja) * 1997-07-07 2006-11-01 矢崎総業株式会社 車両用後側方監視方法及び車両用後側方監視装置
JPH1142988A (ja) * 1997-07-25 1999-02-16 Yazaki Corp 車両用後側方監視方法及び車両用後側方監視装置
JP3464368B2 (ja) 1997-07-25 2003-11-10 矢崎総業株式会社 車両用後側方監視装置
JPH11213295A (ja) * 1998-01-28 1999-08-06 Kansei Corp 車両割り込み検出回路及びそれを用いた追突警報装置
US6674430B1 (en) * 1998-07-16 2004-01-06 The Research Foundation Of State University Of New York Apparatus and method for real-time volume processing and universal 3D rendering
JP4031122B2 (ja) 1998-09-30 2008-01-09 本田技研工業株式会社 差分画像を用いた被写体の検出装置
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
JP2000207693A (ja) * 1999-01-08 2000-07-28 Nissan Motor Co Ltd 車載用障害物検出装置
JP2000242797A (ja) 1999-02-18 2000-09-08 Toyota Motor Corp 画像の運動検出方法及び物体検出装置
JP2000241120A (ja) * 1999-02-23 2000-09-08 Fanuc Ltd 計測装置
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7652686B2 (en) 2001-06-28 2010-01-26 Robert Bosch Gmbh Device for image detecting objects, people or similar in the area surrounding a vehicle
DE102009005505B4 (de) * 2008-03-28 2018-11-15 Volkswagen Ag Verfahren und Vorrichtung zur Erzeugung eines Abbildes der Umgebung eines Kraftfahrzeugs
DE102009006335B4 (de) 2008-03-28 2023-03-30 Volkswagen Ag Verfahren zur Unterstützung des Fahrers eines Kraftfahrzeugs
DE102009038406A1 (de) * 2009-08-24 2011-03-03 Volkswagen Ag Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs
DE102009038406B4 (de) * 2009-08-24 2017-10-05 Volkswagen Ag Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs

Also Published As

Publication number Publication date
KR100466458B1 (ko) 2005-01-14
EP1223083A4 (de) 2003-03-19
JP3300340B2 (ja) 2002-07-08
JP4091775B2 (ja) 2008-05-28
CN1160210C (zh) 2004-08-04
CN1373720A (zh) 2002-10-09
JP2002335524A (ja) 2002-11-22
WO2001021446A1 (en) 2001-03-29
DE60009114D1 (de) 2004-04-22
KR20020033817A (ko) 2002-05-07
US6993159B1 (en) 2006-01-31
EP1223083B1 (de) 2004-03-17
EP1223083A1 (de) 2002-07-17

Similar Documents

Publication Publication Date Title
DE60009114T2 (de) Vorrichtung zur unterstützung von kraftfahrzeugführern
DE60005426T2 (de) Rückblicksüberwachungssystem für Fahrzeuge
DE69932021T2 (de) Dreidimensionales Darstellungssystem mit einer einzelnen Kamera für Fahrzeuge
DE60009976T2 (de) Rück- und Seitenblickmonitor mit Kamera für Fahrzeug
DE10296593B4 (de) Fahrunterstützungsvorrichtung
DE102010035772B4 (de) System und Verfahren zum Liefern von Leitinformation für einen Fahrer eines Fahrzeugs
DE60124345T2 (de) Bildzusammensetzungssystem und -verfahren
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE102005056645B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102014115037A1 (de) Sichtbasierte Objekterkennung und -hervorhebung bei Fahrzeugbildanzeigesystemen
DE102020100080A1 (de) Adaptive transparenz eines virtuellen fahrzeugs in einem simulierten bildgebungssystem
DE102016212405A1 (de) Fahrzeugbildverarbeitungsvorrichtung und Fahrzeugbildverarbeitungssystem
DE102015105248A1 (de) Erzeugen eines bildes von der umgebung eines gelenkfahrzeugs
EP2289044B1 (de) Bilddatenvisualisierung
DE102009051526A1 (de) System und Verfahren zum Abbilden der Fahrzeugumgebung mit ein- und verstellbarer Perspektive
DE102005056647B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE10108646A1 (de) Gefahrenentscheidungsvorrichtung für ein Kraftfahrzeug und Umgebungsüberwachungsvorrichtung für dasselbe
DE19860676A1 (de) Visualisierungseinrichtung für die von wenigstens einem Scheinwerfer eines Fahrzeugs bewirkte Beleuchtung vor dem Fahrzeug
DE102015223176A1 (de) Verfahren und Vorrichtung zur Ermittlung von Verdeckungsbereichen in der Fahrzeugumgebung eines Fahrzeuges
EP2791895A1 (de) Verfahren zur verbesserung der objektdetektion bei multikamerasystemen
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
EP2040220A1 (de) Verfahren zur Hinderniserkennung
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
DE102016104730A1 (de) Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3078015B1 (de) Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP