DE112019007225B4 - Fahrzeugumgebungsbilderzeugungsvorrichtung, Fahrzeugumgebungsanzeigesystem und Fahrzeugumgebungsanzeigeverfahren - Google Patents

Fahrzeugumgebungsbilderzeugungsvorrichtung, Fahrzeugumgebungsanzeigesystem und Fahrzeugumgebungsanzeigeverfahren Download PDF

Info

Publication number
DE112019007225B4
DE112019007225B4 DE112019007225.0T DE112019007225T DE112019007225B4 DE 112019007225 B4 DE112019007225 B4 DE 112019007225B4 DE 112019007225 T DE112019007225 T DE 112019007225T DE 112019007225 B4 DE112019007225 B4 DE 112019007225B4
Authority
DE
Germany
Prior art keywords
image
vehicle
road surface
overview
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112019007225.0T
Other languages
English (en)
Other versions
DE112019007225T5 (de
Inventor
Kenta Onishi
Kohei Mori
Nariaki TAKEHARA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112019007225T5 publication Critical patent/DE112019007225T5/de
Application granted granted Critical
Publication of DE112019007225B4 publication Critical patent/DE112019007225B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Eine Fahrzeugumgebungsbilderzeugungsvorrichtung (2) zum Erzeugen eines Übersichtsbildes (13a), das ein Fahrzeug (7) und einen Fahrzeugumgebungsbereich einschließt, auf der Grundlage einer Vielzahl von Bildern, die von einer Vielzahl von Abbildungsvorrichtungen (1), die an dem Fahrzeug (7) angebracht sind, aufgenommen wurden, wobei die Fahrzeugumgebungsbilderzeugungsvorrichtung (2) umfasst:eine Objektabstandsbestimmungseinheit (22) zum Bestimmen, ob ein Abstand zwischen einem Objekt (8, 9) und dem Fahrzeug (7) innerhalb eines Schwellenwerts liegt, auf der Grundlage von Objektinformationen, die von einem Sensor (4) zum Detektieren des Objekts (8, 9) in dem Fahrzeugumgebungsbereich erfasst werden;eine Bildumwandlungseinheit (24) zum Umwandeln jedes der Vielzahl von Bildern in ein Bild für ein Übersichtsbild;eine Bildaufteilungseinheit (26) zum Aufteilen des überlappenden Abschnitts (10BR, 10FR) in dem Bild für ein Übersichtsbild in ein Straßenoberflächenbild und ein Objektbild, wenn das Objekt (8, 9) in einem überlappenden Abschnitt (10BR, 10FR) von Abbildungsbereichen (10B, 10F, 10R) der Vielzahl von Abbildungsvorrichtungen (1) vorhanden ist;eine Bildkombinationseinheit (27) zum Kombinieren des gesamten oder eines Teils des Bildes für ein Übersichtsbild, das durch die Bildumwandlungseinheit (24) erhalten wurde, und des Straßenoberflächenbildes bzw. des Objektbildes, die durch die Bildaufteilungseinheit (26) erhalten wurden, um das Übersichtsbild (13a) zu erzeugen; undeine Framesynchronisationseinheit (21) zum Synchronisieren von Bildinformationen, die von den Abbildungsvorrichtungen (1) erfasst wurden, von Objektinformationen, die von dem Sensor (4) erfasst wurden, und von Fahrzeugbewegungsinformationen, die eine Fahrtrichtung und eine Geschwindigkeit des Fahrzeugs (7) umfassen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft eine Fahrzeugumgebungsbilderzeugungsvorrichtung, ein Fahrzeugumgebungsanzeigesystem und ein Fahrzeugumgebungsanzeigeverfahren.
  • STAND DER TECHNIK
  • In einem Fahrzeugumgebungsanzeigesystem, das eine Fahrzeugumgebungsbilderzeugungsvorrichtung enthält, werden Bilder einer Fahrzeugumgebung, die von einer Vielzahl von Kameras im Fahrzeug aufgenommen wurden, kombiniert, um ein Übersichtsbild zu erzeugen, das das Fahrzeug und die Fahrzeugumgebung enthält. Der Fahrer erkennt eine Person, ein Objekt oder ähnliches, das sich in der Umgebung des Fahrzeugs befindet, anhand des auf einer Anzeigevorrichtung angezeigten Übersichtsbildes. JP 2003-169323 A zeigt zum Beispiel, dass die Pixelinformationen jedes Eingangsbildes abwechselnd nach einer bestimmten Regel für denselben Bildbereich, der in einer Vielzahl von Eingangsbildern enthalten ist, übernommen werden und ein zusammengesetztes Bild ausgegeben wird.
  • Wenn mehrere Bilder kombiniert werden, um ein Übersichtsbild zu erzeugen, überschneiden sich die Bilder im Grenzbereich zwischen den Abbildungsbereichen zweier Kameras.
  • Bei dem herkömmlichen Kombinationsverfahren wird ein Kombinationsverhältnis jedes Bildes (im Folgenden als α-Wert bezeichnet) für diesen Überlappenden Abschnitt auf 0<α<1 gesetzt. Die oben beschriebene Technik der Kombination zweier Bilder mit einem bestimmten α-Wert wird als Alpha-Blending bezeichnet. Beim Alpha-Blending wird beispielsweise bei einem α-Wert von 0,5 eine Farbe erzeugt, die eine Mischung aus 50 % der Farben der Pixel des überlappenden Abschnitts in jedem der beiden Bilder ist, und ein Durchschnittsbild wird synthetisiert.
  • DE 10 2011 088 332 A1 betrifft ein Verfahren zur Wiedergabe von erhabenen Objekten, die sich in einem kritischen Bereich befinden oder auf diesen zubewegen. DE 10 2009 036 200 A1 betrifft ein Verfahren zur Überwachung einer Umgebung eines Fahrzeugs, wobei die Umgebung und in dieser vorhandene Objekte mittels Bilderfassungseinheiten erfasst werden, deren Erfassungsbereiche sich (teilweise) überlappen und einen Überlappungsbereich bilden, wobei aus den erfassten Einzelbildern ein Gesamtbild erzeugt wird, welches das Fahrzeug und dessen Umgebung aus einer Vogelperspektive zeigt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDE PROBLEME
  • Wenn ein Übersichtsbild in der herkömmlichen Fahrzeugumgebungsbilderzeugungsvorrichtung synthetisiert wird, werden zwei Bilder durch Alpha-Blending kombiniert, wobei der überlappende Abschnitt in jedem der beiden Bilder transparent gemacht wird. In diesem Fall wird der α-Wert unabhängig davon festgelegt, ob ein Objekt im Bild vorhanden ist. Daher besteht das Problem, dass ein Teil eines Objekts, das sich im überlappenden Abschnitt des Bildbereichs jeder Kamera befindet, im Übersichtsbild unscharf ist und das Übersichtsbild somit zu einem unklaren Bild wird. Darüber hinaus kann beim Alpha-Blending ein Objekt auch dann unscharf werden, wenn der überlappende Abschnitt proportional zum Abstand vom Zentrum des Bildbereichs gewichtet wird.
  • Die vorliegende Offenbarung wurde gemacht, um das obige Problem zu lösen, und ein Ziel der vorliegenden Offenbarung ist es, eine Fahrzeugumgebungsbilderzeugungsvorrichtung zu erhalten, die in der Lage ist, ein klares Übersichtsbild zu erzeugen, ohne ein Objekt zu verwischen, das in einem überlappenden Abschnitt der Abbildungsbereiche einer Vielzahl von Abbildungsvorrichtungen vorhanden ist. Darüber hinaus besteht ein weiteres Ziel der vorliegenden Offenbarung darin, ein Anzeigesystem für die Umgebung eines Fahrzeugs und ein Verfahren zur Anzeige der Umgebung eines Fahrzeugs zu erhalten, das in der Lage ist, ein Objekt, das sich in dem überlappenden Abschnitt der Abbildungsbereiche befindet, klar anzuzeigen.
  • LÖSUNG DER PROBLEME
  • Die Probleme werden erfindungsgemäß durch den Gegenstand der unabhängigen Ansprüche gelöst. Die abhängigen Ansprüche bezeichnen weitere bevorzugte Ausführungsformen, und diese Offenbarung erläutert beispielhaft wie die Erfindung ausgeführt werden kann. Eine Fahrzeugumgebungsbereichsbilderzeugungsvorrichtung gemäß der vorliegenden Offenbarung ist eine Fahrzeugumgebungsbereichsbilderzeugungsvorrichtung zum Erzeugen eines Übersichtsbildes, das ein Fahrzeug und einen Fahrzeugumgebungsbereich enthält, auf der Grundlage einer Vielzahl von Bildern, die von einer Vielzahl von Abbildungsvorrichtungen, die an dem Fahrzeug angebracht sind, aufgenommen wurden, wobei die Fahrzeugumgebungsbereichsbilderzeugungsvorrichtung umfasst: eine Objektabstandsbestimmungseinheit zum Bestimmen, ob ein Abstand zwischen einem Objekt und dem Fahrzeug innerhalb eines Schwellenwerts liegt, auf der Grundlage von Objektinformationen, die von einem Sensor zum Detektieren des Objekts in dem Fahrzeugumgebungsbereich erfasst werden; eine Bildumwandlungseinheit zum Umwandeln jedes der mehreren Bilder in ein Bild für ein Übersichtsbild; eine Bildaufteilungseinheit, um, wenn das Objekt in einem überlappenden Abschnitt von Abbildungsbereichen der Vielzahl von Abbildungsvorrichtungen existiert, den überlappenden Abschnitt in dem Bild für ein Übersichtsbild in ein Straßenoberflächenbild und ein Objektbild aufzuteilen; und eine Bildkombinationseinheit zum Kombinieren des gesamten oder eines Teils des Bildes für ein Übersichtsbild, das durch die Bildumwandlungseinheit erhalten wurde, und des Straßenoberflächenbildes bzw. des Objektbildes, das durch die Bildaufteilungseinheit erhalten wurde, um das Übersichtsbild zu erzeugen.
  • Ein Fahrzeugumgebungsanzeigesystem gemäß der vorliegenden Offenbarung ist ein Fahrzeugumgebungsanzeigesystem, das umfasst: eine Vielzahl von Abbildungsvorrichtungen, die an einem Fahrzeug angebracht sind, um ein Bild eines Fahrzeugumgebungsbereichs aufzunehmen; einen Sensor zum Detektieren eines Objekts in dem Fahrzeugumgebungsbereich; eine Fahrzeugumgebungsbereichsbilderzeugungsvorrichtung zum Erzeugen eines Übersichtsbildes, das das Fahrzeug und den Fahrzeugumgebungsbereich enthält, auf der Grundlage einer Vielzahl von Bildern, die von den Abbildungsvorrichtungen aufgenommen wurden und eine Anzeigeeinheit zum Anzeigen des von der Fahrzeugumgebungsbilderzeugungsvorrichtung erzeugten Übersichtsbildes, wobei die Fahrzeugumgebungsbilderzeugungsvorrichtung eine Objektabstandsbestimmungseinheit zum Bestimmen, ob ein Abstand zwischen dem Objekt und dem Fahrzeug innerhalb eines Schwellenwerts liegt, auf der Grundlage von durch den Sensor erfassten Objektinformationen, eine Bildumwandlungseinheit zum Umwandeln jedes der mehreren Bilder in ein Bild für ein Übersichtsbild eine Bildunterteilungseinheit, um, wenn das Objekt in einem überlappenden Abschnitt von Abbildungsbereichen der Vielzahl von Abbildungsvorrichtungen vorhanden ist, den überlappenden Abschnitt in dem Bild für ein Übersichtsbild in ein Straßenoberflächenbild und ein Objektbild zu unterteilen, und eine Bildkombinationseinheit, um das gesamte oder einen Teil des Bildes für ein Übersichtsbild, das durch die Bildumwandlungseinheit erhalten wurde, und das Straßenoberflächenbild bzw. das Objektbild, das durch die Bildunterteilungseinheit erhalten wurde, zu kombinieren, um das Übersichtsbild zu erzeugen.
  • Ein Fahrzeugumgebungsbereichsanzeigeverfahren gemäß der vorliegenden Offenbarung ist ein Fahrzeugumgebungsbereichsanzeigeverfahren zum Erzeugen und Anzeigen eines Übersichtsbildes, das ein Fahrzeug und einen Fahrzeugumgebungsbereich enthält, wobei das Fahrzeugumgebungsbereichsanzeigeverfahren umfasst: einen Informationserfassungsschritt des Erfassens von Bildinformationen einer Vielzahl von aufgenommenen Bildern des Fahrzeugumgebungsbereichs, von Objektinformationen, die Positionsinformationen eines Objekts in dem Fahrzeugumgebungsbereich enthalten, und von Fahrzeugbewegungsinformationen, die eine Fahrtrichtung und eine Geschwindigkeit des Fahrzeugs enthalten; einen Bildumwandlungsschritt des Umwandelns jedes der Vielzahl von Bildern, die in dem Informationserfassungsschritt erfasst wurden, in ein Bild für ein Übersichtsbild; einen Straßenoberflächenfarbdetektionsschritt des Detektierens einer Straßenoberflächenfarbe des überlappenden Abschnitts, wenn das Objekt in einem überlappenden Abschnitt der Vielzahl von Bildern existiert und ein Abstand zwischen dem Objekt und dem Fahrzeug innerhalb eines Schwellenwerts liegt; einen Bildaufteilungsschritt des Aufteilens des überlappenden Abschnitts in dem Bild für ein Übersichtsbild in ein Straßenoberflächenbild und ein Objektbild auf der Basis der Straßenoberflächenfarbe, die in dem Straßenoberflächenfarbdetektionsschritt detektiert wurde; einen Bildkombinationsschritt des Kombinierens aller oder eines Teils des Bildes für ein Übersichtsbild, das in dem Bildumwandlungsschritt erhalten wurde, und des Straßenoberflächenbildes bzw. des Objektbildes, die in dem Bildaufteilungsschritt erhalten wurden, um das Übersichtsbild zu erzeugen; und einen Anzeigeschritt des Anzeigens des Übersichtsbildes, das in dem Bildkombinationsschritt erzeugt wurde.
  • WIRKUNG DER ERFINDUNG
  • In der Fahrzeugumgebungsbilderzeugungsvorrichtung gemäß der vorliegenden Offenbarung wird, wenn ein Objekt in dem überlappenden Abschnitt der Abbildungsbereiche einer Vielzahl von Kameras vorhanden ist, der überlappende Abschnitt in ein Straßenoberflächenbild und ein Objektbild unterteilt, und ein Bild für ein Übersichtsbild, das Straßenoberflächenbild und das Objektbild werden kombiniert, um ein Übersichtsbild zu erzeugen. Auf diese Weise ist es möglich, ein klares Übersichtsbild zu erzeugen, ohne das im überlappenden Abschnitt vorhandene Objekt zu verwischen.
  • In dem Fahrzeugumgebungsanzeigesystem gemäß der vorliegenden Offenbarung wird, wenn ein Objekt in dem überlappenden Abschnitt der Abbildungsbereiche einer Vielzahl von Kameras vorhanden ist, der überlappende Abschnitt in ein Straßenoberflächenbild und ein Objektbild unterteilt, und ein Bild für ein Übersichtsbild, das Straßenoberflächenbild und das Objektbild werden kombiniert, um ein Übersichtsbild zu erzeugen. Auf diese Weise ist es möglich, ein klares Übersichtsbild anzuzeigen, ohne das im überlappenden Abschnitt vorhandene Objekt zu verwischen.
  • In dem Fahrzeugumgebungsanzeigeverfahren gemäß der vorliegenden Offenbarung wird, wenn ein Objekt in dem überlappenden Abschnitt der Abbildungsbereiche der mehreren Kameras vorhanden ist und der Abstand zwischen dem Objekt und dem Fahrzeug innerhalb des Schwellenwerts liegt, der überlappende Abschnitt in ein Straßenoberflächenbild und ein Objektbild unterteilt, und ein Bild für ein Übersichtsbild, das Straßenoberflächenbild und das Objektbild werden kombiniert, um ein Übersichtsbild zu erzeugen. Auf diese Weise ist es möglich, ein klares Übersichtsbild anzuzeigen, ohne das Objekt im überlappenden Abschnitt zu verwischen.
  • Andere als die oben genannten Objekte, Merkmale, Aspekte und Wirkungen der vorliegenden Offenbarung werden aus der folgenden detaillierten Beschreibung unter Bezugnahme auf die Zeichnungen deutlicher werden.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
    • [1] 1 ist ein Blockdiagramm, das die Konfiguration eines Fahrzeugumfeldanzeigesystems gemäß Ausführungsform 1 zeigt.
    • [2] 2 ist ein Blockdiagramm, das die Konfiguration einer Fahrzeugumgebungsbilderzeugungsvorrichtung gemäß Ausführungsform 1 zeigt.
    • [3] 3 ist ein Diagramm, das ein Beispiel für die Hardwarekonfiguration der Fahrzeugumgebungsbilderzeugungsvorrichtung gemäß Ausführungsform 1 zeigt.
    • [4] 4 ist ein Diagramm, das ein Bildkombinationsverfahren durch die Fahrzeugumgebungsbilderzeugungsvorrichtung gemäß Ausführungsform 1 zeigt.
    • [5] 5 ist ein Diagramm, das das Bildkombinationsverfahren durch die Fahrzeugumgebungsbilderzeugungsvorrichtung gemäß Ausführungsform 1 veranschaulicht.
    • [6] 6 ist ein Diagramm, das ein Beispiel eines Übersichtsbildes zeigt, das auf einer Anzeigeeinheit des Fahrzeugumfeldanzeigesystems gemäß Ausführungsform 1 angezeigt wird.
    • [7] 7 ist ein Diagramm, das ein Beispiel eines Übersichtsbildes zeigt, das auf einer Anzeigeeinheit eines Fahrzeugumfeldanzeigesystems gemäß einem Vergleichsbeispiel angezeigt wird.
    • [8] 8 ist ein Diagramm, das den Ablauf der Verarbeitung durch das Fahrzeugumgebungsanzeigesystem gemäß Ausführungsform 1 zeigt.
    • [9] 9 ist ein Diagramm, das ein Verfahren zur Auswahl eines Bildkombinationsverfahrens durch eine Fahrzeugumgebungsbilderzeugungsvorrichtung gemäß Ausführungsform 2 veranschaulicht.
    • [10] 10 ist ein Diagramm, das das Verfahren zur Auswahl eines Bildkombinationsverfahrens durch die Fahrzeugumgebungsbilderzeugungsvorrichtung gemäß Ausführungsform 2 veranschaulicht.
    • [11] 11 ist ein Diagramm, das den Ablauf der Verarbeitung durch ein Fahrzeugumgebungsanzeigesystem gemäß Ausführungsform 2 zeigt.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Ausführungsform 1
  • Nachfolgend werden eine Fahrzeugumgebungsbilderzeugungsvorrichtung und ein Fahrzeugumgebungsanzeigesystem gemäß Ausführungsform 1 unter Bezugnahme auf die Zeichnungen beschrieben. 1 ist ein Blockdiagramm, das die Konfiguration des Fahrzeugumgebungsanzeigesystems gemäß Ausführungsform 1 zeigt, 2 ist ein Blockdiagramm, das die Konfiguration der Fahrzeugumgebungsbilderzeugungsvorrichtung gemäß Ausführungsform 1 zeigt, 3 ist ein Diagramm, das ein Hardware-Konfigurationsbeispiel der Fahrzeugumgebungsbilderzeugungsvorrichtung zeigt, und 4 und 5 sind Diagramme, die ein Bildkombinationsverfahren durch die Fahrzeugumgebungsbilderzeugungsvorrichtung zeigen. In den Zeichnungen sind identische und korrespondierende Teile mit denselben Referenzzeichen bezeichnet.
  • Wie in 1 gezeigt, umfasst das Fahrzeugumgebungsanzeigesystem eine Vielzahl von Kameras 1, die Abbildungsvorrichtungen zum Aufnehmen eines Bildes einer Fahrzeugumgebung sind, eine ECU 2 (elektronische Steuereinheit), die die Fahrzeugumgebungsbilderzeugungsvorrichtung ist, eine Fahrzeugfahrinformationsdetektionseinheit 3, einen Sensor 4 zum Detektieren eines Objekts um ein Fahrzeug, eine Objektinformationsdetektionseinheit 5 und eine Anzeigeeinheit 6.
  • Wie in 4 gezeigt, sind die Kameras 1 beispielsweise an der Vorderseite, der Rückseite, der linken und der rechten Seite eines Fahrzeugs 7 angebracht und nehmen Bilder des vorderen, hinteren, linken und rechten Bereichs des Fahrzeugs 7 auf. Die Bildbereiche der jeweiligen Kameras 1 haben überlappende Abschnitte. In dem in 4 gezeigten Beispiel haben ein Abbildungsbereich 10B der Kamera 1 im hinteren Teil des Fahrzeugs und ein Abbildungsbereich 10R der Kamera 1 auf der rechten Seite des Fahrzeugs einen überlappenden Abschnitt 10BR in einem rechten hinteren Bereich des Fahrzeugs 7. Im Falle der Einbeziehung von vier Kameras 1 gibt es vier überlappende Abschnitte.
  • Die ECU 2 erzeugt ein Übersichtsbild des Fahrzeugs 7 und der Fahrzeugumgebung auf der Grundlage einer Vielzahl von Bildern der Fahrzeugumgebung, die von den Kameras 1 aufgenommen wurden. Die Funktionen der ECU 2 werden später im Detail beschrieben. Die Fahrzeugfahrinformationsdetektionseinheit 3 detektiert Fahrzeugfahrinformationen, einschließlich der Fahrtrichtung und der Geschwindigkeit des Fahrzeugs 7, von dem Fahrzeug 7. Insbesondere detektiert die Fahrzeugfahrinformationsdetektionseinheit 3 Fahrzeuginformationen wie den aktuellen Lenkwinkel, die Geschwindigkeit und Ganginformationen von einer Motorsteuereinheit und detektiert die Fahrtrichtung und die Geschwindigkeit des Fahrzeugs 7 auf der Grundlage der Fahrzeuginformationen.
  • Der Sensor 4 ist am Fahrzeug 7 angebracht, detektiert ein Objekt 8 in der Umgebung des Fahrzeugs und sammelt Objektinformationen. Wie in 4 gezeigt, sind beispielsweise Sensoren 4 jeweils zwischen einer Kamera 1 und einer Kamera 1 vorgesehen und jeweils so eingestellt, dass ein Erfassungsbereich durch den Sensor 4 den überlappenden Abschnitt der Abbildungsbereiche der beiden Kameras 1 einschließt. Der Typ jedes Sensors 4 ist nicht besonders beschränkt, und ein Millimeterwellenradar, ein Sonar, das ein Ultraschallsensor ist, eine Kamera oder dergleichen wird verwendet.
  • Die Objektinformationsdetektionseinheit 5 detektiert die Objektinformation einschließlich der Positionsinformation des vom Sensor 4 erfassten Objekts 8 und detektiert den Abstand zwischen dem Objekt 8 und dem Fahrzeug 7 auf der Grundlage der Positionsinformation. Es kann ein Sensor mit der Funktion der Objektinformationsdetektionseinheit 5 verwendet werden. Die Anzeigeeinheit 6 zeigt das von der ECU 2 erzeugte Übersichtsbild an, das das Fahrzeug 7 und die Umgebung des Fahrzeugs umfasst. Die Anzeigeeinheit 6 ist eine allgemeine Anzeige und wird im Fahrzeuginnenraum installiert, so dass der Fahrer die Anzeigeeinheit 6 leicht sehen kann.
  • Wie in 2 gezeigt, umfasst die ECU 2 eine Framesynchronisationseinheit 21, eine Objektabstandsbestimmungseinheit 22, eine Kombinationsverfahrensauswahleinheit 23, eine Bildumwandlungseinheit 24, eine Straßenoberflächenfarbdetektionseinheit 25, eine Bildaufteilungseinheit 26 und eine Bildkombinationseinheit 27. Nachfolgend werden die Funktionen der jeweiligen Einheiten beschrieben.
  • Die Framesynchronisationseinheit 21 synchronisiert die von den Kameras 1 erfassten Bildinformationen, die von der Objektinformationsdetektionseinheit 5 erfassten Objektinformationen und die Fahrzeugbewegungsinformationen, einschließlich der Fahrtrichtung und der Geschwindigkeit des Fahrzeugs 7. Die Fahrzeugfahrinformationen werden von der Fahrzeugfahrinformationsdetektionseinheit 3 detektiert. Die Framesynchronisation ist eines der Signalsynchronisationsverfahren, und bei der Framesynchronisation wird die Synchronisation gemäß einem vorgegebenen Framesynchronisationsmuster durchgeführt. Die Objektabstandsbestimmungseinheit 22, die Kombinationsverfahrensauswahleinheit 23 und die Bildumwandlungseinheit 24 führen jeweils eine Verarbeitung unter Verwendung der von der Framesynchronisationseinheit 21 synchronisierten Informationen durch.
  • Die Objektabstandsbestimmungseinheit 22 bestimmt auf der Grundlage der von der Objektinformationsdetektionseinheit 5 erhaltenen Objektinformationen, ob der Abstand zwischen dem Objekt 8 und dem Fahrzeug 7 innerhalb eines Schwellenwertes liegt. Ob das Objekt 8 in dem auf der Anzeigeeinheit 6 angezeigten Übersichtsbild dargestellt wird, hängt von der Position des Objekts 8 und dem Abstand zwischen dem Objekt 8 und dem Fahrzeug 7 ab. Daher wird der Schwellenwert, der in der Objektabstandsbestimmungseinheit 22 verwendet wird, auf der Grundlage des Abstands von einem Endabschnitt des Fahrzeugs 7 in dem in 4 gezeigten Übersichtsbild zu einer Bildschirmrand 6A (in 4 durch eine abwechselnde lange und kurze gestrichelte Linie angezeigt) der Anzeigeeinheit 6 eingestellt.
  • Die Kombinationsverfahrensauswahleinheit 23 wählt ein Kombinationsverfahren für ein Übersichtsbild in der Bildkombinationseinheit 27 auf der Grundlage der framesynchronisierten Bildinformationen, der Objektinformationen und der Fahrzeugbewegungsinformationen aus. In Ausführungsform 1 wählt die Kombinationsverfahrensauswahleinheit 23 ein erstes Kombinationsverfahren aus, wenn sich das Objekt 8 im überlappenden Abschnitt der Bildbereiche der beiden Kameras 1 befindet und der Abstand zwischen dem Objekt 8 und dem Fahrzeug 7 innerhalb des Schwellenwertes liegt. Andererseits, wenn kein Objekt 8 in dem überlappenden Abschnitt vorhanden ist oder wenn der Abstand zwischen dem Objekt 8 und dem Fahrzeug 7 größer als der Schwellenwert ist, wählt die Kombinationsverfahrenauswahleinheit 23 ein zweites Kombinationsverfahren aus. Das erste Kombinationsverfahren und das zweite Kombinationsverfahren werden später im Detail beschrieben.
  • Die Bildumwandlungseinheit 24 erhält Bildinformationen einer Vielzahl von Bildern, die von den Kameras 1 aufgenommen wurden, von der Framesynchronisationseinheit 21 und wandelt jedes Bild in ein Bild für ein Übersichtsbild um. Wenn die Kombinationsverfahrensauswahleinheit 23 das erste Kombinationsverfahren auswählt, werden die von der Bildumwandlungseinheit 24 erhaltenen Bilder für ein Übersichtsbild an die Straßenoberflächenfarbdetektionseinheit 25 und die Bildkombinationseinheit 27 gesendet. Wenn die Kombinationsverfahrensauswahleinheit 23 das zweite Kombinationsverfahren auswählt, werden die von der Bildumwandlungseinheit 24 erhaltenen Bilder für ein Übersichtsbild außerdem nur an die Bildkombinationseinheit 27 gesendet.
  • Die Straßenoberflächenfarbdetektionseinheit 25 detektiert die Straßenoberflächenfarbe des überlappenden Abschnitts in jedem Bild für ein von der Bildumwandlungseinheit 24 erzeugtes Übersichtsbild. Insbesondere, wenn die Kombinationsverfahrensauswahleinheit 23 das erste Kombinationsverfahren auswählt, schneidet die Straßenoberflächenfarbdetektionseinheit 25 den überlappenden Abschnitt aus jedem der beiden Bilder für ein Übersichtsbild aus, die den überlappenden Abschnitt haben, und detektiert die Straßenoberflächenfarbe des geschnittenen Bildes.
  • Als Verfahren zum Detetkieren einer Straßenoberflächenfarbe gibt es ein Verfahren, bei dem Farbinformationen eines Bildabschnitts (zum Beispiel mehrere Pixel um das Fahrzeug 7), in dem eine Straßenoberfläche zu sehen ist, aus den von den Kameras 1 erfassten Bildinformationen erfasst werden, und diese Farbinformationen als Farbinformationen einer Straßenoberflächenfarbe verwendet werden. Außerdem gibt es ein Verfahren, bei dem Positionsinformationen eines Objekts von der Objektinformationsdetektionseinheit 5 detektiert werden, Farbinformationen eines Abschnitts, in dem kein Objekt vorhanden ist, auf der Grundlage der Positionsinformationen erfasst werden und diese Farbinformationen als Farbinformationen einer Straßenoberflächenfarbe verwendet werden.
  • Wenn das Objekt 8 in dem überlappenden Abschnitt der Bildbereiche mehrerer Kameras 1 vorhanden ist, teilt die Bildaufteilungseinheit 26 den überlappenden Abschnitt in jedem Bild für ein Übersichtsbild in ein Straßenoberflächenbild und ein Objektbild auf. Wenn die Kombinationsverfahrensauswahleinheit 23 das erste Kombinationsverfahren auswählt, teilt die Bildaufteilungseinheit 26 den überlappenden Abschnitt in jedem Bild für ein Übersichtsbild in ein Straßenoberflächenbild und ein Objektbild auf der Grundlage der Farbinformationen der Straßenoberflächenfarbe, die von der Straßenoberflächenfarbdetektionseinheit 25 erkannt wurde. Das heißt, in der Bildaufteilungseinheit 26 werden zwei Paare eines Straßenoberflächenbildes und eines Objektbildes für einen überlappenden Abschnitt erhalten.
  • In einem Bildaufteilungsverfahren durch die Bildaufteilungseinheit 26 sucht die Bildaufteilungseinheit 26 beispielsweise nach Pixeln, die mit der Farbinformation der Straßenoberflächenfarbe übereinstimmen, aus dem überlappenden Abschnitt im Bild für ein Übersichtsbild, und unterscheidet zwischen einem Objektabschnitt und einem Straßenoberflächenabschnitt. Die Bildaufteilungseinheit 26 schneidet die Pixel des Objektteils als Objektbild aus und füllt diesen Teil mit den Pixeln, die mit den Farbinformationen der Straßenoberflächenfarbe übereinstimmen, wodurch ein Straßenoberflächenbild erzeugt wird.
  • In Ausführungsform 1 teilt die Bildaufteilungseinheit 26 den überlappenden Abschnitt im Bild in ein Straßenoberflächenbild und ein Objektbild auf der Grundlage der Farbinformationen der Straßenoberflächenfarbe auf, aber das Verfahren zum Aufteilen eines Bildes ist nicht darauf beschränkt. Als weiteres Verfahren kann beispielsweise ein Verfahren verwendet werden, bei dem die Koordinaten des Objektteils in dem überlappenden Abschnitt auf der Grundlage der von der Objektinformationsdetektionseinheit 5 detektierten Positionsinformationen des Objekts 8 berechnet werden und der überlappende Abschnitt in ein Straßenoberflächenbild und ein Objektbild unterteilt wird.
  • Die Bildkombinationseinheit 27 kombiniert das gesamte Bild oder einen Teil des Bildes für ein Übersichtsbild, das von der Bildumwandlungseinheit 24 erhalten wurde, und das Straßenoberflächenbild und das Objektbild, die jeweils von der Bildaufteilungseinheit 26 erhalten wurden, um ein Übersichtsbild zu erzeugen. Die Bildkombinationseinheit 27 erzeugt ein Übersichtsbild entweder durch das erste Kombinationsverfahren oder durch das zweite Kombinationsverfahren.
  • Beim ersten Kombinationsverfahren werden die Bilder für ein Übersichtsbild, die von der Bildumwandlungseinheit 24 erhalten wurden, und das Straßenoberflächenbild und das Objektbild, die jeweils von der Bildaufteilungseinheit 26 erhalten wurden, kombiniert, um ein Übersichtsbild zu erzeugen. Wenn das erste Kombinationsverfahren ausgewählt wird, werden, da das Objekt 8 im überlappenden Abschnitt der Bildbereiche vorhanden ist, zwei Paare eines Straßenoberflächenbildes und eines Objektbildes, die durch die Bildaufteilungseinheit 26 erhalten werden, für den überlappenden Abschnitt kombiniert, und die Bilder für ein Übersichtsbild, die durch die Bildumwandlungseinheit 24 erhalten werden, werden für den anderen Teil kombiniert. Darüber hinaus werden im zweiten Verfahren nur die Bilder für ein Übersichtsbild, die von der Bildumwandlungseinheit 24 erhalten wurden, kombiniert, um ein Übersichtsbild zu erzeugen.
  • Die ECU 2 ist eine elektronische Schaltung einschließlich eines Mikrocomputers und dergleichen und besteht aus einem Prozessor 100 und einer Speichervorrichtung 101, wie in 3 gezeigt. Die Speichervorrichtung 101 umfasst eine flüchtige Speichervorrichtung, wie z.B. einen Direktzugriffsspeicher, und eine nichtflüchtige Zusatzspeichervorrichtung, wie z.B. einen Flash-Speicher. Darüber hinaus kann die Speichervorrichtung 101 eine Hilfsspeichervorrichtung enthalten, die eine Festplatte anstelle des Flash-Speichers ist.
  • Der Prozessor 100 führt ein Programm aus, das von der Speichervorrichtung 101 eingegeben wurde. In diesem Fall wird das Programm von der Hilfsspeichereinrichtung über die flüchtige Speichereinrichtung in den Prozessor 100 eingegeben. Darüber hinaus kann der Prozessor 100 Daten, wie beispielsweise ein Berechnungsergebnis, an die flüchtige Speichervorrichtung der Speichervorrichtung 101 ausgeben oder die Daten in der Hilfsspeichervorrichtung über die flüchtige Speichervorrichtung speichern.
  • Darüber hinaus bestehen die Fahrzeugfahrinformationsdetektionseinheit 3 und die Objektinformationsdetektionseinheit 5 in ähnlicher Weise aus einem Prozessor und einer Speichervorrichtung, die in dem Fahrzeugumgebungsanzeigesystem (nicht dargestellt) installiert sind. Ein Programm, das die Funktionen der Fahrzeugfahrinformationsdetektionseinheit 3 und der Objektinformationsdetektionseinheit 5 beschreibt, wird von dem Prozessor ausgeführt.
  • Als nächstes wird das Kombinationsverfahren für ein Übersichtsbild durch die ECU 2 unter Bezugnahme auf 4 und 5 im Detail beschrieben. In 4 befindet sich das Objekt 8 im Überlappenden Abschnitt 10BR des Abbildungsbereichs 10B der Kamera 1 im Heck des Fahrzeugs und des Abbildungsbereichs 10R der Kamera 1 auf der rechten Seite des Fahrzeugs. Außerdem befindet sich das Objekt 8 innerhalb des Bildschirmrandes 6A der Anzeigeeinheit 6, so dass die Objektabstandsbestimmungseinheit 22 feststellt, dass der Abstand zwischen dem Objekt 8 und dem Fahrzeug 7 innerhalb des Schwellenwertes liegt. Daher wählt die Kombinationsverfahrenauswahleinheit 23 das erste Kombinationsverfahren aus.
  • Wenn das erste Kombinationsverfahren ausgewählt ist, schneidet die Bildumwandlungseinheit 24 das Bild eines Abschnitts 11, in dem das Objekt 8 erkannt wird, aus dem von jeder Kamera 1 aufgenommenen Bild aus und wandelt das ausgeschnittene Bild in ein Bild für ein Übersichtsbild um. Alternativ kann die Bildumwandlungseinheit 24 das von jeder Kamera 1 aufgenommene Bild in ein Bild für ein Übersichtsbild umwandeln und dann das Bild des Abschnitts 11, in dem das Objekt 8 erkannt wird, ausschneiden. Als Ergebnis erhält man, wie in 5 dargestellt, ein Übersichtsbild 11a des Abschnitts 11, der von der Kamera 1 im hinteren Teil des Fahrzeugs aufgenommen wurde, und ein Übersichtsbild 11b des Abschnitts 11, der von der Kamera 1 auf der rechten Seite des Fahrzeugs aufgenommen wurde. Diese Übersichtsbilder 11a und 11b enthalten jeweils das Objekt 8 und eine Straßenoberfläche 12.
  • Anschließend detektiert die Straßenoberflächenfarbdetektionseinheit 25 die Farbinformationen der Straßenoberflächenfarbe in jedem der Übersichtsbilder 11a und 11b. Die Bildaufteilungseinheit 26 extrahiert das Objekt 8 aus jedem der Übersichtsbilder 11a und 11b auf der Grundlage der von der Straßenoberflächenfarbdetektionseinheit 25 detektierten Straßenoberflächenfarbe und teilt jedes der Übersichtsbilder 11a und 11b in ein Straßenoberflächenbild, das die Straßenoberfläche 12 enthält, und ein Objektbild, das das Objekt 8 enthält. Die Bildkombinationseinheit 27 führt eine Bildkombination durch Alpha-Blending unter Verwendung dieser beiden Paare aus dem Straßenoberflächenbild und dem Objektbild durch.
  • Im ersten Kombinationsverfahren, wie in 5 gezeigt, wird die Kombination durchgeführt, wobei jedes der Übersichtsbilder 11a und 11b in vier Bereiche unterteilt wird. Der erste Bereich ist ein Bereich, der das Straßenoberflächenbild in beiden Übersichtsbildern 11a und 11b darstellt. Für den ersten Bereich wird jeder α-Wert auf 0,5 gesetzt. Der zweite Bereich ist ein Bereich, der das Objektbild im Übersichtsbild 11a und das Straßenoberflächenbild im Übersichtsbild 11b darstellt. Für den zweiten Bereich wird ein α-Wert für das Objektbild auf 1 und ein α-Wert für das Straßenoberflächenbild auf 0 gesetzt.
  • Der dritte Bereich ist ein Bereich, der das Straßenoberflächenbild im Übersichtsbild 11a und das Objektbild im Übersichtsbild 11b ist. Für den dritten Bereich wird ein α-Wert für das Objektbild auf 1 und ein α-Wert für das Straßenoberflächenbild auf 0 gesetzt. Der vierte Bereich ist ein Bereich, der das Objektbild in den beiden Übersichtsbildern 11a und 11b ist. Für den vierten Bereich wird jeder α-Wert auf 0,5 gesetzt. Für den ersten Bereich und den vierten Bereich ist die Einstellung des α-Wertes nicht darauf beschränkt.
  • Wie oben beschrieben, wird bei dem ersten Kombinationsverfahren, wenn das Straßenoberflächenbild und das Objektbild des überlappenden Abschnitts kombiniert werden, für den Bereich, der das Objektbild in einem der beiden Paare und das Straßenoberflächenbild in dem anderen der beiden Paare ist, der α-Wert für das Objektbild auf 1 gesetzt, und der α-Wert für das Straßenoberflächenbild wird auf 0 gesetzt. Die Straßenoberflächenbilder und die Objektbilder der vier Bereiche, für die jeweils der α-Wert bereitgestellt wird, werden kombiniert, um ein in 5 gezeigtes Übersichtsbild 11c zu erzeugen. Die folgende Gleichung (1) ist eine allgemeine Gleichung für das Alpha-Blending unter Verwendung eines α-Werts. In Gleichung (1) ist Cg die Farbinformation eines Straßenoberflächenbildes, Co ist die Farbinformation eines Objektbildes, A ist ein α-Wert, und Cr ist die Farbinformation nach der Kombination. Cr = Cg × ( 1 A ) + Co × A
    Figure DE112019007225B4_0001
  • Beim allgemeinen Alpha-Blending wird der α-Wert A in Gleichung (1) auf einen Wert zwischen 0 und 1 gesetzt, und die Farben der beiden Bilder werden gemischt, wobei die Farbe
    jedes Bildes transparent gemacht wird. Wenn der α-Wert beispielsweise auf 0,5 gesetzt wird, wird ein Bild erzeugt,
    bei dem die Farben beider Bilder in gleichem Maße gemischt werden. Andererseits wird in der ECU 2 gemäß Ausführungsform 1 der α-Wert für das Objektbild auf 1 für den zweiten Bereich und den dritten Bereich in 5 gesetzt, und die Kombination wird durchgeführt, ohne die Farben der Objektbilder transparent zu machen.
  • 6 zeigt ein Beispiel eines Übersichtsbildes, das auf der Anzeigeeinheit des Fahrzeugumgebungsanzeigesystems gemäß Ausführungsform 1 angezeigt wird. Ein Übersichtsbild 13a wird erhalten, indem die Bilder des überlappenden Abschnitts in zwei Paare eines Straßenoberflächenbildes und eines Objektbildes unterteilt werden und eine Kombination durchgeführt wird, wobei der α-Wert für das Objektbild auf 1 und der α-Wert für das Straßenoberflächenbild auf 0 für den Bereich gesetzt wird, der das Objektbild in einem der beiden Paare und das Straßenoberflächenbild in dem anderen der beiden Paare ist. Im Übersichtsbild 13a, das auf der Anzeigeeinheit 6 angezeigt wird, sind die stabförmigen Objekte 9 vor dem Fahrzeug 7 deutlich und ohne Unschärfe zu erkennen.
  • 7 zeigt ein Beispiel eines Übersichtsbildes, das auf einer Anzeigeeinheit eines Fahrzeugumgebungsanzeigesystems gemäß einem Vergleichsbeispiel angezeigt wird. In dem Vergleichsbeispiel werden Bilder für ein Übersichtsbild von zwei Kameras 1 kombiniert, wobei jeder α-Wert auf 0,5 gesetzt wird, ohne jedes Bild eines überlappenden Abschnitts in ein Straßenoberflächenbild und ein Objektbild zu unterteilen. Auf diese Weise werden die Farben der Objektteile von zwei Bildern für ein Übersichtsbild jeweils um 50 % transparent gemacht, und die stangenförmigen Objekte 9, die in einem Übersichtsbild 13b zu sehen sind, werden verschwommen.
  • Als nächstes wird der Ablauf der Verarbeitung durch das Fahrzeugumgebungsanzeigesystem gemäß Ausführungsform 1 unter Bezugnahme auf ein Flussdiagramm von 8 beschrieben. Zunächst werden in Schritt S1 Bildinformationen aus einer Vielzahl von aufgenommenen Bildern der Fahrzeugumgebung, Objektinformationen einschließlich Positionsinformationen eines Objekts in der Fahrzeugumgebung und Fahrzeugfahrinformationen einschließlich der Fahrtrichtung und der Geschwindigkeit des Fahrzeugs erfasst (Informationserfassungsschritt). Anschließend werden in Schritt S2 die in Schritt S1 erfassten Informationen framesynchronisiert (Framesynchronisationsschritt).
  • In Schritt S3 wird ein Kombinationsverfahren für ein Übersichtsbild auf der Grundlage der in Schritt S1 erhaltenen und in Schritt S2 framesynchronisierten Informationen ausgewählt (Kombinationsverfahrensauswahlschritt). Zunächst wird in Schritt S3-1 bestimmt, ob ein Objekt in dem überlappenden Abschnitt der Bildbereiche in der Vielzahl der aufgenommenen Bilder der Fahrzeugumgebung vorhanden ist. Wenn ein Objekt in dem überlappenden Abschnitt vorhanden ist (JA), wird in Schritt S3-2 der Abstand zwischen dem Fahrzeug und dem Objekt erfasst. Als nächstes wird in Schritt S3-3 bestimmt, ob der Abstand zwischen dem Objekt und dem Fahrzeug innerhalb der Schwelle liegt. Wenn der Abstand zwischen dem Objekt und dem Fahrzeug innerhalb des Schwellenwertes liegt (JA), wird in Schritt S3-5 das erste Kombinationsverfahren ausgewählt.
  • Andererseits, wenn kein Objekt in dem überlappenden Abschnitt in Schritt S3-1 (NEIN) existiert, oder wenn der Abstand zwischen dem Objekt und dem Fahrzeug größer als der Schwellenwert in Schritt S3-3 (NEIN) ist, wird das zweite Kombinationsverfahren in Schritt S3-6 ausgewählt.
  • Wenn das erste Kombinationsverfahren in Schritt S3-5 ausgewählt wird, wird jedes der mehreren aufgenommenen Bilder in Schritt S4 in ein Bild für ein Übersichtsbild umgewandelt (Bildumwandlungsschritt). Als nächstes wird in Schritt S5 die Straßenoberflächenfarbe des überlappenden Abschnitts in jedem Bild für ein Übersichtsbild erkannt (Straßenoberflächenfarbdetektionschritt). Darüber hinaus wird in Schritt S6 der überlappende Abschnitt in jedem Bild für ein Übersichtsbild in ein Straßenoberflächenbild und ein Objektbild auf der Grundlage der Straßenoberflächenfarbe, die in dem Straßenoberflächenfarbdetektionschritt (S5) erkannt wurde, unterteilt (Bildunterteilungsschritt).
  • Anschließend werden in Schritt S7 unter Verwendung der in dem Bildteilungsschritt (S6) erhaltenen Bilder des überlappenden Abschnitts, d.h. zweier Paare des Objektbildes und des Straßenoberflächenbildes, die Bilder mit einem α-Wert für das Objektbild, der auf 1 gesetzt wird, und einem α-Wert für das Straßenoberflächenbild, der auf 0 gesetzt wird, für einen Bereich, der das Objektbild in einem der beiden Paare und das Straßenoberflächenbild in dem anderen der beiden Paare ist, kombiniert, um ein Übersichtsbild des überlappenden Abschnitts zu erzeugen. Als nächstes werden im Schritt S8 die im Bildumwandlungsschritt (S4) erhaltenen Bilder für ein Übersichtsbild des anderen Abschnitts kombiniert, um ein Übersichtsbild zu erzeugen, das das Fahrzeug und den Fahrzeugumgebungsbereich enthält (Bildkombinationsschritt).
  • Andererseits wird, wenn das zweite Kombinationsverfahren in Schritt S3-6 ausgewählt wird, jedes der mehreren aufgenommenen Bilder in ein Bild für ein Übersichtsbild in Schritt S9 (Bildumwandlungsschritt) umgewandelt. Anschließend werden in Schritt S10 die in dem Bildumwandlungsschritt (S9) erhaltenen Bilder für ein Übersichtsbild kombiniert, um ein Übersichtsbild zu erzeugen, das das Fahrzeug und die Umgebung des Fahrzeugs enthält (Bildkombinationsschritt). Schließlich wird in Schritt S11 das in dem Bildkombinationsschritt (S7, S8, S10) erzeugte Übersichtsbild angezeigt (Anzeigeschritt).
  • Wie oben beschrieben, wird in der ECU 2 gemäß Ausführungsform 1, wenn das Objekt 8 in dem überlappenden Abschnitt der Bildbereiche mehrerer Kameras 1 vorhanden ist, der überlappende Abschnitt in ein Straßenoberflächenbild und ein Objektbild unterteilt, und die Kombination wird durch Alpha-Blending durchgeführt, wobei ein α-Wert für das Objektbild auf 1 und ein α-Wert für das Straßenoberflächenbild auf 0 gesetzt wird, um ein Übersichtsbild zu erzeugen. Auf diese Weise ist es möglich, ein klares Übersichtsbild zu erzeugen, ohne das Objekt 8 im überlappenden Abschnitt zu verwischen. Darüber hinaus ist es mit dem Fahrzeugumgebungsanzeigesystem, das die ECU 2 gemäß Ausführungsform 1 enthält, möglich, ein klares Übersichtsbild anzuzeigen, ohne das Objekt 8, das in dem überlappenden Abschnitt vorhanden ist, zu verwischen.
  • Darüber hinaus wird in dem Fahrzeugumgebungsanzeigeverfahren gemäß Ausführungsform 1, wenn das Objekt 8 in dem überlappenden Abschnitt einer Vielzahl von Bildern vorhanden ist und der Abstand zwischen dem Objekt 8 und dem Fahrzeug 7 innerhalb des Schwellenwerts liegt, die Straßenoberflächenfarbe des überlappenden Abschnitts jedes Bildes für ein Übersichtsbild erfasst, der überlappende Abschnitt wird auf der Grundlage der Straßenoberflächenfarbe in ein Straßenoberflächenbild und ein Objektbild unterteilt, und das Bild für ein Übersichtsbild, das Straßenoberflächenbild und das Objektbild werden kombiniert, um ein Übersichtsbild zu erzeugen. Auf diese Weise ist es möglich, ein klares Übersichtsbild anzuzeigen, ohne das im Überlappenden Abschnitt vorhandene Objekt 8 zu verwischen.
  • Ausführungsform 2
  • Die Konfigurationen einer Fahrzeugumgebungsbilderzeugungsvorrichtung und eines Fahrzeugumgebungsanzeigesystems gemäß Ausführungsform 2 sind die gleichen wie in der oben beschriebenen Ausführungsform 1. Daher werden 1 und 2 wieder verwendet, und nur die Unterschiede werden hier beschrieben. 9 und 10 sind Diagramme, die ein Verfahren zur Auswahl eines Bildkombinationsverfahrens durch die Fahrzeugumgebungsbilderzeugungsvorrichtung gemäß Ausführungsform 2 zeigen. In 9 und 10 zeigt ein Pfeil A die Fahrtrichtung des Fahrzeugs 7 an.
  • In 9 befindet sich ein Objekt 8 in einem Abschnitt 11 eines überlappenden Abschnitts 10FR eines Abbildungsbereichs 10F der Kamera 1 an der Vorderseite des Fahrzeugs und des Abbildungsbereichs 10R der Kamera 1 an der rechten Seite des Fahrzeugs. Außerdem ist in 10 ein Objekt 8 in dem Abschnitt 11 des überlappenden Abschnitts 10BR des Abbildungsbereichs 10B der Kamera 1 im hinteren Teil des Fahrzeugs und des Abbildungsbereichs 10R der Kamera 1 auf der rechten Seite des Fahrzeugs vorhanden.
  • In jedem dieser Fälle befindet sich das Objekt 8 innerhalb des Bildschirmrands 6A der Anzeigeeinheit 6, und der Abstand zwischen dem Objekt 8 und dem Fahrzeug liegt innerhalb des Schwellenwerts, aber die Beziehung zwischen der Position des Objekts 8 und der Fahrtrichtung des Fahrzeugs 7 sind in diesen Fällen unterschiedlich. Das heißt, in 9 befindet sich das Objekt 8 auf der Seite der Fahrtrichtung des Fahrzeugs 7, so dass das Fahrzeug 7 mit hoher Wahrscheinlichkeit mit dem Objekt 8 in Berührung kommen wird. Andererseits befindet sich das Objekt 8 in 10 auf der der Fahrtrichtung des Fahrzeugs 7 entgegengesetzten Seite, so dass es unwahrscheinlich ist, dass das Fahrzeug 7 mit dem Objekt 8 in Berührung kommt.
  • Wenn das Objekt 8 in dem überlappenden Abschnitt vorhanden ist, der Abstand zwischen dem Objekt 8 und dem Fahrzeug 7 innerhalb des Schwellenwerts liegt und das Objekt 8 in der Fahrtrichtung des Fahrzeugs 7 vorhanden ist, wählt die Kombinationsverfahrensauswahleinheit 23 gemäß Ausführungsform 2 das erste Kombinationsverfahren aus, bei dem ein Bild für ein Übersichtsbild, ein Straßenoberflächenbild und ein Objektbild verwendet werden. Andererseits, wenn kein Objekt 8 in dem überlappenden Abschnitt vorhanden ist, wenn der Abstand zwischen dem Objekt 8 und dem Fahrzeug 7 größer als der Schwellenwert ist, oder wenn kein Objekt 8 in der Fahrtrichtung des Fahrzeugs 7 vorhanden ist, wählt die Kombinationsverfahrensauswahleinheit 23 das zweite Kombinationsverfahren aus, bei dem ein Bild für ein Übersichtsbild verwendet wird.
  • In der oben beschriebenen Ausführungsform 1 wird selbst dann, wenn das Objekt 8 auf der der Fahrtrichtung des Fahrzeugs 7 entgegengesetzten Seite vorhanden ist, wie in 10, das erste Kombinationsverfahren ausgewählt, so dass die Rechenlast der ECU 2 erhöht wird. In Ausführungsform 2 wird, wenn sich das Objekt 8 auf der der Fahrtrichtung des Fahrzeugs 7 entgegengesetzten Seite befindet, das zweite Kombinationsverfahren ausgewählt, so dass das Objekt 8 in einem erzeugten Übersichtsbild verschwommen ist. Das Objekt 8, das sich auf der der Fahrtrichtung entgegengesetzten Seite befindet, wird jedoch mit geringerer Wahrscheinlichkeit mit dem Fahrzeug 7 in Kontakt kommen und muss daher nicht so deutlich sein.
  • 11 ist ein Flussdiagramm, das den Ablauf der Verarbeitung durch das Fahrzeugumgebungsanzeigesystem gemäß Ausführungsform 2 zeigt. Der Unterschied zwischen 11 und dem Flussdiagramm von 8, das oben in Ausführungsform 1 beschrieben wurde, besteht nur darin, dass der Schritt S3-4 zum Kombinationsverfahrenauswahlschritt (S3) hinzugefügt wurde. Das heißt, die Schritte S1, S2 und S4 bis S11 sind die gleichen wie im Flussdiagramm von 8, und daher entfällt deren Beschreibung.
  • In dem Kombinationsverfahrenauswahlschritt (S3) gemäß Ausführungsform 2 wird, wenn ein Objekt in dem überlappenden Abschnitt der Abbildungsbereiche in Schritt S3-1 (JA) existiert, der Abstand zwischen dem Fahrzeug und dem Objekt in Schritt S3-2 erfasst. Wenn der Abstand zwischen dem Objekt und dem Fahrzeug in Schritt S3-3 (JA) innerhalb des Schwellenwerts liegt, wird in Schritt S3-4 bestimmt, ob das Objekt in der Fahrtrichtung des Fahrzeugs vorhanden ist. Wenn das Objekt in Fahrtrichtung des Fahrzeugs vorhanden ist (JA), wird in Schritt S3-5 das erste Kombinationsverfahren ausgewählt.
  • Andererseits, wenn kein Objekt in dem überlappenden Abschnitt in Schritt S3-1 (NEIN) vorhanden ist, wenn der Abstand zwischen dem Objekt und dem Fahrzeug größer als der Schwellenwert in Schritt S3-3 (NEIN) ist, oder wenn das Objekt nicht in der Fahrtrichtung des Fahrzeugs in Schritt S3-4 (NEIN) vorhanden ist, wird das zweite Kombinationsverfahren in Schritt S3-6 ausgewählt.
  • In Ausführungsform 2 wird zusätzlich zu den gleichen Effekten wie in Ausführungsform 1, die oben beschrieben wurden, die Berechnungslast der ECU 2 reduziert, da das erste Kombinationsverfahren nur ausgewählt wird, wenn festgestellt wird, dass das Objekt 8 in Fahrtrichtung des Fahrzeugs 7 existiert.
  • Obwohl die vorliegende Offenbarung oben in Form von verschiedenen beispielhaften Ausführungsformen beschrieben wird, sollte verstanden werden, dass die verschiedenen Merkmale, Aspekte und Funktionen, die in einer oder mehreren der einzelnen Ausführungsformen beschrieben werden, in ihrer Anwendbarkeit auf die spezielle Ausführungsform, mit der sie beschrieben werden, nicht beschränkt sind, sondern stattdessen allein oder in verschiedenen Kombinationen auf eine oder mehrere der Ausführungsformen der Offenbarung angewendet werden können. Es versteht sich daher, dass zahlreiche Modifikationen, die nicht beispielhaft dargestellt wurden, entwickelt werden können, ohne den Anwendungsbereich der vorliegenden Offenbarung zu verletzen. Zum Beispiel kann mindestens einer der Bestandteile modifiziert, hinzugefügt oder eliminiert werden. Mindestens einer der in mindestens einer der bevorzugten Ausführungsformen genannten Bestandteile kann ausgewählt und mit den in einer anderen bevorzugten Ausführungsform genannten Bestandteilen kombiniert werden.
  • BESCHREIBUNG DER REFERENZZEICHEN
  • 1
    Kamera
    2
    ECU
    3
    Fahrzeugfahrinformationsdetektionseinheit
    4
    Sensor
    5
    Objektinformationsdetektionseinheit
    6
    Anzeigeeinheit
    6A
    Bildschirmrand
    7
    Fahrzeug
    8, 9
    Objekt
    10B, 10F, 10R
    Abbildungsbereich
    10BR, 10FR
    Überlappender Bereich
    11
    Ausschnitt
    11a, 11b, 11c, 13a, 13b
    Übersichtsbild
    12
    Straßenoberfläche
    21
    Framesynchronisationseinheit
    22
    Objektabstandsbestimmungseinheit
    23
    Kombinationsverfahrenauswahleinheit
    24
    Bildumwandlungseinheit
    25
    Straßenoberflächenfarbdetektionseinheit
    26
    Bildaufteilungsdeinheit
    27
    Bildkombinationseinheit

Claims (15)

  1. Eine Fahrzeugumgebungsbilderzeugungsvorrichtung (2) zum Erzeugen eines Übersichtsbildes (13a), das ein Fahrzeug (7) und einen Fahrzeugumgebungsbereich einschließt, auf der Grundlage einer Vielzahl von Bildern, die von einer Vielzahl von Abbildungsvorrichtungen (1), die an dem Fahrzeug (7) angebracht sind, aufgenommen wurden, wobei die Fahrzeugumgebungsbilderzeugungsvorrichtung (2) umfasst: eine Objektabstandsbestimmungseinheit (22) zum Bestimmen, ob ein Abstand zwischen einem Objekt (8, 9) und dem Fahrzeug (7) innerhalb eines Schwellenwerts liegt, auf der Grundlage von Objektinformationen, die von einem Sensor (4) zum Detektieren des Objekts (8, 9) in dem Fahrzeugumgebungsbereich erfasst werden; eine Bildumwandlungseinheit (24) zum Umwandeln jedes der Vielzahl von Bildern in ein Bild für ein Übersichtsbild; eine Bildaufteilungseinheit (26) zum Aufteilen des überlappenden Abschnitts (10BR, 10FR) in dem Bild für ein Übersichtsbild in ein Straßenoberflächenbild und ein Objektbild, wenn das Objekt (8, 9) in einem überlappenden Abschnitt (10BR, 10FR) von Abbildungsbereichen (10B, 10F, 10R) der Vielzahl von Abbildungsvorrichtungen (1) vorhanden ist; eine Bildkombinationseinheit (27) zum Kombinieren des gesamten oder eines Teils des Bildes für ein Übersichtsbild, das durch die Bildumwandlungseinheit (24) erhalten wurde, und des Straßenoberflächenbildes bzw. des Objektbildes, die durch die Bildaufteilungseinheit (26) erhalten wurden, um das Übersichtsbild (13a) zu erzeugen; und eine Framesynchronisationseinheit (21) zum Synchronisieren von Bildinformationen, die von den Abbildungsvorrichtungen (1) erfasst wurden, von Objektinformationen, die von dem Sensor (4) erfasst wurden, und von Fahrzeugbewegungsinformationen, die eine Fahrtrichtung und eine Geschwindigkeit des Fahrzeugs (7) umfassen.
  2. Die Fahrzeugumgebungsbilderzeugungsvorrichtung (2) nach Anspruch 1, ferner umfassend eine Kombinationsverfahrensauswahleinheit (23) zum Auswählen eines Kombinationsverfahrens für das Übersichtsbild (13a) in der Bildkombinationseinheit (27) auf der Grundlage der Bildinformationen, der Objektinformationen und der Fahrzeugbewegungsinformationen, die durch die Framesynchronisationseinheit (21) synchronisiert werden.
  3. Die Fahrzeugumgebungsbilderzeugungsvorrichtung (2) nach Anspruch 2, wobei wenn das Objekt (8, 9) in dem überlappenden Abschnitt (10BR, 10FR) existiert und der Abstand zwischen dem Objekt (8, 9) und dem Fahrzeug (7) innerhalb des Schwellenwerts liegt, die Kombinationsverfahrensauswahleinheit (23) ein erstes Kombinationsverfahren auswählt, bei dem das Bild für ein Übersichtsbild, das Straßenoberflächenbild und das Objektbild verwendet werden, und wenn das Objekt (8, 9) nicht in dem überlappenden Abschnitt (10BR, 10FR) vorhanden ist oder wenn der Abstand zwischen dem Objekt (8, 9) und dem Fahrzeug (7) größer als der Schwellenwert ist, wählt die Kombinationsverfahrensauswahleinheit (23) ein zweites Kombinationsverfahren aus, bei dem das Bild für ein Übersichtsbild verwendet wird.
  4. Die Fahrzeugumgebungsbilderzeugungsvorrichtung (2) nach Anspruch 3, wobei wenn das Objekt (8, 9) in der Fahrtrichtung des Fahrzeugs (7) vorhanden ist, wählt die Kombinationsverfahrensauswahleinheit (23) das erste Kombinationsverfahren aus, und wenn das Objekt (8, 9) nicht in der Fahrtrichtung des Fahrzeugs vorhanden ist, wählt die Kombinationsverfahrensauswahleinheit (23) das zweite Kombinationsverfahren aus.
  5. Die Fahrzeugumgebungsbilderzeugungsvorrichtung (2) nach einem der Ansprüche 1 bis 4, ferner umfassend eine Straßenoberflächenfarbendetektionseinheit (25) zum Detektieren einer Straßenoberflächenfarbe des überlappenden Abschnitts (10BR, 10FR), wobei die Bildaufteilungseinheit (26) den überlappenden Abschnitt (10BR, 10FR) in das Straßenoberflächenbild und das Objektbild auf der Grundlage der von der Straßenoberflächenfarbdetektionseinheit (25) detektierten Straßenoberflächenfarbe aufteilt.
  6. Die Fahrzeugumgebungsbilderzeugungsvorrichtung (2) nach einem der Ansprüche 1 bis 5, wobei die Bildkombinationseinheit (27) eine Bildkombination durch Alpha-Blending durchführt, und wenn das Objekt (8, 9) in dem überlappenden Abschnitt (10BR, 10FR) existiert, die Bildkombinationseinheit (27) zwei Paare des Straßenoberflächenbildes und des Objektbildes verwendet, die durch die Bildaufteilungseinheit (26) erhalten wurden, und einen α-Wert für das Objektbild auf 1 setzt und einen α-Wert für das Straßenoberflächenbild auf 0 setzt für einen Bereich, der das Objektbild in einem der zwei Paare und das Straßenoberflächenbild in dem anderen der zwei Paare ist.
  7. Die Fahrzeugumgebungsbilderzeugungsvorrichtung (2) nach einem der Ansprüche 1 bis 6, wobei der in der Objektabstandsbestimmungseinheit (22) verwendete Schwellenwert auf der Grundlage eines Abstands von einem Endabschnitt des Fahrzeugs (7) in dem Übersichtsbild (13a) zu einem Bildschirmrand (6A) einer Anzeigeeinheit (6), auf der das Übersichtsbild (13a) angezeigt wird, eingestellt wird.
  8. Ein Fahrzeugumgebungsanzeigesystem, das umfasst: eine Vielzahl von Abbildungsvorrichtungen (1), die an einem Fahrzeug (7) angebracht sind, um ein Bild einer Fahrzeugumgebung aufzunehmen; einen Sensor (4) zum Detektieren eines Objekts (8, 9) in der Fahrzeugumgebung; eine Fahrzeugumgebungsbilderzeugungsvorrichtung (2) nach einem der Ansprüche 1 bis 7; und eine Anzeigeeinheit (6) zum Anzeigen des Übersichtsbildes (13a), das von der Fahrzeugumgebungsbilderzeugungsvorrichtung (2) erzeugt wird.
  9. Das Fahrzeugumgebungsanzeigesystem nach Anspruch 8, ferner umfassend eine Fahrzeugfahrinformationsdetektionseinheit (3) zum Detektieren von Fahrzeugfahrinformationen, einschließlich einer Fahrtrichtung und einer Geschwindigkeit des Fahrzeugs (7), von dem Fahrzeug (7).
  10. Das Fahrzeugumgebungsanzeigesystem nach Anspruch 8 oder 9, wobei der Sensor (4) ein Millimeterwellen-Radar, ein Sonar oder eine Kamera ist und ein Erfassungsbereich durch den Sensor (4) den überlappenden Abschnitt (10BR, 10FR) umfasst.
  11. Ein Fahrzeugumgebungsanzeigeverfahren zum Erzeugen und Anzeigen eines Übersichtsbildes (13a), das ein Fahrzeug (7) und eine Fahrzeugumgebung enthält, wobei das Fahrzeugumgebungsanzeigeverfahren umfasst einen Informationserfassungsschritt des Erfassens von Bildinformationen einer Vielzahl von aufgenommenen Bildern des Fahrzeugumgebungsbereichs, von Objektinformationen, die Positionsinformationen eines Objekts (8, 9) in dem Fahrzeugumgebungsbereich enthalten, und von Fahrzeugbewegungsinformationen, die eine Fahrtrichtung und eine Geschwindigkeit des Fahrzeugs (7) enthalten; einen Bildumwandlungsschritt des Umwandelns jedes der Vielzahl von Bildern, die in dem Informationserfassungsschritt erfasst wurden, in ein Bild für ein Übersichtsbild; einen Straßenoberflächenfarbdetektionsschritt zum Detektieren einer Straßenoberflächenfarbe des überlappenden Abschnitts (10BR, 10FR), wenn das Objekt (8, 9) in einem überlappenden Abschnitt (10BR, 10FR) der Vielzahl von Bildern existiert und ein Abstand zwischen dem Objekt (8, 9) und dem Fahrzeug (7) innerhalb eines Schwellenwerts liegt; einen Bildaufteilungsschritt des Aufteilens des überlappenden Abschnitts (10BR, 10FR) in dem Bild für ein Übersichtsbild in ein Straßenoberflächenbild und ein Objektbild auf der Grundlage der Straßenoberflächenfarbe, die in dem Straßenoberflächenfarbdetektionsschritt detektiert wurde; einen Bildkombinationsschritt zum Kombinieren des gesamten oder eines Teils des Bildes für ein Übersichtsbild, das in dem Bildumwandlungsschritt erhalten wurde, und des Straßenoberflächenbildes bzw. des Objektbildes, die in dem Bildaufteilungsschritt erhalten wurden, um das Übersichtsbild (13a) zu erzeugen; und einen Anzeigeschritt des Anzeigens des im Bildkombinationsschritt erzeugten Übersichtsbildes (13a).
  12. Das Fahrzeugumgebungsanzeigeverfahren nach Anspruch 11, ferner umfassend einen Kombinationsverfahrensauswahlschritt zum Auswählen eines Kombinationsverfahrens für das Übersichtsbild (13a) in dem Bildkombinationsschritt auf der Grundlage der in dem Informationserfassungsschritt gewonnenen Informationen.
  13. Das Fahrzeugumgebungsanzeigeverfahren nach Anspruch 12, wobei in dem Kombinationsverfahrensauswahlschritt ein erstes Kombinationsverfahren, in dem das Bild für ein Übersichtsbild, das Straßenoberflächenbild und das Objektbild verwendet werden, ausgewählt wird, wenn das Objekt (8, 9) in dem überlappenden Abschnitt (10BR, 10FR) existiert, der Abstand zwischen dem Objekt (8, 9) und dem Fahrzeug (7) innerhalb des Schwellenwerts liegt und das Objekt (8, 9) in der Fahrtrichtung des Fahrzeugs (7) existiert.
  14. Das Fahrzeugumgebungsanzeigeverfahren nach Anspruch 12 oder 13, wobei in dem Kombinationsverfahrensauswahlschritt ein zweites Kombinationsverfahren ausgewählt wird, bei dem das Bild für ein Übersichtsbild verwendet wird, wenn das Objekt (8, 9) nicht in dem überlappenden Abschnitt (10BR, 10FR) vorhanden ist, wenn der Abstand zwischen dem Objekt (8, 9) und dem Fahrzeug (7) größer als der Schwellenwert ist oder wenn das Objekt (8, 9) nicht in der Fahrtrichtung des Fahrzeugs (7) vorhanden ist.
  15. Das Fahrzeugumgebungsanzeigeverfahren nach einem der Ansprüche 11 bis 14, wobei in dem Bildkombinationsschritt, die Bildkombination durch Alpha-Blending durchgeführt wird, und wenn das Objekt (8, 9) in dem überlappenden Abschnitt existiert, zwei Paare des Straßenoberflächenbildes (10BR, 10FR) und des Objektbildes, die in dem Bildaufteilungsschritt erhalten wurden, verwendet werden, und ein α-Wert für das Objektbild auf 1 gesetzt wird und ein α-Wert für das Straßenoberflächenbild auf 0 gesetzt wird für einen Bereich, der das Objektbild in einem der zwei Paare und das Straßenoberflächenbild in dem anderen der zwei Paare ist.
DE112019007225.0T 2019-04-18 2019-04-18 Fahrzeugumgebungsbilderzeugungsvorrichtung, Fahrzeugumgebungsanzeigesystem und Fahrzeugumgebungsanzeigeverfahren Active DE112019007225B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/016567 WO2020213111A1 (ja) 2019-04-18 2019-04-18 車両周辺画像生成装置、車両周辺表示システム、及び車両周辺表示方法

Publications (2)

Publication Number Publication Date
DE112019007225T5 DE112019007225T5 (de) 2022-01-05
DE112019007225B4 true DE112019007225B4 (de) 2023-12-07

Family

ID=72837140

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019007225.0T Active DE112019007225B4 (de) 2019-04-18 2019-04-18 Fahrzeugumgebungsbilderzeugungsvorrichtung, Fahrzeugumgebungsanzeigesystem und Fahrzeugumgebungsanzeigeverfahren

Country Status (5)

Country Link
US (1) US11926263B2 (de)
JP (1) JP7203205B2 (de)
CN (1) CN113678433B (de)
DE (1) DE112019007225B4 (de)
WO (1) WO2020213111A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI816515B (zh) * 2022-08-17 2023-09-21 國立臺北大學 雷達與影像同步方法及雷達與影像同步系統

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009036200A1 (de) 2009-08-05 2010-05-06 Daimler Ag Verfahren zur Überwachung einer Umgebung eines Fahrzeugs
DE102011088332A1 (de) 2011-12-13 2013-06-13 Robert Bosch Gmbh Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0590588B2 (de) 1992-09-30 2003-09-10 Hitachi, Ltd. Informationssystem für den Fahrer eines Fahrzeuges
JP3312183B2 (ja) * 1993-03-15 2002-08-05 株式会社日立製作所 車両の誘導情報装置
US6822563B2 (en) * 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
JP3819284B2 (ja) 2001-11-29 2006-09-06 クラリオン株式会社 車両周囲監視装置
US7526103B2 (en) * 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
JP4907883B2 (ja) * 2005-03-09 2012-04-04 株式会社東芝 車両周辺画像表示装置および車両周辺画像表示方法
JP5234894B2 (ja) * 2007-06-28 2013-07-10 富士重工業株式会社 ステレオ画像処理装置
JP4972036B2 (ja) * 2008-05-30 2012-07-11 三洋電機株式会社 画像処理装置
JP5483120B2 (ja) * 2011-07-26 2014-05-07 アイシン精機株式会社 車両周辺監視システム
JP5752631B2 (ja) * 2012-03-27 2015-07-22 住友重機械工業株式会社 画像生成方法、画像生成装置、及び操作支援システム
JP6084434B2 (ja) * 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
US8908041B2 (en) * 2013-01-15 2014-12-09 Mobileye Vision Technologies Ltd. Stereo assist with rolling shutters
JP6375633B2 (ja) * 2014-02-12 2018-08-22 株式会社デンソー 車両周辺画像表示装置、車両周辺画像表示方法
JP6267000B2 (ja) 2014-02-25 2018-01-24 ダイハツ工業株式会社 車両におけるシート装置
KR101664582B1 (ko) * 2014-11-12 2016-10-10 현대자동차주식회사 자율주행차량의 주행경로 생성장치 및 방법
JP6642280B2 (ja) * 2016-05-30 2020-02-05 アイシン精機株式会社 画像表示システム
EP4155128A1 (de) * 2016-12-09 2023-03-29 Kyocera Corporation Bildgebungsvorrichtung, bildverarbeitungsvorrichtung, anzeigesystem und fahrzeug
EP3537714B1 (de) 2017-02-28 2021-08-25 JVC Kenwood Corporation Vogelperspektivenvideobilderzeugungsvorrichtung, vogelperspektivenvideobilderzeugungssystem, vogelperspektivenvideobilderzeugungsverfahren und programm
JP6724821B2 (ja) * 2017-02-28 2020-07-15 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
US10685239B2 (en) * 2018-03-18 2020-06-16 Tusimple, Inc. System and method for lateral vehicle detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009036200A1 (de) 2009-08-05 2010-05-06 Daimler Ag Verfahren zur Überwachung einer Umgebung eines Fahrzeugs
DE102011088332A1 (de) 2011-12-13 2013-06-13 Robert Bosch Gmbh Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen

Also Published As

Publication number Publication date
CN113678433A (zh) 2021-11-19
JPWO2020213111A1 (ja) 2021-11-25
DE112019007225T5 (de) 2022-01-05
US11926263B2 (en) 2024-03-12
JP7203205B2 (ja) 2023-01-12
US20220118907A1 (en) 2022-04-21
WO2020213111A1 (ja) 2020-10-22
CN113678433B (zh) 2024-05-03

Similar Documents

Publication Publication Date Title
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE102008027723B4 (de) Bildverarbeitungsvorrichtung zum Verringern von Effekten von Nebel bezüglich Abbildungen, die von einer in ein Fahrzeug eingebauten Kamera erzielt werden, und Fahrerunterstützungsvorrichtung, welche sich ergebende verarbeitete Abbildungen verwendet
DE102011106052B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns
DE112009003144B4 (de) Verfahren und Vorrichtung zum Feststellen eines Hindernisses in einem Bild
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE102011106072A1 (de) Schattenentfernung in einem durch eine fahrzeugbasierte kamera erfassten bild unter verwendung einer optimierten ausgerichteten linearen achse
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
DE112013004103T5 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE102018121008B4 (de) System zum fahren eines autonomen fahrzeugs sowie damit ausgestattetes fahrzeugs
EP2028605A1 (de) Detektionsverfahren für symmetrische Muster
DE112013005231T5 (de) Bordeigener Bildgenerator
DE112020004301T5 (de) Objekterkennungsvorrichtung
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102018212049A1 (de) Verfahren zur dreidimensionalen bildlichen Rekonstruktion eines Fahrzeugs
WO2020048669A1 (de) Verfahren zum bestimmen einer spurwechselangabe eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug
DE10141055B4 (de) Verfahren zur Bestimmung von Bewegungsinformationen
DE112017004055T5 (de) Umgebungsuntersuchungsvorrichtung
DE102012024878A1 (de) Verfahren zum Detektieren eines Zielobjekts anhand eines Kamerabilds durch Clusterbildung aus mehreren benachbarten Bildzellen, Kameraeinrichtung und Kraftfahrzeug
DE102019105630B4 (de) Anzeigesteuervorrichtung, Fahrzeugumgebungsanzeigesystem und Computerprogramm
DE112019007225B4 (de) Fahrzeugumgebungsbilderzeugungsvorrichtung, Fahrzeugumgebungsanzeigesystem und Fahrzeugumgebungsanzeigeverfahren
EP3811336B1 (de) Verfahren zur bestimmung von zueinander korrespondierenden bildpunkten, soc zur durchführung des verfahrens, kamerasystem mit dem soc, steuergerät und fahrzeug
DE102019003041B4 (de) Verfahren und Vorrichtung zum Anzeigen eines Zeigers in einer Instrumententafel und Fahrzeug mit einer Anzeigevorrichtung
DE102014201409A1 (de) Parkplatz - trackinggerät und verfahren desselben

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60R0001000000

Ipc: B60R0001220000

R016 Response to examination communication
R084 Declaration of willingness to licence
R018 Grant decision by examination section/examining division