DE102012108764A1 - Bildverarbeitungsvorrichtung - Google Patents

Bildverarbeitungsvorrichtung Download PDF

Info

Publication number
DE102012108764A1
DE102012108764A1 DE102012108764A DE102012108764A DE102012108764A1 DE 102012108764 A1 DE102012108764 A1 DE 102012108764A1 DE 102012108764 A DE102012108764 A DE 102012108764A DE 102012108764 A DE102012108764 A DE 102012108764A DE 102012108764 A1 DE102012108764 A1 DE 102012108764A1
Authority
DE
Germany
Prior art keywords
color
unit
matching process
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102012108764A
Other languages
English (en)
Inventor
Satoshi Katahira
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK, Fuji Heavy Industries Ltd filed Critical Fuji Jukogyo KK
Publication of DE102012108764A1 publication Critical patent/DE102012108764A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

Es wird eine Bildverarbeitungsvorrichtung angegeben. Die Bildverarbeitungsvorrichtung (120) enthält: eine Farbreproduktionseinheit (172) zum Reproduzieren einer Luminanz einer Farbphase, die nicht auf jedes Pixel eines Paares von aus einem Bayer-Array zusammengesetzten Bilddaten gesetzt ist, basierend auf den benachbarten Pixeln; und eine Abgleichprozesseinheit (176) zum Extrahieren von Blöcken mit vorbestimmter Größe aus dem Paar von Bilddaten, deren Luminanz reproduziert wird, und Ausführen eines Abgleichprozesses, um Blöcke mit hoher Korrelation zu spezifizieren. Die Farbreproduktionseinheit (172) und die Abgleichprozesseinheit (176) führen jeweils die Luminanzreproduktion und den Abgleichprozess mit nur einer Farbphase mit dem höchsten Belegungsgrad in dem Bayer-Array aus.

Description

  • Die Erfindung betrifft eine Bildverarbeitungsvorrichtung, die basierend auf einem Paar von aufgenommenen Bilddaten einen Musterabgleich ausführt.
  • Es ist eine Technik bekannt geworden, worin ein Objekt erfasst wird, das ein Hindernis ist, wie etwa ein vorausfahrendes Fahrzeug oder ein Verkehrslicht, und eine Steuerung durchgeführt wird, um eine Kollision mit dem erfassten Objekt zu vermeiden und um einen Sicherheitsabstand zwischen einem Fahrzeug und dem vorausfahrenden Fahrzeug einzuhalten (siehe zum Beispiel japanisches Patent Nr. 3349060 (japanische ungeprüfte offengelegte Patentanmeldung ( JP-A) Nr. 10-283461 )).
  • Der Abstand zwischen dem Fahrzeug und dem vorausfahrenden Fahrzeug kann aus einer Parallaxe eines Objekts in einem Paar von Bilddaten erfasst werden, die an unterschiedlichen Positionen aufgenommen werden. Die Parallaxe des Objekts in dem Paar von Bilddaten wird basierend auf einem Musterabgleich zwischen den Bildern hergeleitet. Ein allgemeiner Musterabgleich ist derart, dass Blöcke mit einer vorbestimmten Größe zwischen den Bildern verglichen (abgeglichen) werden, und die Blöcke mit hoher Korrelation spezifiziert werden. Es ist auch eine Technik bekannt, in der ein Musterabgleich unter Verwendung eines Dichtehistogramms des Bilds ausgeführt wird (siehe zum Beispiel JP-A Nr. 5-210737 ).
  • Es ist auch eine Technik bekannt, in der eine optische Positionsabweichung des aufgenommenen Bilds vor dem Musterabgleich geometrisch korrigiert wird, um die Präzision des Musterabgleichs zu verbessern (siehe zum Beispiel japanisches Patent Nr. 3284190 ).
  • Als Prozess zum Erfassen eines Bilds ist ein so genanntes Bayer-Array bekannt geworden, in dem Farbfilter von RGB-Signalen, welche drei Primärfarben sind, regelmäßig und ausschließlich an mehreren Lichtempfangsabschnitten (Photodioden) angeordnet sind, welche Pixeln entsprechen, die zum Beispiel in einer Matrix angeordnet sind. In dem Bayer-Array wird zumindest eine Farbphase von RGB nur für jedes Pixel erfasst. Allgemein wird ein Luminanzwert einer nicht gesetzten (fehlenden) Farbphase basierend auf den benachbarten Pixeln interpoliert, um die Farbe in jedem Pixel zu reproduzieren. Die Position jedes Pixels, dessen Farbe reproduziert wird, wird, wie oben beschrieben, geometrisch korrigiert, und dann wird der Musterabgleich ausgeführt.
  • Jedoch erfolgt die oben erwähnte Farbreproduktion unter der Annahme, dass die ursprüngliche Farbe des Zielpixels und die ursprüngliche Farbe der benachbarten Pixel einander gleich sind. Wenn daher die Farben der benachbarten Pixel unterschiedlich sind, oder das Objekt an erster Stelle unterschiedlich ist, wird die Farbe basierend auf der unterschiedlichen Farbe reproduziert, was eine falsche Farbe verursachen könnte. Wenn der physikalische Schwerpunkt eines Pixels und der Schwerpunkt der basierend auf diesem Pixel reproduzierten Farbe voneinander unterschiedlich sind, könnte der Schwerpunkt der Farbe aufgrund der geometrischen Positionskorrektur basierend auf dem physikalischen Schwerpunkt des Pixels verschoben werden.
  • Wenn ein Fahrzeug bei Nacht fährt, wird ein Bild mit einer reduzierten Apertur aufgenommen (mit geöffnetem Verschluss), um das schwache einfallende Licht effektiv zu erfassen. Jedoch könnte Licht einer Lichtquelle in einem Erfassungsbereich so stark sein, dass ein Luminanzwert einer beliebigen Farbphase gesättigt werden könnte.
  • Die Erfindung ist im Hinblick auf die oben beschriebenen Umstände durchgeführt worden und hat zum Ziel, eine Bildverarbeitungsvorrichtung anzugeben, die durch Spezifizieren einer Farbphase, die für einen Musterabgleich genutzt wird, den Musterabgleich richtig ausführen kann.
  • Ein erster Aspekt der Erfindung gibt eine Bildverarbeitungsvorrichtung an, welche enthält: eine Farbreproduktionseinheit zum Reproduzieren eines Luminanzwertes einer Farbphase, die nicht auf jedes Pixel eines Paares von aus einem Bayer-Array zusammengesetzten Bilddaten gesetzt ist, basierend auf den benachbarten Pixeln, und eine Abgleichprozesseinheit zum Extrahieren von Blöcken mit vorbestimmter Größe aus dem Paar von Bilddaten, deren Luminanzwert reproduziert wird, und Ausführen eines Abgleichprozesses, um Blöcke mit hoher Korrelation zu spezifizieren. Die Farbreproduktionseinheit und die Abgleichprozesseinheit führen jeweils die Luminanzreproduktion und den Abgleichprozess mit nur einer Farbphase mit dem höchsten Belegungsgrad in dem Bayer-Array aus, die als Ziel verwendet wird.
  • Die Bildverarbeitungsvorrichtung kann ferner eine Koordinatenumwandlungseinheit enthalten, um eine Koordinatenumwandlung jedes Pixels basierend auf einer Positionsabweichungscharakteristik jedes Pixels durchzuführen, die vorab gemäß einer Bildaufnahmevorrichtung bestimmt wird, die das Paar von Bilddaten erzeugt.
  • Ein anderer Aspekt der Erfindung gibt eine Bildverarbeitungsvorrichtung an, welche enthält: eine Abgleichprozesseinheit zum Extrahieren von Blöcken mit vorbestimmter Größe aus einem Paar von Bilddaten und Ausführen eines Abgleichprozesses, um Blöcke mit hoher Korrelation zu spezifizieren, und eine Umgebungsinformationserfassungseinheit zum Erfassen von Kontrast enthaltender Umgebungsinformation. Die Abgleichprozesseinheit führt den Abgleichprozess nur für eine Farbphase mit der kürzesten Wellenlänge von mehreren Zielfarbphasen aus, wenn die Umgebungsinformationserfassungseinheit Umgebungsinformation erfasst, die anzeigt, dass die Umgebung eine Helligkeit hat, die nicht stärker als eine vorbestimmte Helligkeit ist.
  • Die Abgleichprozesseinheit kann mittels einer HID-Lampe oder einer Halogenlampe als Lichtquelle ein Objekt als Ziel des Abgleichprozesses definieren.
  • Die Erfindung kann einen Musterabgleich richtig ausführen, indem eine Farbphase spezifiziert wird, die für den Musterabgleich genutzt wird. Dementsprechend kann die Bildverarbeitungsvorrichtung die Parallaxeninformation richtig herleiten, um hierdurch in der Lage zu sein, eine Steuerung zur Vermeidung einer Kollision mit einem Objekt, oder eine Steuerung, um einen Sicherheitsabstand zwischen einem Fahrzeug und einem vorausfahrenden Fahrzeug einzuhalten, richtig auszuführen.
  • Die Erfindung wird nachfolgend anhand von Ausführungsbeispielen unter Hinweis auf die beigefügten Zeichnungen beschrieben.
  • 1 ist ein Blockdiagramm, das eine Anschlussbeziehung in einem Umgebungserkennungssystem gemäß einer ersten Ausführungsform darstellt;
  • 2 ist eine Erläuterungsansicht zur Beschreibung eines Helligkeitsbilds und eines Reichweitenbilds;
  • 3 ist eine Erläuterungsansicht zur Beschreibung eines Beispiels eines Bayer-Arrays;
  • 4 ist eine Erläuterungsansicht zur Beschreibung eines Farbreproduktionsprozesses;
  • 5 ist eine Erläuterungsansicht zur Beschreibung eines Koordinatenumwandlungsprozesses;
  • 6 ist eine Erläuterungsansicht zur Beschreibung eines Farbschwerpunkts;
  • 7 ist ein Funktionsblockdiagramm, das schematisch Funktionen der Bildverarbeitungsvorrichtung darstellt;
  • 8 ist eine Erläuterungsansicht zur Beschreibung der Identifikation der HID-Lampe und einer Halogenlampe; und
  • 9 ist ein Funktionsblockdiagramm, das schematisch Funktionen einer Bildverarbeitungsvorrichtung gemäß einer zweiten Ausführungsform darstellt.
  • Nachfolgend werden bevorzugte Ausführungsformen der Erfindung in Bezug auf die beigefügten Zeichnungen im Detail beschrieben. Die Größe, das Material und andere spezifische numerische Werte, die in den Ausführungsformen beschrieben sind, werden nur beispielshalber zum leichteren Verständnis der Erfindung angegeben und sollen den Umfang der Erfindungen nicht einschränken, solange nicht anderweitig spezifiziert. In der Beschreibung und den Zeichnungen sind Komponenten, die im Wesentlichen die gleiche Funktion und die gleiche Konfiguration haben, mit den gleichen Bezugszeichen identifiziert, und eine redundante Beschreibung davon wird nicht wiederholt. Die Komponenten, die nicht direkt mit der Erfindung im Zusammenhang stehen, sind nicht dargestellt.
  • (Umgebungserkennungssystem 100 gemäß erster Ausführungsform)
  • Die Bildverarbeitungsvorrichtung hat zum Ziel, ein aufgenommenes Bild zu verarbeiten, um ein beliebiges Objekt richtig zu erfassen. Wenn die Bildverarbeitungsvorrichtung zum Beispiel für ein Umgebungserkennungssystem verwendet wird, das eine Umgebung eines Fahrzeugs erkennt, verarbeitet die Bildverarbeitungsvorrichtung ein von einer Bildaufnahmevorrichtung aufgenommenes Bild und leitet Parallaxeninformation des Bilds her, um einen relativen Abstand eines Objekts in dem Bild zu spezifizieren. Zum leichteren Verständnis der Bildverarbeitungsvorrichtung wird zuerst ein Umgebungserkennungssystem beschrieben, das die Bildverarbeitungsvorrichtung gemäß einer Ausführungsform verwendet, und dann wird eine bestimmte Konfiguration der Bildverarbeitungsvorrichtung beschrieben.
  • 1 ist ein Blockdiagramm, das eine Anschlussbeziehung in einem Umgebungserkennungssystem 100 darstellt. Das Umgebungserkennungssystem 100 enthält Bildaufnahmevorrichtungen 110, die in einem Fahrzeug 1 angebracht sind, eine Bildverarbeitungsvorrichtung 120, eine Umgebungserkennungsvorrichtung 130 sowie eine Fahrzeugsteuerungsvorrichtung 140.
  • (Bildaufnahmevorrichtung 110)
  • Die Bildaufnahmevorrichtung 110 enthält einen Bildsensor wie etwa eine CCD (ladungsgekoppelte Vorrichtung) oder ein CMOS (komplementärer Metalloxid-Halbleiter), und sie kann ein Farbbild aufnehmen, das heißt eine Luminanz von drei Farbphasen (rot, grün, blau) auf pixelweiser Basis aufnehmen. In der vorliegenden Ausführungsform werden die Farbe und Luminanz äquivalent behandelt. Wenn ein Satz beide Begriffe enthält, können sie als eine Farbe bildende Luminanz oder als eine Farbe mit einer Luminanz gelesen werden. Es sei hier angenommen, dass ein Farbbild gemäß einem Bayer-Array erfasst wird, worin Farbfilter für RGB-Signale regelmäßig und ausschließlich an Lichtempfangsabschnitten (Photodioden) entsprechend den jeweiligen Pixeln in dem Bayer-Array angeordnet sind. Ein von der Bildaufnahmevorrichtung 110 aufgenommenes Farbbild wird als Luminanzbild bezeichnet, um das Farbbild von einem später beschriebenen Abstandsbild zu unterscheiden.
  • Die Bildaufnahmevorrichtungen 110 sind in horizontaler Richtung mit Abstand voneinander angeordnet, so dass die optischen Achsen von zwei Bildaufnahmevorrichtungen 110 in Fahrtrichtung des Fahrzeugs 1 angenähert parallel zueinander sind. Jede der Bildaufnahmevorrichtungen 110 erzeugt kontinuierlich Bilddaten, welche durch Aufnehmen eines Objekts erhalten werden, das sich in einem Erfassungsbereich vor dem Fahrzeug 1 befindet, zum Beispiel alle 1/60 Sekunden (60 fps). Das Objekt enthält nicht nur ein 3D-Objekt, das unabhängig vorhanden ist, wie etwa ein Fahrzeug, ein Verkehrslicht, eine Straße oder eine Leitplanke, sondern auch ein Objekt, das als Teil eines 3D-Objekts spezifiziert werden kann, wie etwa eine Heckleuchte, ein Abbiegesignal oder ein leuchtendes Teil eines Verkehrslichts. Die jeweiligen Funktionseinheiten, die unten in der Ausführungsform beschrieben werden, führen jeweilige Prozesse aus, wenn die oben beschriebenen Bilddaten aktualisiert werden.
  • (Bildverarbeitungsvorrichtung 120)
  • Die Bildverarbeitungsvorrichtung 120 erhält Bilddaten von jeder der zwei Bildaufnahmevorrichtungen 110, wertet eine Korrelation zwischen einem Paar der erhaltenen Bilddaten aus und leitet Parallaxeninformation her, einschließlich einer Parallaxe zwischen beliebigen Blöcken (Blöcken, die durch Sammeln einer vorbestimmten Anzahl von Pixeln gebildet sind) in beiden Bildern. Die Bildverarbeitungsvorrichtung 120 leitet die Parallaxe unter Verwendung eines sogenannten Musterabgleichs her. Insbesondere wird in dem Musterabgleich ein Block entsprechend einem Block (zum Beispiel einer Matrix von (4 Pixel in horizontaler Richtung) × (4 Pixel in vertikaler Richtung)), der beliebig aus einem Bilddatenteil extrahiert wird, aus den anderen Bilddaten gesucht. Hier bedeutet die horizontale Richtung eine Querrichtung des aufgenommenen Bilds in dem Bildschirm und entspricht der Breitenrichtung in der realen Welt. Die vertikale Richtung bedeutet eine Längsrichtung des aufgenommenen Bilds in dem Bildschirm und entspricht der Höhenrichtung in der realen Welt. Die Auswertung der Korrelation und des oben beschriebenen Musterabgleichs werden später im Detail beschrieben.
  • Die Bildverarbeitungsvorrichtung 120 kann die Parallaxe für jeden Block, der eine Erfassungsauflösungseinheit ist, herleiten, aber kann nicht das Objekt erkennen, zu dem dieser Block gehört. Daher wird die Parallaxeninformation nicht auf objektweiser Basis hergeleitet, sondern wird in dem Erfassungsbereich unabhängig auf Erfassungs-Auflösungs-Basis hergeleitet (zum Beispiel auf Blockbasis). Das Bild, das durch Zuordnen der, wie oben beschrieben, hergeleiteten Parallaxeninformation mit den Bilddaten gebildet ist, wird als Abstandsbild bezeichnet.
  • 2 ist eine Erläuterungsansicht der Beschreibung einen Luminanzbilds 124 und eines Abstandsbilds 126. Zum Beispiel sei angenommen, dass das Luminanzbild (Bilddaten) 124, das in 2A dargestellt ist, für den Erfassungsbereich 122 durch zwei Bildaufnahmevorrichtungen 110 erzeugt wird. In der vorliegenden Ausführungsform ist zum leichteren Verständnis nur eines der zwei Luminanzbilder 124 schematisch dargestellt. Die Bildverarbeitungsvorrichtung 120 erhält eine Parallaxe für jeden Block aus dem Luminanzbild 124, um das in 2B dargestellte Abstandsbild 126 zu bilden. Jedem Block in dem Abstandsbild 126 wird die Parallaxe des entsprechenden Blocks zugeordnet. In der vorliegenden Ausführungsform ist zum leichteren Verständnis der Beschreibung der Block, von dem die Parallaxe hergeleitet wird, mit schwarzen Punkten angegeben.
  • (Umgebungserkennungsvorrichtung 130)
  • Die Umgebungserkennungsvorrichtung 130 erhält das Luminanzbild 124 und das Abstandsbild 126 von der Bildverarbeitungsvorrichtung 120 und spezifiziert ein Objekt (Fahrzeug, Verkehrslicht, Straße, Leitplanke, Heckleuchte, Abbiegesignal, leuchtende Teile eines Verkehrslichts, etc.), dem das Objekt in dem Erfassungsbereich 122 entspricht, unter Verwendung der Luminanz basierend auf dem Luminanzbild 124 und dem relativen Abstand von dem Fahrzeug (Fahrzeug) 1 basierend auf der Parallaxeninformation des Abstandsbilds 126. In diesem Fall wandelt die Umgebungserkennungsvorrichtung 130, mittels eines sogenannten Stereoverfahrens, die Parallaxeninformation für jeden Block in dem Erfassungsbereich 122 in dem Abstandsbild 126 in dreidimensionale Positionsinformation, einschließlich des relativen Abstands, um. Das Stereoverfahren dient zum Herleiten des relativen Abstands des Objekts zu der Bildaufnahmevorrichtung 110 aus der Parallaxe des Objekts mittels Triangulation.
  • (Fahrzeugsteuerungsvorrichtung 140)
  • Die Fahrzeugsteuerungsvorrichtung 140 führt eine Steuerung/Regelung durch, um eine Kollision mit dem von der Umgebungserkennungsvorrichtung 130 spezifizierten Objekt zu vermeiden, oder eine Steuerung/Regelung, um einen Sicherheitsabstand zwischen dem Fahrzeug 1 und einem vorausfahrenden Fahrzeug einzuhalten. Insbesondere erfasst die Fahrzeugsteuerungsvorrichtung 140 den gegenwärtigen Fahrzustand des Fahrzeugs 1 durch einen Lenkwinkelsensor 142, der einen Lenkwinkel erfasst, oder einen Fahrzeuggeschwindigkeitssensor 144, der eine Geschwindigkeit des Fahrzeugs 1 erfasst, und hält einen Sicherheitsabstand zwischen dem Fahrzeug 1 und dem vorausfahrenden Fahrzeug durch Ansteuerung eines Aktuators 146 ein. Der Aktuator 146 ist ein solcher zum Steuern/Regeln des Fahrzeugs, der zur Steuerung/Regelung einer Bremse, eines Drosselventils oder eines Lenkwinkels verwendet wird. Wenn eine Kollision mit dem Objekt zu erwarten ist, zeigt (meldet) die Fahrzeugsteuerungsvorrichtung 140 einen Alarm, der diesen Zustand angibt, auf einem vor einem Fahrer angebrachten Display 148 an, und steuert den Aktuator 146 an, um das Fahrzeug 1 automatisch anzuhalten. Die Fahrzeugsteuerungsvorrichtung 140 kann mit der Umgebungserkennungsvorrichtung 130 integriert sein.
  • (Problem und dessen Lösung in der ersten Ausführungsform)
  • Ein Farbbild kann auf verschiedene Weise erhalten werden. Zum Beispiel (1) auf die Bildaufnahmevorrichtung 110 fallendes Licht wird durch ein Prisma in jede der RGB-Farbphasen aufgeteilt und ein Bild wird von drei Bildaufnahmesensoren für jede der drei Farbphasen erhalten; (2) auf RGB-basierende Bilder werden gleichzeitig von einem Bildsensor erhalten, der jeweils für RGB empfindliche Zellen aufweist, die in Richtung eines optischen Wegs aufeinander liegen; oder (3) es wird regelmäßig nur eine Farbphase ausschließlich für jedes Pixel gemäß dem Bayer-Array erhalten. In der vorliegenden Ausführungsform wird ein Bild unter Verwendung des Bayer-Arrays in dem Abschnitt (3) erhalten.
  • 3 ist eine Erläuterungsansicht zur Beschreibung eines Beispiels des Bayer-Arrays. Wie in 3A dargestellt, ist in dem Bayer-Array jede der Farbphasen RGB regelmäßig und ausschließlich auf jedem der in einer Matrix angeordneten Pixel angeordnet. Für alle Farbphasen wird die gleiche Farbphase durch zumindest ein Pixel in der horizontalen Richtung und in der vertikalen Richtung weg angeordnet. Es ist anzumerken, dass die Farbphase G eine Dichte (belegte Fläche) hat, die doppelt so groß ist wie die Dichten der Farbphase R und der Farbphase B. Der Grund dafür wird nachfolgend beschrieben. Insbesondere ist, wie in der spektralen Empfindlichkeitscharakteristik beziehungsweise -kennlinie in 3B dargestellt, die Empfindlichkeitsverteilung der Farbphase G hoch. Daher lässt sich die Luminanzinformation der Farbphase G leicht erfassen. Ferner hat der menschliche Blick eine hohe Empfindlichkeit auf die Farbphase G.
  • In dem Bayer-Array kann die Luminanz für nur eine Farbphase in jedem Pixel erhalten werden. Im Hinblick hierauf wird der Farbreproduktionsprozess (Interpolationsprozess) an den zwei fehlenden Farbphasen unter Verwendung der Luminanz der entsprechenden Farbphasen der benachbarten Pixel ausgeführt.
  • 4 ist eine Erläuterungsansicht zur Beschreibung des Farbreproduktionsprozesses. In der vorliegenden Ausführungsform bezeichnen die um das Bild herum gesetzten Zahlen die horizontale Position und die vertikale Position des Pixels. Zum Beispiel ist die Farbphase R im Bayer-Array so angeordnet, wie in 4A dargestellt. Daher können die erhaltenen Luminanzwerte a, b, c und d unverändert für die Luminanzwerte der Pixel (2, 1), (2, 3), (4, 1) und (4, 3) verwendet werden, deren Luminanzwerte für die Farbphase R erhalten werden.
  • Für die Pixel (2, 2), (3, 1), (3, 3) und (4, 2), denen zwei Pixel, deren Luminanzwerte erhalten werden, in der horizontalen Richtung oder in der vertikalen Richtung benachbart sind, wird der Luminanzwert jedes Pixels erhalten, indem eine lineare Interpolation an den Luminanzwerten der zwei benachbarten Pixel ausgeführt wird. Insbesondere sind die Luminanzwerte dieser Pixel derart, dass der Luminanzwert des Pixels (2, 2) = (a + b)/2, der Luminanzwert des Pixels (3, 1) = (a + b)/2, der Luminanzwert des Pixels (3, 3) = (b + d)/2, und der Luminanzwert des Pixels (4, 2) = (c + d)/2.
  • Der Luminanzwert des Pixels (3, 2), dem vier Pixel, deren Luminanzwerte erhalten werden, in der diagonalen Richtung benachbart sind, wird erhalten, indem eine lineare Interpolation an den Luminanzwerten der benachbarten vier Pixel ausgeführt wird, wodurch der Luminanzwert des Pixels (3, 2) zu (a + b + c + d)/4 wird. Zum einfacheren Verständnis der Beschreibung davon, wie man die Luminanzwerte der Pixel auf der ersten Linie in der horizontalen Richtung und auf der vierten Linie in der vertikalen Richtung herleitet, sind hier nicht beschrieben. Die oben beschriebene Interpolation des Pixels kann auf die Farbphase B angewendet werden, wie in 4B dargestellt, so dass die Beschreibung für die Farbphase B hier ausgelassen wird.
  • Die Farbphase G ist in dem Bayer-Array so angeordnet, wie in 4C dargestellt. Daher können die erhaltenen Luminanzwerte e, f, g und h unverändert für die Luminanzwerte der Pixel (2, 2), (3, 1), (3, 3) und (4, 2) verwendet werden, deren Luminanzwerte für die Farbphase G erhalten werden. Der Luminanzwert des Pixels (3, 2), dem vier Pixel, deren Luminanzwerte erhalten werden, in der diagonalen Richtung benachbart sind, wird erhalten, indem eine lineare Interpolation an den Luminanzwerten der vier benachbarten Pixel ausgeführt wird, wodurch der Luminanzwert des Pixels (3, 2) zu (e + f + g + h)/4 wird.
  • Aus dem Obigen lässt sich verstehen, dass für eine jede beliebige der Farbphasen ein minimaler Bereich von drei Pixeln (maximale Anzahl der Referenzpixel ist vier) in der horizontalen Richtung oder in der vertikalen Richtung erforderlich ist, um eine ursprüngliche Farbe wiederzugeben. Es sei angenommen, dass ein Objekt abgebildet wird, das in einer Richtung schmal ist, wie etwa ein elektrischer Draht oder ein Baum (Laub). Wenn die Breite eines solchen Objekts 1 Pixel oder 2 Pixel ist, wird die Reproduktion einer richtigen Farbe schwierig.
  • Zum Beispiel sei angenommen, dass ein Objekt, dessen Breite in der horizontalen Richtung 1 Pixel ist, auf der zweiten Linie in der vertikalen Richtung in 4A angeordnet ist. Es gibt keine Information in Bezug auf die R-Komponente des Objekts auf der zweiten Linie in der vertikalen Richtung in 4A, so dass aufgrund der oben erwähnten linearen Interpolation eine durch die R-Komponente des anderen Objekts beeinflusste falsche Farbe erzeugt wird. Ähnlich sei angenommen, dass ein Objekt, dessen Breite in der horizontalen Richtung 1 Pixel ist, auf der dritten Linie in der vertikalen Richtung in 4B angeordnet ist. Es gibt keine Informationen in Bezug auf die B-Komponente des Objekts auf der dritten Linie in der vertikalen Richtung in 4B, so dass aufgrund der oben erwähnten linearen Interpolation eine durch die B-Komponente des anderen Objekts beeinflusste falsche Farbe erzeugt wird. Andererseits ist in 4C die Information in Bezug auf die G-Komponente des Objekts auch auf der zweiten Linie in der vertikalen Richtung und auf der dritten Linie in der vertikalen Richtung enthalten. Daher kann eine der ursprünglichen Farbe angenäherte Farbe reproduziert werden, auch wenn eine Beeinflussung der G-Komponente des anderen Objekts vorhanden ist.
  • Dementsprechend wird, wenn nur die Farbphase G mit der hohen Dichte in dem Bayer-Array in dem Farbreproduktionsprozess behandelt wird, nur schwer eine falsche Farbe erzeugt, wodurch die Farbreproduktionsfähigkeit verbessert werden kann, im Vergleich zu dem Fall, wo auch die Farbphasen R und B berücksichtigt werden. Wenn die falsche Farbe erzeugt wird, kann nicht nur der Musterabgleich nicht richtig ausgeführt werden, sondern durch Fehlabgleich könnte auch eine fehlerhafte Parallaxeninformation hergeleitet werden. In der vorliegenden Ausführungsform kann die oben beschriebene Situation verhindert werden, indem die Farbreproduktionsfähigkeit wie oben beschrieben verbessert wird.
  • Nachdem der Farbreproduktionsprozess abgeschlossen ist, wird ein Koordinatenumwandlungsprozess ausgeführt. In dem Koordinatenumwandlungsprozess wird eine Koordinate jedes Pixels basierend auf einer Positionsabweichungs-(Verzerrungs)-Charakteristik, die vorab gemäß der Bildaufnahmevorrichtung 110 bestimmt wird, für jedes Pixel umgewandelt. Die Koordinatenumwandlung ist ein Prozess, bei dem das Objekt, das von der ursprünglichen Position verzerrt erhalten wurde, weil es durch die Bildaufnahmevorrichtung 110 aufgenommen wurde, zur ursprünglichen Position zurückgebracht wird. Zum Beispiel wird ein Bild, das eine in 5A dargestellte Positionsabweichungscharakteristik hat, als ob es durch Fischaugenlinse aufgenommen würde, zu einem in 5B dargestellten Bild korrigiert, worin die horizontale Richtung und vertikale Richtung gerade sind, durch einfache Verschiebung in der horizontalen Richtung oder in der vertikalen Richtung, oder Drehbewegung mittels affiner Transformation.
  • In der oben beschriebenen Koordinatenumwandlung wird die Farbwiedergabe des Pixels nach Koordinatenumwandlung ausgeführt. Jedoch entsteht ein Problem, wenn ein physikalischer Schwerpunkt des Pixels und ein Schwerpunkt einer für dieses Pixel reproduzierten Farbe voneinander unterschiedlich sind. Der Farbschwerpunkt kann gemäß dem oben erwähnten Farbreproduktionsprozess verschoben werden. Der Farbschwerpunkt wird nachfolgend beschrieben.
  • 6 ist eine Erläuterungsansicht zur Beschreibung des Farbschwerpunkts. Wenn ein mit durchgehender Linie angegebenes Pixel aus vier, mit unterbrochener Linie in 6A angegebenen Pixeln (Luminanz = a, b, c, d) durch geometrische Korrektur reproduziert wird, wird die Luminanz des mit der durchgehenden Linie angegebenen Pixels 150 unter Verwendung der Abstände x und y ausgedrückt durch a·(1 – x)(1 – y) + b·x(1 – y) + c·(1 – x)y + d·xy.
  • Dementsprechend wird in dem Fall, wo eine Farbphase R gemäß 6 angeordnet ist, und deren Luminanzen a, b, c und d sind, die Luminanz vom Pixel 152, das in 6B mit durchgehender Linie angegeben ist, zu (b + e + f + g)/4, wenn die R-Komponenten der Pixel (2, 2), (3, 2) und (3, 3) als e, f und g definiert sind. Zum leichteren Verständnis sind in 6A die Abstände x und y als 0,5 definiert. Gemäß dem oben erwähnten Farbreproduktionsprozess ergibt sich e = (a + b)/2, f = (a + b + c + d)/4, und g = (b + d)/2. In dieser Hinsicht ist ein Beitragsgrad der Farbphase R zum Pixel 152 a = 3/16, b = 9/16, c = 1/16 und d = 3/16. In diesem Fall wird der Farbschwerpunkt am unteren linken Teil der Figur von dem physikalischen Schwerpunkt (Mittelposition) des Pixels 152 erzeugt. Wenn die Farbphase B dem gleichen Prozess wie die Farbphase R unterliegt, wird der Farbschwerpunkt am oberen rechten Abschnitt der Figur aus dem physikalischen Schwerpunkt des Pixels 152 erzeugt, wie in 6C dargestellt, Übrigens ändert sich die Position des Farbschwerpunkts in Abhängigkeit davon, wie das mit der durchgehenden Linie angegebene Pixel 152 extrahiert wird.
  • Für die Farbphase G ist der Beitragsgrad der Farbphase G zu dem Pixel 152 h = 1/16, i = 6/16, j = 1/16, k = 1/16, l = 6/16, m = 1/16, wie in 6D dargestellt, worin die Luminanzen der Pixel (3, 1), (2, 2), (1, 3), (4, 2), (3, 3) und (2, 4) als h, i, j, k, l und m definiert sind. In diesem Fall ist der Farbschwerpunkt gleich dem physikalischen Schwerpunkt (Mittelposition) des Pixels 152.
  • Wenn die Koordinatenumwandlung ausgeführt wird, könnten der physikalische Schwerpunkt des Pixels und der für dieses Pixel reproduzierte Farbschwerpunkt für die Farbphasen R und B voneinander unterschiedlich sein. Daher kann, aufgrund der geometrischen Positionskorrektur basierend auf dem physikalischen Schwerpunkt des Pixels, der Farbschwerpunkt verschoben werden. Wenn jedoch zum Beispiel nur die Farbphase G, die in einem karierten Muster gleichmäßig angeordnet ist, in dem Bayer-Array behandelt wird, wird die Verschiebung des Farbschwerpunkts von dem physikalischen Schwerpunkt nicht verursacht, und die Farbanordnung des Bilds nach Koordinatenumwandlung ist richtig, im Vergleich zu dem Fall, wo die Farbphasen R und B ebenfalls berücksichtigt werden. Wenn die Verschiebung des Farbschwerpunkts erzeugt wird, kann nicht nur der Musterabgleich nicht richtig ausgeführt werden, sondern es könnte auch durch Fehlabgleich eine fehlerhafte Parallaxeninformation erlangt werden. In der vorliegenden Ausführungsform kann die oben beschriebene Situation verhindert werden, indem die Farbverschiebung wie oben beschrieben verhindert wird.
  • Dementsprechend wird, wenn nur die Farbphase G in dem Koordinatenumwandlungsprozess behandelt wird, die Farbreproduktionsfähigkeit verbessert, und die Verschiebung kann verhindert werden. Nachfolgend wird die Konfiguration der Bildverarbeitungsvorrichtung 120 beschrieben, die nur die Farbphase G als die Zielfarbphase behandelt.
  • (Bildverarbeitungsvorrichtung 120)
  • 7 ist ein Funktionsblockdiagramm, das schematisch Funktionen der Bildverarbeitungsvorrichtung 120 darstellt. Wie in 7 dargestellt, enthält die Bildverarbeitungsvorrichtung 120 eine I/F-Einheit 160, eine Datenspeichereinheit 162 und eine zentrale Steuerungseinheit 164.
  • Die I/F-Einheit 160 ist eine Schnittstelle, die einen Zweiwege-Informationsaustausch zwischen der I/F-Einheit 160 und der Bildaufnahmevorrichtung 110 oder der Umgebungserkennungsvorrichtung 130 ausführt. Die Datenspeichereinheit 162 ist durch ein RAN, einen Flash-Speicher oder ein HDD konfiguriert. Sie speichert verschiedene Informationsstücke, die für die nachfolgend beschriebenen Prozesse der jeweiligen Funktionen erforderlich sind. Die Datenspeichereinheit 162 speichert auch vorübergehend das von der Bildaufnahmevorrichtung 110 erhaltene Luminanzbild 124.
  • Die zentrale Steuerungseinheit 164 ist aufgebaut aus einer integrierten Halbleiterschaltung, die eine zentrale Prozessoreinheit (CPU) enthält, ein ROM, das ein Programm und dergleichen speichert, sowie ein RAM, das als Arbeitsfläche dient. Die zentrale Steuerungseinheit 164 steuert/regelt die I/F-Einheit 160 und die Datenspeichereinheit 162 durch einen Systembus 166. In der vorliegenden Ausführungsform dient die zentrale Steuerungseinheit 164 auch als Empfindlichkeitskorrektureinheit 170, Farbreproduktionseinheit 172, Koordinatenumwandlungseinheit 174, Abgleichprozesseinheit 176 und Parallaxenherleitungseinheit 178.
  • Die Empfindlichkeitskorrektureinheit 170 führt an einem Paar der von der Bildaufnahmevorrichtung 110 empfangenen Bilddaten einen vorbestimmten Prozess aus, wie etwa eine Gammakorrektur oder einen Kneeprozess.
  • Die Farbreproduktionseinheit 172 reproduziert eine Luminanz einer Farbphase, die nicht auf jedes Pixel in dem Paar von aus dem Bayer-Array zusammengesetzten Bilddaten gesetzt ist, durch lineare Interpolation basierend auf benachbarten Pixeln, wie oben in Bezug auf 4 beschrieben. In der vorliegenden Ausführungsform werden nicht alle der drei Primärfarben extrahiert, sondern es wird nur die Farbphase G mit dem höchsten Belegungsgrad in dem Bayer-Array extrahiert, und der Farbreproduktionsprozess wird an jenem Pixel ausgeführt, dessen Luminanz für die Farbphase G nicht gesetzt ist.
  • Diese Konfiguration erschwert die Erzeugung einer falschen Farbe und kann die Farbreproduktionseigenschaften verbessern, im Vergleich zu dem Fall, wo die Farbphasen R und B ebenfalls berücksichtigt werden.
  • Dementsprechend kann diese Konfiguration die Situation vermeiden, worin der Musterabgleich nicht richtig ausgeführt wird, oder aufgrund des Fehlabgleichs die fehlerhafte Parallaxeninformation hergeleitet wird, um hierdurch die Präzision im Musterabgleich verbessern zu können.
  • In der vorliegenden Ausführungsform wird die Farbphase G als jene Farbphase mit dem höchsten Belegungsgrad verwendet. Jedoch kann jede beliebige Farbphase verwendet werden, solange sie die größte belegte Fläche in dem Bayer-Array hat. Zum Beispiel ist die verwendete Farbphase nicht auf das primäre Farbsystem von RGB beschränkt, Es kann auch eine Komplementärfarbe, die den höchsten Belegungsgrad hat, in einem komplementären Farbsystem wie etwa YMgCyGr (Gelb, Magenta, Cyan, Grün) verwendet werden.
  • Die Koordinatenumwandlungseinheit 174 führt die Koordinatenumwandlung jedes Pixels basierend auf der Positionsabweichungscharakteristik jedes Pixels aus, die vorab gemäß der Bildaufnahmevorrichtung 110 bestimmt wird, welche ein Bilddatenpaar erzeugt, und leitet die Luminanz des Pixels nach Koordinatenumwandlung her (reproduziert eine Farbe), wie in Bezug auf 5 beschrieben. Es können verschiedene vorhandene Techniken verwendet werden, wie etwa jene, die im japanischen Patent Nr. 3284190 offenbart ist. Daher wird die detaillierte Beschreibung der Koordinatenumwandlung ausgelassen. Die Koordinatenumwandlungseinheit 174 reproduziert eine Farbe nach Koordinatenumwandlung, indem nur jene Farbphase G verwendet wird, an der der Farbreproduktionsprozess durch die Farbreproduktionseinheit 172 durchgeführt wird.
  • Da die Farbphase G in dem Bayer-Array wie ein kariertes Muster gleichmäßig angeordnet ist, wird keine Verschiebung des Farbschwerpunkts von dem physikalischen Schwerpunkt verursacht, und die Farbanordnung des Bilds nach Koordinatenumwandlung ist richtig, im Vergleich zu dem Fall, wo die Farbphasen R und G ebenfalls berücksichtigt werden. Dementsprechend kann diese Konfiguration die Situation vermeiden, worin der Musterabgleich nicht richtig ausgeführt wird, oder aufgrund des Fehlabgleichs die fehlerhafte Parallaxeninformation hergeleitet wird, um hierdurch die Präzision im Musterabgleich verbessern zu können.
  • Die Abgleichprozesseinheit 176 extrahiert einen Block mit vorbestimmter Größe aus jedem Datenpaar, dessen Luminanz reproduziert wird, und dessen Positionsabweichung korrigiert wird, und spezifiziert die Blöcke mit der höchsten Korrelation durch den Abgleich. In der vorliegenden Ausführungsform wird der Musterabgleich nur an der Farbphase G ausgeführt.
  • Als der Musterabgleich wird angesehen, dass Luminanzwerte (Y-Farbdifferenzsignale) in einer Einheit eines Blocks verglichen werden, der eine Position eines beliebigen Bilds zwischen zwei Bilddatenstücken angibt. Zum Beispiel enthalten berücksichtigte Techniken eine SAD (Summe der absoluten Differenz) unter Verwendung einer Differenz zwischen Luminanzwerten, eine SSD (Summe der quadratischen Intensitätsdifferenz) unter Verwendung der quadrierten Differenz und eine NCC (normalisierte Kreuzkorrelation) unter Verwendung des Ähnlichkeitsgrads in einem Varianzwert, der durch Subtrahieren eines Mittelwerts von dem Luminanzwert jedes Pixels erhalten wird. Die Bildverarbeitungsvorrichtung 120 führt den oben beschriebenen Parallaxenherleitungsprozess auf Blockbasis für alle Blöcke durch, die an dem Erfassungsbereich (zum Beispiel 600 Pixel×200 Pixel) angezeigt werden. Obwohl hier der Block als 4 Pixel×4 Pixel spezifiziert ist, kann jede beliebige Anzahl von Pixeln in einem Block gesetzt werden.
  • In der vorliegenden Ausführungsform führt die Abgleichprozesseinheit 176 den Musterabgleich nur mittels einer Farbphase G durch. Jedoch könnte die Abgleichprozesseinheit 176 den einen Musterabgleich auch so ausführen, dass in Abhängigkeit von einer Bedingung der Musterabgleich unter Verwendung nur einer Farbphase und der herkömmliche Musterabgleich unter Verwendung von drei Primärfarben umschaltbar verwendet werden. Diese Konfiguration kann den Musterabgleich effizient ausführen. Als diese Bedingung sei in diesem Fall die Schärfe eines Rands, eines angenommenen Bilds oder DCDX-Werts angenommen. Zum Beispiel wird in dem Fall, wo der Rand insgesamt scharf ist, der Musterabgleich nur anhand der Farbphase G ausgeführt. Wenn andererseits der Rand nicht scharf ist, wird der Musterabgleich unter Verwendung von drei Primärfarben ausgeführt.
  • Die Parallaxenherleitungseinheit 178 erhält bildbasierende Parallaxen zwischen den Blöcken, spezifiziert durch die Abgleichprozesseinheit 176 auf der Basis eines Pixels, und ordnet die Parallaxe den Blöcken zu. Die Parallaxe wird dann von der Umgebungserkennungsvorrichtung 130 als die Parallaxeninformation verwendet.
  • Die oben beschriebene Bildverarbeitungsvorrichtung 120 behandelt nur die Farbphase G als Farbphase, um hierdurch die Farbreproduktionseigenschaften verbessern und die Verschiebung des Farbschwerpunkts verhindern zu können. Dementsprechend kann die Bildverarbeitungsvorrichtung 120 die Parallaxeninformation richtig herleiten, indem die Präzision im Musterabgleich verbessert wird, um hierdurch eine Steuerung zur Kollisionsvermeidung mit einem Objekt richtig ausführen zu können, oder um einen Sicherheitsabstand zwischen dem Fahrzeug 1 und einem vorausfahrenden Fahrzeug einzuhalten.
  • (Zweite Ausführungsform)
  • In der ersten Ausführungsform wird der Abgleich mittels nur einer Farbphase basierend auf dem Bayer-Array ausgeführt. In der zweiten Ausführungsform wird der Abgleich mittels nur einer Farbphase gemäß der Umgebung außerhalb des Fahrzeugs 1 ausgeführt, unabhängig vom Bayer-Array.
  • (Problem und dessen Lösung in der zweiten Ausführungsform)
  • Wenn das Fahrzeug 1 bei Nacht fährt, ist das Licht, das von dem Umgebungserkennungssystem 100 vom Erfassungsbereich 122 empfangen werden kann, insgesamt schwach. Daher wird die Blende der Bildaufnahmevorrichtung 110 weit geöffnet, um die Lichtempfangsempfindlichkeit zu verbessern. Wenn in diesem Fall eine selbstleuchtende Lichtquelle, wie etwa eine Heckleuchte, eine Bremsleuchte, ein Scheinwerfer oder ein Abbiegesignal im Erfassungsbereich 122 erscheint, könnte die Luminanz durch die verbesserte Lichtempfangsempfindlichkeit in Sättigung gehen.
  • Wenn die Luminanzinformation wie oben beschrieben gesättigt wird, können alle Pixel, die gesättigt werden, die gleiche Luminanz zeigen, was es unmöglich macht, den Musterabgleich richtig auszuführen. Wenn die Blende geschlossen wird, um diese Situation zu vermeiden, kann der Musterabgleich an der oben erwähnten Lichtquelle ausgeführt werden, aber im Gegensatz hierzu kann ein anderes Objekt als die Lichtquelle nicht erfasst werden.
  • Eine HID(intensitätsstarke Entladungs)-Lampe oder Halogenlampe wird für eine Heckleuchte, Bremsleuchte, einen Scheinwerfer oder ein Abbiegesignal in dem Fahrzeug 1 verwendet. In der zweiten Ausführungsform wird die Charakteristik einer solchen Lampe näher betrachtet.
  • 8 ist eine Erläuterungsansicht zur Beschreibung einer Identifikation einer HID-Lampe und einer Halogenlampe. In Bezug auf die spektrale Energieverteilung einer HID-Lampe (hier Metallhalogenlampe), wie in 8A dargestellt, zeigt sich, dass die Farbphase G vorhanden ist, und eine Wellenlänge zwischen der Farbphase G und der Farbphase R eine hohe relative Energie hat. Andererseits ist die relative Energie der Farbphase B niedrig. Ähnlich ist in der in 8B dargestellten Halogenlampe die relative Energie der Farbphase B niedrig, und die relative Energie nimmt mit zunehmender Wellenlänge zu, das heißt zur Farbphase G und Farbphase R hin.
  • Im Hinblick hierauf wird in der vorliegenden Ausführungsform nur die Farbphase B, die eine schwache relative Energie hat, von der Lichtquelle erfasst, um die Sättigung zu vermeiden. Da ein Rot- oder Orange-Filter an der Heckleuchte, Bremsleuchte oder dem Abbiegesignal ausgebildet ist, kann das Licht der Farbphase B nur schwer hindurchtreten. Daher wird die Helligkeit der Farbphase B weiter reduziert, wodurch sich die Sättigung leicht vermeiden lässt.
  • Die relative Energie der Farbphase B ist auch dann niedrig, wenn die Blende weit offen ist. Daher wird nur schwer die Sättigung erreicht, mit dem Ergebnis, dass ein für die Luminanz gültiger Wert erfasst werden kann. Hiermit wird eine Textur durch die Farbphase B erzeugt, wodurch ein richtiger Musterabgleich ausgeführt werden kann.
  • (Bildverarbeitungsvorrichtung 220)
  • 9 ist ein Funktionsblockdiagramm, das schematisch Funktionen einer Bildverarbeitungsvorrichtung 220 gemäß der zweiten Ausführungsform darstellt. Wie in 9 dargestellt, enthält die Bildverarbeitungsvorrichtung 220 eine I/F-Einheit 160, eine Datenspeichereinheit 162 und eine zentrale Steuerungseinheit 164, wie die Bildverarbeitungsvorrichtung 120 gemäß der ersten Ausführungsform, In der vorliegenden Ausführungsform dient die zentrale Steuerungseinheit 164 auch als Empfindlichkeitskorrektureinheit 170, Farbreproduktionseinheit 172, Koordinatenumwandlungseinheit 174, Abgleichprozesseinheit 176, Parallaxenherleitungseinheit 178 und Umgebungsinformationserfassungseinheit 280. Die I/F-Einheit 160, die Datenspeichereinheit 162, die zentrale Steuerungseinheit 164, die Empfindlichkeitskorrektureinheit 170 und die Parallaxenherleitungseinheit 178, die bereits als die Komponenten in der ersten Ausführungsform beschrieben worden sind, haben im Wesentlichen die gleichen Funktionen. Daher wird die redundante Beschreibung dieser Komponenten nicht wiederholt. Die Farbreproduktionseinheit 172, die Koordinatenumwandlungseinheit 174 und die Abgleichprozesseinheit 176 sind im Wesentlichen gleich jenen der ersten Ausführungsform, außer dass die Zielfarbphase die Farbphase B ist. Daher wird die redundante Beschreibung nicht wiederholt, und es wird hauptsächlich die Umgebungsinformationserfassungseinheit 280 beschrieben, die sich von der ersten Ausführungsform unterscheidet.
  • Die Umgebungsinformationserfassungseinheit 280 erfasst Umgebungsinformationen im Zusammenhang mit Kontrast in der Außenumgebung des Fahrzeugs 1. Wenn zum Beispiel der Scheinwerfer des Fahrzeugs 1 eingeschaltet wird, bestimmt die Umgebungsinformationserfassungseinheit 280, dass es derart dunkel wird, dass der Scheinwerfer erforderlich ist, und erfasst das Leuchten des Scheinwerfers als „Dunkel”-Umgebungsinformation. Ein Helligkeitssensor kann als die Umgebungsinformationserfassungseinheit 280 vorgesehen sein, wobei die „Dunkel”-Umgebungsinformation durch die Feststellung bestimmt werden kann, ob ein Ausgangssignal des Helligkeitssensors einen geeigneten Schwellenwert überschreitet oder nicht.
  • Wenn die Umgebungsinformationserfassungseinheit 280 die „Dunkel”-Umgebungsinformation erfasst, welche angibt, dass die Helligkeit nicht stärker als eine vorbestimmte Helligkeit ist, führt die Abgleichprozesseinheit 176 den Abgleich nur für die Farbphase B aus, die die Farbphase mit der kürzesten Wellenlänge von den mehreren Zielfarbphasen ist. Zum Beispiel ist in der Heckleuchte des vorausfahrenden Fahrzeugs die Wellenlänge der Farbphase R lang und die Wellenlänge der Farbphase B ist kurz. Wenn daher der Abgleich nur anhand eines Bilds mit der Wellenlänge der Farbphase B durchgeführt wird, kann die Abgleichprozesseinheit 176 den Musterabgleich ohne die Sättigung der Heckleuchte richtig ausführen. Dementsprechend kann die Bildverarbeitungsvorrichtung 220 die Parallaxeninformation richtig herleiten, um hierdurch eine Steuerung/Regelung zur Kollisionsvermeidung mit einem Objekt oder eine Steuerung zum Einhalten eines Sicherheitsabstands zwischen dem Fahrzeug 1 und einem vorausfahrenden Fahrzeug richtig ausführen zu können.
  • Wenn die Außenumgebung ausreichend Licht hat, wie etwa tagsüber, das heißt wenn die Umgebungsinformationserfassungseinheit 280 „Hell”-Umgebungsinformation anzeigt, führt die Abgleichprozesseinheit 176 den Musterabgleich basierend auf drei Primärfarben aus.
  • Wie oben beschrieben, kann die Bildverarbeitungsvorrichtung 220 schwach einfallendes Licht effektiv erfassen, indem während Nachtfahrt die Blende des Bildsensors weit geöffnet wird, und kann ein eine Lichtquelle aufweisendes Objekt richtig erfassen, um hierdurch die Präzision im Musterabgleich verbessern zu können.
  • Es sind vorgesehen ein Programm, das es einem Computer erlaubt, um als die Bildverarbeitungsvorrichtung 120 und 220 zu fungieren, oder ein Speichermedium, auf dem das Programm aufgezeichnet ist, wie etwa eine computerlesbare flexible Platte, eine magnetooptische Platte, ein ROM, eine CD, eine DVD oder eine BD. Das Programm bedeutet eine Datenverarbeitungsfunktion, die in irgendeiner Sprache oder gemäß irgendeinem Schreibverfahren geschrieben ist.
  • Obwohl oben bevorzugte Ausführungsformen der vorliegenden Erfindung in Bezug auf die beigefügten Zeichnungen beschrieben worden sind, ist die Erfindung keineswegs auf die oben beschriebenen Ausführungsformen beschränkt. Es versteht sich, dass Fachkundige verschiedene Modifikationen und Alternativen innerhalb des in den Ansprüchen beschriebenen Umfangs vornehmen können, und sie sollen innerhalb der Idee und dem Umfang der vorliegenden Erfindung liegen.
  • In den oben erwähnten Ausführungsformen werden die Bilddaten verwendet, die mittels zweier Bildaufnahmevorrichtungen 110 gleichzeitig erfasst werden. Jedoch kann auch ein Bilddatenpaar verwendet werden, das chronologisch mittels nur einer Bildaufnahmevorrichtung 110 erhalten wird. Die Anzahl der Bildaufnahmevorrichtungen 110 ist nicht auf 1 oder 2 beschränkt. Die Erfindung ist auch auf ein Komplexauge anwendbar, das drei oder mehr Bildaufnahmevorrichtungen enthält.
  • In den oben erwähnten Ausführungsformen sind die drei Primärfarben RGB als das Bayer-Array beschrieben. Jedoch können auch vier Primärfarben RGBC oder fünf oder mehr unterschiedliche Farben verwendet werden.
  • In den oben erwähnten Ausführungsformen werden nur solche Bilddaten verwendet, die durch die Bildaufnahmevorrichtung 110 erhalten werden. Jedoch kann auch ein Funkwellen-Laserradar verwendet werden, worin ein Laserstrahl entsprechend der spezifischen Farbphase durch Differenzieren eines Frequenzfilters erfasst werden kann. Das Funkwellen-Laserradar emittiert einen Laserstrahl zu dem Erfassungsbereich 122, empfängt das von einem Objekt reflektierte Licht und analysiert das reflektierte Licht. Die Ausführungsformen der Erfindung sind auch auf Bilddaten für jeweilige Temperaturmesssensoren einer Temperaturmessvorrichtung anwendbar.
  • Die Erfindung ist auf eine Bildverarbeitungsvorrichtung anwendbar, die einen Musterabgleich basierend auf einem Paar von aufgenommenen Bilddaten ausführt.
  • ZUSAMMENFASSUNG DER OFFENBARUNG
  • Es wird eine Bildverarbeitungsvorrichtung angegeben. Die Bildverarbeitungsvorrichtung (120) enthält: eine Farbreproduktionseinheit (172) zum Reproduzieren einer Luminanz einer Farbphase, die nicht auf jedes Pixel eines Paares von aus einem Bayer-Array zusammengesetzten Bilddaten gesetzt ist, basierend auf den benachbarten Pixeln und eine Abgleichprozesseinheit (176) zum Extrahieren von Blöcken mit vorbestimmter Größe aus dem Paar von Bilddaten, deren Luminanz reproduziert wird, und Ausführen eines Abgleichprozesses, um Blöcke mit hoher Korrelation zu spezifizieren. Die Farbreproduktionseinheit (172) und die Abgleichprozesseinheit (176) führen jeweils die Luminanzreproduktion und den Abgleichprozess mit nur einer Farbphase mit dem höchsten Belegungsgrad in dem Bayer-Array aus.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 3349060 [0002]
    • JP 10-283461 A [0002]
    • JP 5-210737 A [0003]
    • JP 3284190 [0004, 0059]

Claims (4)

  1. Bildverarbeitungsvorrichtung (120) umfassend: eine Farbreproduktionseinheit (172) zum Reproduzieren einer Luminanz einer Farbphase, die nicht auf jedes Pixel eines Paares von aus einem Bayer-Array zusammengesetzten Bilddaten gesetzt ist, basierend auf den benachbarten Pixeln; und eine Abgleichprozesseinheit (176) zum Extrahieren von Blöcken mit vorbestimmter Größe aus dem Paar von Bilddaten, deren Luminanz reproduziert wird, und Ausführen eines Abgleichprozesses, um Blöcke mit hoher Korrelation zu spezifizieren, wobei die Farbreproduktionseinheit (172) und die Abgleichprozesseinheit (176) jeweils die Luminanzreproduktion und den Abgleichprozess mit nur einer Farbphase mit dem höchsten Belegungsgrad in dem Bayer-Array ausführen.
  2. Bildverarbeitungsvorrichtung (120) nach Anspruch 1, die ferner umfasst: eine Koordinatenumwandlungseinheit (174) zum Durchführen einer Koordinatenumwandlung jedes Pixels basierend auf einer Positionsabweichungscharakteristik jedes Pixels, die vorab gemäß einer Bildaufnahmevorrichtung (110) bestimmt wird, die das Paar von Bilddaten erzeugt.
  3. Bildverarbeitungsvorrichtung (220), umfassend: eine Abgleichprozesseinheit (176) zum Extrahieren von Blöcken mit vorbestimmter Größe aus einem Paar von Bilddaten und Ausführen eines Abgleichprozesses, um Blöcke mit hoher Korrelation zu spezifizieren und eine Umgebungsinformationserfassungseinheit (280) zum Erfassen von mit Kontrast involvierter Umgebungsinformation, wobei die Abgleichprozesseinheit (176) den Abgleichprozess nur für eine Farbphase mit der kürzesten Wellenlänge von mehreren Zielfarbphasen ausführt, wenn die Umgebungsinformationserfassungseinheit (280) Umgebungsinformation erfasst, die anzeigt, dass eine Umgebung eine Helligkeit hat, die nicht größer als eine vorbestimmte Helligkeit ist.
  4. Bildverarbeitungsvorrichtung (220) nach Anspruch 3, wobei die Abgleichprozesseinheit (176) ein Objekt, das entweder eine HID-Lampe oder eine Halogenlampe als Lichtquelle verwendet, als Ziel des Abgleichprozesses definiert.
DE102012108764A 2011-09-27 2012-09-18 Bildverarbeitungsvorrichtung Pending DE102012108764A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011210222A JP5639024B2 (ja) 2011-09-27 2011-09-27 画像処理装置
JP2011-210222 2011-09-27

Publications (1)

Publication Number Publication Date
DE102012108764A1 true DE102012108764A1 (de) 2013-03-28

Family

ID=47828051

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012108764A Pending DE102012108764A1 (de) 2011-09-27 2012-09-18 Bildverarbeitungsvorrichtung

Country Status (4)

Country Link
US (1) US9542608B2 (de)
JP (1) JP5639024B2 (de)
CN (2) CN103020583B (de)
DE (1) DE102012108764A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104580920B (zh) * 2013-10-21 2018-03-13 华为技术有限公司 一种成像处理的方法及用户终端
DE102014222900A1 (de) * 2014-11-10 2016-05-12 Bombardier Transportation Gmbh Betrieb eines Schienenfahrzeugs mit einem Bilderzeugungssystem
JP2018036937A (ja) * 2016-09-01 2018-03-08 住友電気工業株式会社 画像処理装置、画像処理システム、画像処理プログラムおよびラベル
CN106845555A (zh) * 2017-02-09 2017-06-13 聚龙智瞳科技有限公司 基于Bayer格式的图像匹配方法及图像匹配装置
CN107169938B (zh) * 2017-05-24 2019-05-31 深圳市华星光电半导体显示技术有限公司 亮度调节系统
JP6975003B2 (ja) * 2017-09-29 2021-12-01 株式会社デンソー 周辺監視装置およびその校正方法
CN108289002B (zh) * 2017-11-06 2019-09-27 诸暨市青辰科技服务有限公司 安全型老人专用收音机
JP7081200B2 (ja) * 2018-02-22 2022-06-07 セイコーエプソン株式会社 画像表示装置、及び画像表示装置の制御方法
US11210946B2 (en) * 2019-07-15 2021-12-28 Verizon Patent And Licensing Inc. Content sharing between vehicles based on a peer-to-peer connection
CN112462387A (zh) * 2020-10-21 2021-03-09 天津大学 一种仿生复眼式激光雷达系统及方法
CN117132629A (zh) * 2023-02-17 2023-11-28 荣耀终端有限公司 图像处理方法和电子设备
CN117710909B (zh) * 2024-02-02 2024-04-12 多彩贵州数字科技股份有限公司 一种基于目标检测与实例分割的乡村道路智能监控系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03284190A (ja) 1990-03-29 1991-12-13 Meidensha Corp 負荷調整装置
JPH05210737A (ja) 1992-01-31 1993-08-20 Nachi Fujikoshi Corp パターン認識方法
JPH10283461A (ja) 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd 車外監視装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3392564B2 (ja) * 1995-02-27 2003-03-31 三洋電機株式会社 単板式カラービデオカメラ
JP3284190B2 (ja) 1998-05-14 2002-05-20 富士重工業株式会社 ステレオカメラの画像補正装置
JP4599672B2 (ja) * 1999-12-21 2010-12-15 株式会社ニコン 補間処理装置および補間処理プログラムを記録した記録媒体
JP3548504B2 (ja) * 2000-06-26 2004-07-28 キヤノン株式会社 信号処理装置、信号処理方法、及び撮像装置
JP2003150936A (ja) * 2001-11-08 2003-05-23 Fuji Heavy Ind Ltd 画像処理装置および画像処理方法
JP2003207324A (ja) * 2002-01-16 2003-07-25 Olympus Optical Co Ltd 3次元情報取得装置及び3次元情報取得方法
JP2006157568A (ja) * 2004-11-30 2006-06-15 Konica Minolta Holdings Inc 撮像装置およびプログラム
CN101080921A (zh) * 2004-12-16 2007-11-28 松下电器产业株式会社 摄像装置
US7576783B2 (en) * 2005-02-04 2009-08-18 Hau Hwang Confidence based weighting for color interpolation
JP4630174B2 (ja) * 2005-11-14 2011-02-09 日本放送協会 動きベクトル検出装置
JP4662873B2 (ja) * 2006-03-23 2011-03-30 Hoya株式会社 パターンマッチングシステム
TWI539230B (zh) * 2007-05-09 2016-06-21 杜比實驗室特許公司 三維影像之投影與觀看系統(一)
JP2008285218A (ja) * 2007-05-21 2008-11-27 Chuoh Pack Industry Co Ltd 四方差し段ボール製パレットの桁部材
JP4856611B2 (ja) * 2007-10-29 2012-01-18 富士重工業株式会社 物体検出装置
JP4956452B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
JP5188430B2 (ja) * 2009-03-24 2013-04-24 富士重工業株式会社 画像処理装置
CN101866497A (zh) * 2010-06-18 2010-10-20 北京交通大学 基于双目立体视觉的智能三维人脸重建方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03284190A (ja) 1990-03-29 1991-12-13 Meidensha Corp 負荷調整装置
JPH05210737A (ja) 1992-01-31 1993-08-20 Nachi Fujikoshi Corp パターン認識方法
JPH10283461A (ja) 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd 車外監視装置

Also Published As

Publication number Publication date
US9542608B2 (en) 2017-01-10
CN103020583A (zh) 2013-04-03
JP5639024B2 (ja) 2014-12-10
CN107092857B (zh) 2020-08-14
US20130077825A1 (en) 2013-03-28
JP2013073305A (ja) 2013-04-22
CN103020583B (zh) 2017-10-10
CN107092857A (zh) 2017-08-25

Similar Documents

Publication Publication Date Title
DE102012108764A1 (de) Bildverarbeitungsvorrichtung
DE102012110883B4 (de) Außenumgebungserkennungsvorrichtung und Außenumgebungserkennungsverfahren
DE102013112171B4 (de) Außenumgebungserkennungsvorrichtung
DE102014116140B4 (de) Einparkhilfsvorrichtung und Einparkhilfsverfahren für ein Fahrzeug
DE102009005861B4 (de) Fahrzeugumgebungs-Erkennungssystem
DE102016117780B4 (de) Fahrzeugaussenumgebung-Erkennungsvorrichtung
DE4410064C2 (de) Verfahren und Vorrichtung zur Abstandserkennung
DE102008006375B4 (de) Überwachungssystem
DE102012104257B4 (de) Umgebungserkennungsvorrichtung und Umgebungserkennungsverfahren
DE102016111304B4 (de) Fahrzeug-Außenumgebungs-Erkennungsvorrichtung
DE102012101014A1 (de) Fahrzeugdetektionsvorrichtung
DE102016200828B4 (de) Objekterfassungsvorrichtung und Objekterfassungsverfahren
DE102016111307B4 (de) Fahrzeug-Außenumgebungs-Erkennungsvorrichtung
DE102010020867A1 (de) Strassenform-Erkennungsvorrichtung
DE102011053002A1 (de) Fahrspurliniebeurteilungsvorrichtung
DE102014112820A9 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE102011004006A1 (de) Spurmarkierungserkennungssystem mit verbessertem Erkennungsverhalten
DE102011106050A1 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE102014112797A1 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE112013002730T5 (de) Vorrichtung und verfahren zum erfassen einer grenzlinie einer fahrzeugfahrspur
DE102009048892A1 (de) Pixelbasierte strukturreiche Detektion eines freien Pfads
DE102010012262A1 (de) Bildverarbeitungsvorrichtung
DE102011106072A1 (de) Schattenentfernung in einem durch eine fahrzeugbasierte kamera erfassten bild unter verwendung einer optimierten ausgerichteten linearen achse
DE102019133642A1 (de) Digitales bildgebungssystem einschliesslich optischer plenoptik-vorrichtung und bilddaten-verarbeitungsverfahren zur erfassung von fahrzeughindernissen und gesten
DE102018220427B4 (de) Kameramodul

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: STAUDT IP LAW, DE

R081 Change of applicant/patentee

Owner name: SUBARU CORPORATION, JP

Free format text: FORMER OWNER: FUJI JUKOGYO KABUSHIKI KAISHA, TOKYO, JP

R082 Change of representative

Representative=s name: STAUDT IP LAW, DE

R012 Request for examination validly filed
R084 Declaration of willingness to licence
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R082 Change of representative

Representative=s name: SONNENBERG HARRISON PARTNERSCHAFT MBB PATENT- , DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06V0030190000

Ipc: G06V0010740000