DE112017004203T5 - Bildverarbeitungsvorrichtung, informationserzeugungsvorrichtung und informationserzeugungsverfahren - Google Patents

Bildverarbeitungsvorrichtung, informationserzeugungsvorrichtung und informationserzeugungsverfahren Download PDF

Info

Publication number
DE112017004203T5
DE112017004203T5 DE112017004203.8T DE112017004203T DE112017004203T5 DE 112017004203 T5 DE112017004203 T5 DE 112017004203T5 DE 112017004203 T DE112017004203 T DE 112017004203T DE 112017004203 T5 DE112017004203 T5 DE 112017004203T5
Authority
DE
Germany
Prior art keywords
polarization
correction information
section
correction
polarization image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017004203.8T
Other languages
English (en)
Inventor
Yuhi Kondo
Shun Kaizu
Teppei Kurita
Tuo Zhuang
Yasutaka Hirasawa
Ying Lu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE112017004203T5 publication Critical patent/DE112017004203T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J4/00Measuring polarisation of light
    • G01J4/04Polarimeters using electric detection means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Die vorliegende Erfindung betrifft eine Bildverarbeitungsvorrichtung, mit einem Korrekturverarbeitungsabschnitt, der vorab erzeugte Korrekturinformationen verwendet, um Empfindlichkeitsvariationen, die in einem Polarisationsbild aufgrund eines Unterschiedes der Polarisationsrichtung verursacht werden, zu korrigieren. Ferner betrifft die Erfindung eine Informationserzeugungsvorrichtung, die Folgendes umfasst: einen Messlichtabstrahlungsabschnitt, der Messlicht mit einer gleichmäßigen Intensität auf einen Polarisationsbildaufnahmeabschnitt emittiert, der ein Polarisationsbild aufnimmt; und einen Korrekturinformationserzeugungs-Verarbeitungsabschnitt, der Korrekturinformationen für Korrekturempfindlichkeitsvariationen, die in dem Polarisationsbild aufgrund eines Unterschieds der Polarisationsrichtung erzeugt werden, basierend auf dem Polarisationsbild erzeugt, das durch den Polarisationsbildaufnahmeabschnitt aufgenommen wird, wenn das Messlicht von dem Messlichtabstrahlungsabschnitt emittiert wird. Schließlich betrifft die Erfindung auch ein Informationserzeugungsverfahren.

Description

  • [Technisches Gebiet]
  • Die vorliegende Technologie betrifft eine Bildverarbeitungsvorrichtung, eine Informationserzeugungsvorrichtung und ein Informationsverarbeitungsverfahren und ermöglicht es, ein Polarisationsbild mit hoher Qualität zu erfassen.
  • [Stand der Technik]
  • Ein Verfahren zum Erzeugen von Polarisationsbildern durch Verwenden eines Bildgebungsabschnitts und eines Polarisators wurde in der Vergangenheit offenbart. Ein zum Beispiel in PTL 1 offenbartes Verfahren erzeugt ein Polarisationsbild mit mehreren Polarisationsrichtungen, indem der Polarisator vor dem Bildgebungsabschnitt angeordnet wird und der Polarisator zur Bilderfassung gedreht wird. Ein anderes offenbartes Verfahren erzeugt Polarisationsbilder mit mehreren Polarisationsrichtungen, indem ein Bilderfassungsvorgang in einer Situation durchgeführt wird, in der Polarisatoren mit unterschiedlichen Polarisationsrichtungen für einzelne Pixel angeordnet werden.
  • Ferner werden Normalgeradeninformationen hinsichtlich eines Objekts aus Polarisationsbildern mit mehreren Polarisationsrichtungen erzeugt. Zum Beispiel in NPL 1 und NPL 2 offenbarte Verfahren erzeugen Normalgeradeninformationen, indem Polarisationsbilder mit mehreren Polarisationsrichtungen auf eine Polarisationsmodellgleichung angewandt werden.
  • [Entgegenhaltungsliste]
  • [Patentliteratur]
    • [PTL 1] WO 2008/099589
    • [NPL 1] Lawrence B. Wolff und Terrance E. Boult, „Constraining Object Features Using a Polarization Reflectance Model,“ IEEE Transaction on pattern analysis and machine intelligence, Bol. 13, Nr. 7, Juli 1991
    • [NPL 2] Gary A. Atkinson und Edwin R. Hancock, „Recovery of surface orientation from diffuse polarization,“ IEEE Transactions of Image Processing, Bol. 15, Ausgabe 6, S. 1653-1664, 2006
  • [Kurzdarstellung]
  • [Technisches Problem]
  • Währenddessen treten, wenn Polarisationsbilder mit einem Bildsensor, der einen Polarisator für jedes Piel aufweist, erzeugt werden, Empfindlichkeitsvariationen aufgrund von beispielsweise der Schwierigkeit beim Bilden eines Polarisators auf einem winzigen Pixel auf. Daher variiert, selbst wenn Bilder eines nichtpolarisierten Objekts mit einer gleichmäßigen Leuchtdichte erfasst werden, die Leuchtdichte der resultierenden Polarisationsbilder.
  • In Anbetracht der obigen Umstände weist die vorliegende Technologie ein Ziel des Bereitstellens einer Bildverarbeitungsvorrichtung, einer Informationserzeugungsvorrichtung und eines Informationserzeugungsverfahrens, die Polarisationsbilder mit hoher Qualität aufnehmen, auf.
  • [Lösung des Problems]
  • Gemäß einem ersten Aspekt der vorliegenden Technologie ist eine Bildverarbeitungsvorrichtung einschließlich eines Korrekturverarbeitungsabschnitts bereitgestellt. Der Korrekturverarbeitungsabschnitt verwendet vorab erzeugte Korrekturinformationen, um Empfindlichkeitsvariationen aufgrund eines Unterschiedes der Polarisationsrichtung zu korrigieren.
  • Die vorliegende Technologie bewirkt, dass ein Messlichtabstrahlungsabschnitt Messlicht mit einer gleichmäßigen Intensität auf einen Polarisationsbildaufnahmeabschnitt emittiert, der ein Polarisationsbildgebungselement mit einem angeordneten Polarisator aufweist. Der Polarisationsbildaufnahmeabschnitt nimmt dann Polarisationsbilder einschließlich Pixel auf, die mehrere Polarisationsrichtungen aufweisen. Basierend auf den aufgenommenen Polarisationsbildern wird eine Korrekturverstärkung in einem Korrekturinformationsspeicherungsabschnitt als Korrekturinformationen zum Korrigieren von Empfindlichkeitsvariationen, die in den Polarisationsbildern aufgrund des Unterschieds der Polarisationsrichtung verursacht werden, gespeichert. Die Korrekturinformationen werden zum Beispiel für jede Polarisationsrichtung oder für jedes Pixel in den Polarisationsbildern erzeugt. Ferner beinhalten die Korrekturinformationen Informationen zum Korrigieren einer Schattierung in den Polarisationsbildern. Des Weiteren werden, wenn die Polarisationsbilder Farbbilder sind, die Korrekturinformationen für jede Farbkomponente der Polarisationsbilder erzeugt und beinhalten Informationen zum Korrigieren eines Weißabgleichs der Polarisationsbilder. Der Korrekturverarbeitungsabschnitt verwendet die vorab erzeugten Korrekturinformationen, die in dem Korrekturinformationsspeicherungsabschnitt gespeichert sind, zum Korrigieren der Empfindlichkeitsvariationen, die in den Polarisationsbildern aufgrund des Unterschieds der Polarisationsrichtung verursacht werden.
  • Gemäß einem zweiten Aspekt der vorliegenden Technologie ist eine Informationserzeugungsvorrichtung einschließlich eines Messlichtabstrahlungsabschnitts und eines Korrekturinformationserzeugungsabschnitts bereitgestellt. Der Messlichtabstrahlungsabschnitt emittiert Messlicht mit einer gleichmäßigen Intensität auf einen Polarisationsbildaufnahmeabschnitt, der Polarisationsbilder aufnimmt. Der Korrekturinformationserzeugungsabschnitt erzeugt basierend auf den Polarisationsbildern, die durch die Polarisationsbildaufnahmeeinheit aufgenommen werden, wenn das Messlicht von dem Messlichtabstrahlungsabschnitt emittiert wird, Korrekturinformationen zum Korrigieren von Empfindlichkeitsvariationen, die in den Polarisationsbildern aufgrund des Unterschieds der Polarisationsrichtung erzeugt werden.
  • Die vorliegende Technologie bewirkt, dass der Messlichtabstrahlungsabschnitt das Messlicht mit einer gleichmäßigen Intensität auf den Polarisationsbildaufnahmeabschnitt emittiert, der die Polarisationsbilder aufnimmt. Der Messlichtabstrahlungsabschnitt emittiert zum Beispiel nicht polarisiertes Licht auf den Polarisationsbildaufnahmeabschnitt. Alternativ dazu emittiert der Messlichtabstrahlungsabschnitt Messlicht auf den Polarisationsbildaufnahmeabschnitt durch eine sphärische Streuscheibe. Der Korrekturinformationsabschnitt ermöglicht, dass der Messlichtabstrahlungsabschnitt das Messlicht auf den Polarisationsbildaufnahmeabschnitt emittiert, der ein vorbestimmtes optisches System verwendet, und erzeugt die Korrekturinformationen zum Korrigieren der Empfindlichkeitsvariationen, die in den Polarisationsbildern aufgrund des Unterschiedes der Polarisationsrichtung erzeugt werden, basierend auf den Polarisationsbildern, die durch den Polarisationsbildaufnahmeabschnitt erzeugt werden.
  • Ferner emittiert der Messlichtabstrahlungsabschnitt das Messlicht auf den Polarisationsbildaufnahmeabschnitt durch eine flache Streuscheibe und der Korrekturinformationserzeugungsabschnitt ändert die Orientierung des Polarisationsbildaufnahmeabschnitts mit Bezug auf die flache Streuscheibe. Alternativ dazu emittiert der Messlichtabstrahlungsabschnitt das Messlicht auf den Polarisationsbildaufnahmeabschnitt durch die flache Streuscheibe und der Korrekturinformationsabschnitt erzeugt die Korrekturinformationen für jedes Pixel basierend auf einer Brennlänge und einem Zentrum einer optischen Achse des Polarisationsbildaufnahmeabschnitts.
  • Gemäß einem dritten Aspekt der vorliegenden Technologie ist ein Informationserzeugungsverfahren bereitgestellt, das Folgendes beinhaltet: Emittieren von Messlicht mit einer gleichmäßigen Intensität von einem Messlichtabstrahlungsabschnitt auf einen Polarisationsbildaufnahmeabschnitt, der Polarisationsbilder aufnimmt; und Erzeugen, durch einen Korrekturinformationserzeugungsverarbeitungsabschnitt, von Korrekturinformationen zum Korrigieren von Empfindlichkeitsvariationen, die in den Polarisationsbildern aufgrund des Unterschieds der Polarisationsrichtung erzeugt werden, basierend auf den Polarisationsbildern, die durch den Polarisationsbildaufnahmeabschnitt aufgenommen werden, wenn das Messlicht von dem Messlichtabstrahlungsabschnitt emittiert wird.
  • Vorteilhafte Effekte der Erfindung
  • Gemäß der vorliegenden Technologie wird ein Korrekturprozess an Polarisationsbildern durchgeführt, indem vorab erzeugte Korrekturinformationen verwendet werden, um Empfindlichkeitsvariationen zu korrigieren, die aufgrund eines Unterschieds der Polarisationsrichtung erzeugt werden. Dies ermöglicht es, Polarisationsbilder mit hoher Qualität aufzunehmen. Es wird angemerkt, dass in dieser Beschreibung beschriebene Vorteile lediglich veranschaulichend und nicht beschränkend sind. Ferner kann die vorliegende Technologie zusätzliche Vorteile bereitstellen.
  • Figurenliste
    • 1 ist ein Diagramm, das eine Aufnahme von Polarisationsbildern veranschaulicht.
    • 2 ist ein Diagramm, das eine Beziehung zwischen Leuchtdichte und Polarisationswinkel veranschaulicht.
    • 3 ist ein Diagramm, das eine Beziehung zwischen Polarisationswinkel und Zenitwinkel veranschaulicht.
    • 4 ist ein Diagramm, das eine Konfiguration eines Polarisationsbildsystems veranschaulicht, in dem eine Bildverarbeitungsvorrichtung verwendet wird.
    • 5 ist ein Diagramm, das eine Konfiguration eines Polarisationsbildaufnahmeabschnitts veranschaulicht.
    • 6 ist ein Diagramm, das einen Polarisator und ein Farbfilter veranschaulicht.
    • 7 ist ein Diagramm, das eine Kombination des Polarisators und des Farbfilters veranschaulicht.
    • 8 ist ein Flussdiagramm, das einen Betrieb eines Korrekturverarbeitungsabschnitts veranschaulicht.
    • 9 ist ein Diagramm, das Ergebnisse einer Verarbeitung durch den Korrekturverarbeitungsabschnitt veranschaulicht.
    • 10 ist ein Diagramm, das die Ergebnisse einer Verarbeitung durch den Korrekturverarbeitungsabschnitt veranschaulicht.
    • 11 ist ein Diagramm, das einen Teil eines gemessenen Polarisationsbildes veranschaulicht, das durch den Polarisationsbildaufnahmeabschnitt erfasst wird.
    • 12 ist ein Diagramm, das eine erste Ausführungsform eines Korrekturinformationserzeugungsabschnitts veranschaulicht.
    • 13 ist ein Flussdiagramm, das einen Betrieb gemäß der ersten Ausführungsform veranschaulicht.
    • 14 ist ein Diagramm, das eine zweite Ausführungsform des Korrekturinformationserzeugungsabschnitts veranschaulicht.
    • 15 ist ein Flussdiagramm, das einen Betrieb gemäß der zweiten Ausführungsform veranschaulicht.
    • 16 ist ein Diagramm, das eine dritte Ausführungsform des Korrekturinformationserzeugungsabschnitts veranschaulicht.
    • 17 ist ein Flussdiagramm, das einen Betrieb gemäß der dritten Ausführungsform veranschaulicht.
    • 18 ist ein Diagramm, das einen Fall veranschaulicht, in dem der Polarisationsbildaufnahmeabschnitt ein Bild einer flachen Streuscheibe erfasst.
    • 19 ist ein Diagramm, das eine Berechnung einer Normalgerade veranschaulicht.
    • 20 ist ein Diagramm, das eine vierte Ausführungsform des Korrekturinformationserzeugungsabschnitts veranschaulicht.
    • 21 ist ein Flussdiagramm, das einen Betrieb gemäß der vierten Ausführungsform veranschaulicht.
    • 22 ist ein Blockdiagramm, das ein Beispiel für eine schematische Konfiguration eines Fahrzeugsteuersystems veranschaulicht.
    • 23 ist ein Hilfsdiagramm zum Erklären eines Beispiels von Installationspositionen eines Außenfahrzeuginformationserfassungsabschnitts und eines Bildgebungsabschnitts.
  • [Beschreibung der Ausführungsformen]
  • Ausführungsformen der vorliegenden Technologie werden nun beschrieben. Es ist anzumerken, dass die Beschreibung in der folgenden Reihenfolge gegeben ist.
    • 1. Aufnahme von Polarisationsbildern
    • 2. Konfiguration des Polarisationsbildsystems
    • 3. Betrieb des Korrekturverarbeitungsabschnitts
    • 4. Erzeugung von Variationskorrekturinformationen
    • 4-1. Erste Ausführungsform des Korrekturinformationserzeugungsabschnitts
    • 4-2. Zweite Ausführungsform des Korrekturinformationserzeugungsabschnitts
    • 4-3. Dritte Ausführungsform des Korrekturinformationserzeugungsabschnitts
    • 4-4. Vierte Ausführungsform des Korrekturinformationserzeugungsabschnitts
    • 5. Alternative Konfigurationen und Betriebe
    • 6. Beispielanwendungen
  • <Aufnahme von Polarisationsbildern>
  • 1 veranschaulicht eine Aufnahme von Polarisationsbildern. Wie zum Beispiel in 1 veranschaulicht, beleuchtet eine Lichtquelle LT ein Objekt OB und erfasst ein Bildgebungsabschnitt CM Bilder des Objekts OB durch einen Polarisator PL. In diesem Fall sind die erfassten Bilder derart, dass sich die Leuchtdichte des Objekts OB gemäß der Polarisationsrichtung des Polarisators PL ändert. Zur einfacheren Erklärung wird angenommen, dass, wenn zum Beispiel die Polarisationsrichtung gedreht wird, die höchste Leuchtdichte Imax ist, während die niedrigste Leuchtdichte Imin ist. Ferner wird angenommen, dass, wenn die x- und y-Achse der zweidimensionalen Koordinaten in der Ebene des Polarisators liegen und die Polarisationsrichtung des Polarisators gedreht wird, der Winkel der y-Achse-Richtung mit Bezug auf die x-Achse der Polarisationswinkel vpol ist. Die Polarisationsrichtung des Polarisators kehrt zu einem vorherigen Polarisationszustand zurück, wenn er um 180 Grad gedreht wird, während die z-Achse-Richtung als eine Achse betrachtet wird, das heißt, er weist einen Zyklus von 180 Grad auf. Zudem kann die Leuchtdichte 1, die beobachtet wird, wenn die Polarisationsrichtung gedreht wird, durch Gleichung (1) ausgedrückt werden. Es sei darauf hingewiesen, dass 2 eine Beziehung zwischen Leuchtdichte und Polarisationswinkel veranschaulicht.
    [Math. 1] I pol = I max + I min 2 + I max I min 2 cos2 ( ν pol ϕ )
    Figure DE112017004203T5_0001
  • In Gleichung (1) ist der Polarisationswinkel vpol zum Zeitpunkt der Polarisationsbilderzeugung offensichtlich und sind die maximale Leuchtdichte Imax, die minimale Leuchtdichte Imin und ein Azimutwinkel ϕ Variablen. Wenn die Leuchtdichte von Polarisationsbildern mit drei oder mehr unterschiedlichen Polarisationsrichtungen verwendet wird, um einen Fit mit Bezug auf eine in Gleichung (1) angegebene Polarisationsmodellgleichung durchzuführen, kann die Leuchtdichte eines gewünschten Azimutwinkels ϕ basierend auf der Polarisationsmodellgleichung berechnet werden, die die Beziehung zwischen Leuchtdichte und Polarisationswinkel angibt.
  • Ferner kann die Normalgerade einer Objektoberfläche durch den Azimutwinkel ϕ und den Zenitwinkel θ durch die Verwendung eines Polarkoordinatensystems angegeben werden. Es wird angenommen, dass der Zenitwinkel θ ein Winkel ist, der von der z-Achse zu der Normalgerade gemessen wird, während der Azimutwinkel ϕ ein Winkel in der y-Achse-Richtung mit Bezug auf die x-Achse ist, wie zuvor erwähnt wurde. Basierend auf Gleichung (2) kann hier ein Polarisationsgrad ρ aus der minimalen Leuchtdichte Imin und der maximalen Leuchtdichte Imax berechnet werden.
    [Math. 2] ρ = I max I min I max + I min
    Figure DE112017004203T5_0002
  • Es ist bekannt, dass die Beziehung zwischen Polarisationsgrad und Zenitwinkel beispielsweise in (a) aus 3 dargestellte Charakteristiken in dem Fall einer diffusen Reflexion und in (b) aus 3 dargestellte Charakteristiken in dem Fall einer spiegelnden Reflexion aufweist. Falls beispielsweise der Zenitwinkel θ 0 ist, ist der Polarisationsgrad ρ 0. Insbesondere ist die minimale Leuchtdichte Imin gleich der maximalen Leuchtdichte Imax, so dass die Leuchtdichte unabhängig vom Azimutwinkel fest ist.
  • <Konfiguration des Polarisationsbildsystems>
  • 4 veranschaulicht eine Konfiguration eines Polarisationsbildsystems, das eine Bildverarbeitungsvorrichtung gemäß der vorliegenden Technologie verwendet. Das Polarisationsbildsystem 10 beinhaltet einen Polarisationsbildaufnahmeabschnitt 20, einen Korrekturinformationsspeicherungsabschnitt 30 und einen Korrekturverarbeitungsabschnitt 40. Ferner kann das Polarisationsbildsystem 10 einen Korrekturinformationserzeugungsabschnitt 50 verwenden, der Variationskorrekturinformationen erzeugt und sie in dem Korrekturinformationsspeicherungsabschnitt 30 speichert.
  • Der Polarisationsbildaufnahmeabschnitt 20 nimmt dann Polarisationsbilder auf, die Pixel mit mehreren Polarisationsrichtungen beinhalten. 5 veranschaulicht eine Konfiguration des Polarisationsbildaufnahmeabschnitts. Der Polarisationsbildaufnahmeabschnitt 20 beinhaltet einen Bildsensor 200, wie etwa einen CMOS(Complementary Metal Oxide Semiconductor)-Bildsensor oder einen CCD(Charge Coupled Device)-Bildsensor, und einen Polarisator 201 oder beinhaltet den Bildsensor 200, den Polarisator 201 und ein Farbfilter 202. Der Bildsensor 200 führt eine photoelektrische Umwandlung von Objektlicht durch, das durch den Polarisator 201 oder durch den Polarisator 201 und das Farbfilter 202 einfällt, und erzeugt als Reaktion auf das Objektlicht ein Bildsignal, d. h. ein Bildsignal, das die Polarisationsbilder repräsentiert. Der Polarisationsbildaufnahmeabschnitt 20 gibt das Bildsignal, das die Polarisationsbilder repräsentiert, an den Korrekturverarbeitungsabschnitt 40 aus. Falls der Korrekturinformationserzeugungsabschnitt 50 verwendet wird, gibt der Polarisationsbildaufnahmeabschnitt 20 das Bildsignal, das die Polarisationsbilder repräsentiert, an den Korrekturinformationserzeugungsabschnitt 50 aus.
  • 6 veranschaulicht den Polarisator und das Farbfilter. (a) und (b) aus 6 veranschaulichen Polarisationsmuster des Polarisators 201. Es wird gefordert, dass der Polarisator 201 lediglich linear polarisiertes Licht extrahiert. Dementsprechend wird zum Beispiel ein Drahtgitter oder ein photonischer Flüssigkristall als der Polarisator 201 verwendet. (a) aus 6 veranschaulicht einen Fall, bei dem Pixel mit mehreren Polarisationsrichtungen (z. B. vier Richtungen, nämlich 0, 45, 90 und 135 Grad) so angeordnet sind, dass ein Fit mit Bezug auf die Polarisationsmodellgleichung, die beispielsweise in Gleichung (1) angegeben ist, unter der Annahme durchgeführt wird, dass ein Pixel einer Polarisationskomponenteneinheit entspricht. Währenddessen veranschaulicht (b) aus 6 einen Fall, bei dem die Farbkomponentenanordnungseinheit des Farbfilters beispielsweise einer Einheit von 2 × 2 Pixel entspricht und Pixel mit mehreren Polarisationsrichtungen (z. B. vier Richtungen, nämlich 0, 45, 90 und 135 Grad) wie oben erwähnt unter der Annahme angeordnet sind, dass die Einheit von 2 × 2 Pixel werden als eine Polarisationseinheit betrachtet wird.
  • (c) bis (g) aus 6 veranschaulichen das Farbfilter. Das Farbfilter ist ein Farbmosaikfilter, das zum Beispiel rote, blaue und grüne (RGB-) Farbkomponenten aufweist. Das Farbfilter ist nicht auf einen Fall beschränkt, bei dem sich die RGB-Farbkomponenten in einer Bayer-Anordnung mit der Annahme befinden, dass ein Pixel einer Farbkomponenteneinheit entspricht, wie in (c) aus 6 dargestellt ist. Alternativ dazu kann das Farbfilter so konfiguriert sein, dass ein Satz von 2 × 2 Pixel als eine Farbkomponenteneinheit wiederholt wird, wie in (d) aus 6 dargestellt ist. Ferner kann das Farbfilter so konfiguriert sein, dass weiße Pixel wiederholt in die Bayer-Anordnung gemischt werden, wie in (e) aus 6 dargestellt ist. Des Weiteren kann das Farbfilter so konfiguriert sein, dass weiße Pixel wiederholt in eine Anordnung aus 2 × 2 Farbkomponenteneinheit basierend auf einer Farbkomponenteneinheit mit 2 × 2 Pixel gemischt werden, wie in (f) aus 6 dargestellt ist. Zudem kann das Farbfilter so konfiguriert sein, dass zum Beispiel Infrarot(IR)-Pixel wiederholt eingemischt werden, wie in (g) aus 6 dargestellt ist, um Bilder mit hoher Empfindlichkeit selbst nachts oder an einem dunklen Ort zu erfassen.
  • Das Farbfilter und der Polarisator werden in Kombination verwendet, um vier polarisierte Komponenten für jede Farbkomponente aufzunehmen. 7 veranschaulicht eine Kombination des Polarisators und des Farbfilters.
  • (a) aus 7 stellt einen Fall dar, bei dem das Farbfilter wie in (d) aus 6 dargestellt konfiguriert ist und der eingesetzte Polarisator wie in (a) aus 6 dargestellt konfiguriert ist. Diese Kombination ist derart, dass jede Farbkomponenteneinheit ein Pixel mit einer speziellen Polarisationsrichtung beinhaltet, so dass vier polarisierte Komponenten für jede Farbkomponente aufgenommen werden.
  • (b) aus 7 veranschaulicht einen Fall, bei dem das Farbfilter wie in (d) aus 6 dargestellt konfiguriert ist und das eingesetzte Farbfilter wie in (b) aus 6 dargestellt konfiguriert ist. Diese Kombination ist derart, dass dann, wenn eine Polarisationskomponenteneinheit des Polarisators um nur ein Pixel in der Links-Rechts-Richtung und in der Oben-Unten-Richtung mit Bezug auf eine Farbkomponenteneinheit des Farbfilters phasenverschoben ist, ein Pixel mit einer speziellen Polarisationsrichtung in jeder Farbkomponenteneinheit enthalten ist. Infolgedessen können vier polarisierte Komponenten für jede Farbkomponente aufgenommen werden.
  • Falls die Polarisationskomponenteneinheit des Polarisators einem Satz von 2 × 2 Pixeln entspricht, ist das Verhältnis eines Polarisationskomponentenleckverlusts von angrenzenden Gebieten unterschiedlicher Polarisationskomponenteneinheit von Polarisationskomponenten, die für jede Polarisationskomponenteneinheit aufgenommen werden, niedriger als im Fall von 1 × 1 Pixel. Falls ein Drahtgitter als der Polarisator verwendet wird, wird ferner polarisiertes Licht mit einer elektrischen Feldkomponente senkrecht zu der Richtung des Gitters (Drahtrichtung) transmittiert, so dass der Transmissionsgrad umso höher ist, je länger der Draht ist. Falls die Polarisationskomponenteneinheit einem Satz von 2 × 2 Pixel entspricht, ist daher der Transmissionsgrad höher als in dem Fall von 1 × 1 Pixel. Folglich ist der Polarisationsbildaufnahmeabschnitt dazu in der Lage, das Auslöschungsverhältnis im Vergleich zu einem Fall, bei dem die in (a) aus 7 dargestellte Kombination 7 verwendet wird, zu verbessern, indem die in (b) aus 7 dargestellte Kombination verwendet wird. Falls die Polarisationskomponenteneinheit einem Satz von 2 × 2 Pixel entspricht, ist die Abweichung von Pixeln in der Polarisationsrichtung größer als in dem Fall von 1 × 1 Pixel. Daher ist der Polarisationsbildaufnahmeabschnitt dazu in der Lage, die Genauigkeit der Normalgerade im Vergleich zu einem Fall, bei dem die in (b) aus 7 dargestellte Kombination 7 verwendet wird, zu erhöhen, indem die in (a) aus 7 dargestellte Kombination verwendet wird.
  • (c) aus 7 veranschaulicht einen Fall, bei dem das Farbfilter wie in (c) aus 6 dargestellt konfiguriert ist und das eingesetzte Polarisationsmuster wie in (b) aus 6 dargestellt konfiguriert ist. Diese Kombination ist derart, dass ein Pixel jeder Farbkomponente in jeder Polarisationskomponenteneinheit enthalten ist. Infolgedessen können vier polarisierte Komponenten für jede Farbkomponente aufgenommen werden. Ferner ist, weil die Farbkomponenteneinheit 1 × 1 Pixel entspricht, die Abweichung einer Farbkomponentenpixelanordnung kleiner als in dem Fall von 2 × 2 Pixel. Folglich ist der Polarisationsbildaufnahmeabschnitt dazu in der Lage, eine verbesserte Qualität im Vergleich zu einem Fall, bei dem die zum Beispiel in (a) aus 7 dargestellte Kombination 7 verwendet wird, bereitzustellen, indem die in (c) aus 7 dargestellte Kombination verwendet wird.
  • (d) aus 7 veranschaulicht einen Fall, bei dem das Farbfilter wie in (f) aus 6 dargestellt konfiguriert ist und das eingesetzte Polarisationsmuster wie in (b) aus 6 dargestellt konfiguriert ist. Diese Kombination ist derart, dass dann, wenn eine Polarisationskomponenteneinheit des Polarisationsmusters um nur ein Pixel in der Links-Rechts-Richtung und in der Oben-Unten-Richtung mit Bezug auf eine Farbkomponenteneinheit des Farbfilters phasenverschoben ist, ein Pixel mit einer speziellen Polarisationsrichtung in jeder Farbkomponenteneinheit enthalten ist. Infolgedessen können vier polarisierte Komponenten für jede Farbkomponente aufgenommen werden. Ferner ist ein weißes Pixel in einer Farbkomponenteneinheit enthalten. Verglichen mit einem Fall, bei dem die zum Beispiel in (b) aus 7 dargestellte Kombination verwendet wird, kann daher eine verbesserte Empfindlichkeit erreicht werden, falls das eingesetzte Farbfilter kein weißes Pixel enthält.
  • Der in 4 dargestellte Korrekturinformationsspeicherungsabschnitt 30 speichert die durch den Korrekturinformationserzeugungsabschnitt 50 vorberechneten Variationskorrekturinformationen. Die Variationskorrekturinformationen sind beispielsweise, wie später beschrieben, eine Korrekturverstärkung zum Korrigieren von Empfindlichkeitsvariationen, die in Polarisationsbildern aufgrund der Differenz der Polarisationsrichtung verursacht werden, gemäß den Polarisationsbildern, die durch den Polarisationsbildaufnahmeabschnitt 20 erfasst werden, wenn Messlicht mit gleichmäßiger Intensität von dem Messlichtabstrahlungsabschnitt zu dem Polarisationsbildaufnahmeabschnitt 20 emittiert wird, der Polarisationsbilder aufnimmt. Falls die Polarisationsbilder Farbbilder sind, speichert ferner der Korrekturinformationsspeicherungsabschnitt 30 Variationskorrekturinformationen für jede Farbkomponente.
  • Der Korrekturverarbeitungsabschnitt 40 legt Polarisationsbildkorrekturinformationen fest, indem die in dem Korrekturinformationsspeicherungsabschnitt 30 gespeicherten Variationskorrekturinformationen verwendet werden, und verwendet die festgelegten Polarisationsbildkorrekturinformationen, um einen Korrekturprozess an den Polarisationsbildern durchzuführen, die durch den Polarisationsbildaufnahmeabschnitt 20 aufgenommen werden.
  • Der Korrekturinformationserzeugungsabschnitt 50 erzeugt Variationskorrekturinformationen, die zum Korrigieren von Empfindlichkeitsvariationen oder zum Korrigieren von Empfindlichkeitsvariationen und Schattierungen in dem Polarisationsbildaufnahmeabschnitt 20 verwendet werden. Der Korrekturinformationserzeugungsabschnitt 50 führt einen Prozess des Erzeugens der Variationskorrekturinformationen für jede Polarisationsrichtung in Polarisationsbildern durch oder führt einen Prozess des Erzeugens der Variationskorrekturinformationen für jedes Pixel in Polarisationsbildern durch. Der Korrekturinformationserzeugungsabschnitt 50 bewirkt, dass der Korrekturinformationsspeicherungsabschnitt 30 die erzeugten Variationskorrekturinformationen speichert.
  • <Betrieb des Korrekturverarbeitungsabschnitts>
  • Nun wird ein Betrieb des Korrekturverarbeitungsabschnitts 40 beschrieben. Der Korrekturverarbeitungsabschnitt 40 führt den Korrekturprozess an den Polarisationsbildern durch, die durch den Polarisationsbildaufnahmeabschnitt 20 aufgenommen werden, indem die Verstärkung jedes Pixels gemäß den Polarisationsbildkorrekturinformationen angepasst wird. Gleichung (3) ist eine Korrekturgleichung, die während des Korrekturprozesses an den Polarisationsbildern verwendet wird. In Gleichung (3) ist ein Pixelwert Iij der Pixelwert eines Pixels bei einer Pixelposition (i, j) in den Polarisationsbildern, die durch den Polarisationsbildaufnahmeabschnitt 20 aufgenommen werden. Ein Pixelwert BK gibt den Schwarzpegel an. Der gleiche Pixelwert BK des Schwarzpegels kann für den gesamten Bildschirm verwendet werden. Alternativ dazu kann der zu verwendende Pixelwert BK zuvor für jedes Pixel gemessen werden. Es wird angenommen, dass die Polarisationsbildkorrekturinformationen GAij eine Korrekturverstärkung für ein Pixel bei der Pixelposition (i, j) und, wie zum Beispiel in Gleichung (4) angegeben, Variationskorrekturinformationen GVij, die zuvor gemäß dem Ergebnis der Empfindlichkeitsvariationsmessung erzeugt und in dem Korrekturinformationsspeicherungsabschnitt 30 gespeichert werden, sind. Cij = ( Iij BK ) × GAij
    Figure DE112017004203T5_0003
    GAij = GVij
    Figure DE112017004203T5_0004
  • Der Korrekturverarbeitungsabschnitt 40 berechnet einen Pixelwert Cij, der durch Korrigieren von Empfindlichkeitsvariationen erhalten wird, indem eine Berechnung in Gleichung (3) an einem Pixel bei der Pixelposition (i, j) in den Polarisationsbildern durch Verwenden der Polarisationsbilderkorrekturinformationen durchgeführt wird GAij und des Pixelwertes Iij.
  • Ferner sind die Polarisationsbildkorrekturinformationen nicht auf die Korrekturinformationen zum Korrigieren von Empfindlichkeitsvariationen beschränkt, sondern können Korrekturinformationen für die Schattierungskorrektur und die Weißabgleichkorrektur enthalten.
  • Informationen zur Schattierungskorrektur (nachfolgend als die „Schattierungskorrekturinformationen“ bezeichnet) GS können für jeden Teil eines optischen Abbildungssystems, das von dem Polarisationsbildaufnahmeabschnitt 20 verwendet wird, gemessen und basierend auf dem Messergebnis erzeugt werden oder können zum Beispiel aus Linsengestaltungsdaten berechnet werden. Es ist zu beachten, dass die Schattierungskorrekturinformationen GS in dem Korrekturinformationsspeicherungsabschnitt 30 zu speichern sind.
  • Wenn eine Empfindlichkeitsvariationskorrektur und eine Schattierungskorrektur vorgenommen wird, nimmt der Korrekturverarbeitungsabschnitt 40 die Variationskorrekturinformationen GVij und Schattierungskorrekturinformationen GSij für ein Pixel bei der Pixelposition (i, j) in den Polarisationsbildern aus dem Korrekturinformationsspeicherungsabschnitt 30 auf und legt die Polarisationsbildkorrekturinformationen GAij gemäß Gleichung (5) fest. Der Korrekturverarbeitungsabschnitt 40 berechnet den Pixelwert Cij, der erhalten wird, indem eine Empfindlichkeitsvariationskorrektur und Schattierungskorrektur vorgenommen werden, indem eine Berechnung, wie in Gleichung (3) angegeben, an dem Pixel bei der Pixelposition (i, j) in den Polarisationsbildern durch Verwenden des Pixelwertes Iij und der festgelegten Polarisationsbilderkorrekturinformationen durchgeführt wird. GAij = GVij × GSij
    Figure DE112017004203T5_0005
  • Es ist zu beachten, dass der Korrekturinformationserzeugungsabschnitt 50 dazu in der Lage ist, Variationskorrekturinformationen zu erzeugen, die nicht nur Empfindlichkeitskorrekturinformationen, sondern auch Schattierungskorrekturinformationen beinhalten. In diesem Fall ist der Korrekturverarbeitungsabschnitt 40 dazu in der Lage, eine Empfindlichkeitsvariationskorrektur und eine Schattierungskorrektur vorzunehmen, indem die Variationskorrekturinformationen GVij als die Polarisationsbildkorrekturinformationen GAij festgelegt werden.
  • Informationen für eine Weißabgleichkorrektur (nachfolgend als „Weißabgleichkorrekturinformationen“ bezeichnet) GW können zum Beispiel durch Anwenden eines Weißabgleichdetektionsmechanismus erzeugt oder gemäß Beleuchtungseinstellungen erzeugt werden, die zum Beispiel durch einen Benutzer definiert werden. Ferner können die Weißabgleichkorrekturinformationen basierend auf einem Polarisationsbild erzeugt werden. Falls zum Beispiel Leuchtdichtenwerte von Pixeln mit vier Polarisationsrichtungen verwendet werden, um einen Fit mit Bezug auf eine Polarisationsmodellgleichung (z. B. cos-Funktion) durchzuführen, die Leuchtdichteänderungen relativ zu dem Polarisationswinkel angibt, wie in 2 gezeigt ist, entspricht eine Amplitudenänderung in der Polarisationsmodellgleichung nach dem Fitten einer Spiegelreflexionskomponente. Daher kann eine Beleuchtungspixelposition durch Detektieren einer Pixelposition mit der höchsten Leuchtdichte in jeder Farbkomponente detektiert werden. Zudem werden Korrekturinformationen zum Berücksichtigen der Farbe der detektierten Beleuchtungspixelposition als Weiß erzeugt und als die Weißabgleichkorrekturinformationen verwendet.
  • Wenn eine Empfindlichkeitsvariationskorrektur und eine Weißabgleichkorrektur vorgenommen werden, legt der Korrekturverarbeitungsabschnitt 40 die Polarisationsbildkorrekturinformationen GAij gemäß Gleichung (6) durch Verwenden der Variationskorrekturinformationen GVij und der Weißabgleichkorrekturinformationen GWij für ein Pixel bei der Pixelposition (i, j) in den Polarisationsbildern fest. Der Korrekturverarbeitungsabschnitt 40 berechnet den Pixelwert Cij, der erhalten wird, indem eine Empfindlichkeitsvariationskorrektur und Weißabgleichkorrektur vorgenommen werden, indem eine Berechnung, wie in Gleichung (3) angegeben, an dem Pixel bei der Pixelposition (i, j) in den Polarisationsbildern durch Verwenden des Pixelwertes Iij und der festgelegten Polarisationsbilderkorrekturinformationen durchgeführt wird. GAij = GVij × GWij
    Figure DE112017004203T5_0006
  • Wenn eine Empfindlichkeitsvariationskorrektur, Schattierungskorrektur und Weißabgleichkorrektur vorgenommen werden, berechnet zudem der Korrekturverarbeitungsabschnitt 40 die Polarisationsbildkorrekturinformationen GAij gemäß Gleichung (7) durch Verwenden der Variationskorrekturinformationen GVij, der Schattierungskorrekturinformationen GSij und der Weißabgleichkorrekturinformationen GWij für ein Pixel bei der Pixelposition (i, j) in den Polarisationsbildern. Der Korrekturverarbeitungsabschnitt 40 berechnet den Pixelwert Cij, der erhalten wird, indem eine Empfindlichkeitsvariationskorrektur, Schattierungskorrektur und Weißabgleichkorrektur vorgenommen werden, indem eine Berechnung, wie in Gleichung (3) angegeben, an dem Pixel bei der Pixelposition (i, j) in den Polarisationsbildern durch Verwenden des Pixelwertes Iij und der festgelegten Polarisationsbilderkorrekturinformationen durchgeführt wird. GAij = GVij × GSij × GWij
    Figure DE112017004203T5_0007
  • 8 ist ein Flussdiagramm, das einen Betrieb des Korrekturverarbeitungsabschnitts veranschaulicht. In Schritt ST1 erlangt der Korrekturverarbeitungsabschnitt Polarisationsbilder. Nach dem Erlangen der Polarisationsbilder von dem Polarisationsbilderaufnahmeabschnitt 20 geht der Korrekturverarbeitungsabschnitt 40 zu Schritt ST5 über.
  • Ferner erlangt der Verarbeitungskorrekturabschnitt in Schritt ST2 die Variationskorrekturinformation. Falls die Variationskorrekturinformationen für jede Polarisationsrichtung in dem Korrekturinformationsspeicherungsabschnitt 30 gespeichert sind, erlangt der Korrekturverarbeitungsabschnitt 40 die Variationskorrekturinformationen bezüglich der Polarisationsrichtung eines Korrekturzielpixels. Falls die Variationskorrekturinformationen für jedes Pixel in dem Korrekturinformationsspeicherungsabschnitt 30 gespeichert sind, erlangt der Korrekturverarbeitungsabschnitt 40 die Variationskorrekturinformationen bezüglich der Pixelposition des Korrekturzielpixels. Nach dem Erlangen der Variationskorrekturinformationen bezüglich des Korrekturzielpixels geht der Korrekturverarbeitungsabschnitt 40 zu Schritt ST3 über.
  • In Schritt ST3 erlangt der Korrekturverarbeitungsabschnitt 40 Schattierungskorrekturinformationen. Nach dem Erfassen der Schattierungskorrekturinformationen bezüglich des Korrekturzielpixels von dem Korrekturinformationsspeicherungsabschnitt 30 geht der Korrekturverarbeitungsabschnitt 40 zu Schritt ST4 über.
  • In Schritt ST4 erlangt der Korrekturverarbeitungsabschnitt Weißabgleichkorrekturinformationen. Nach dem Erfassen der Weißabgleichkorrekturinformationen, die durch den Weißabgleichdetektionsmechanismus erzeugt werden, der Weißabgleichkorrekturinformationen in Abhängigkeit von Beleuchtungseinstellungen, die beispielsweise durch den Benutzer definiert werden, oder der Weißabgleichkorrekturinformationen, die basierend auf Polarisationsbildern erzeugt werden, geht der Korrekturverarbeitungsabschnitt 40 zu Schritt ST5 über.
  • In Schritt ST5 führt der Korrekturverarbeitungsabschnitt einen Korrekturberechnungsprozess durch. Der Korrekturverarbeitungsabschnitt 40 legt die Polarisationsbildkorrekturinformationen GAij durch Verwenden der Korrekturinformationen fest, die während der Verarbeitung in Schritten ST2 bis ST4 erlangt werden. Ferner erzeugt der Korrekturverarbeitungsabschnitt 40 Polarisationsbilder, die einer Empfindlichkeitsvariationskorrektur und anderen Korrekturen unterzogen werden, indem eine Berechnung, wie in Gleichung (3) angegeben, durch Verwenden der festgestellten Polarisationsbildkorrekturinformationen GAij durchgeführt wird.
  • Es ist zu beachten, dass die Verarbeitung in Schritten ST2 bis ST4 durchgeführt werden kann, indem vorzugsweise beliebige Korrekturinformationen erlangt werden. Ferner kann die Verarbeitung in Schritt ST3 oder ST4 nach Bedarf durchgeführt werden. Falls zum Beispiel die Variationskorrekturinformationen die Informationen zum Vornehmen einer Schattierungskorrektur beinhalten, sollte die Verarbeitung in Schritt ST3 ausgelassen werden. Falls die Polarisationsbilder Farbbilder sind, sollte des Weiteren die Verarbeitung in Schritt ST4 durchgeführt werden. Zudem kann der Korrekturverarbeitungsabschnitt 40 die in 8 veranschaulichte Verarbeitung nach Bedarf wiederholen, um alle Pixel der Polarisationsbilder zu verarbeiten.
  • 9 und 10 veranschaulichen die Ergebnisse einer Verarbeitung durch den Korrekturverarbeitungsabschnitt, (a) aus 9 stellt Leuchtdichtenhistogramme von Polarisationsbildern dar, die zum Beispiel durch Emittieren von nichtpolarisiertem Licht auf den Polarisationsbildaufnahmeabschnitt 20 erhalten werden. Es ist zu beachten, dass sich die dargestellten Leuchtdichtenhistogramme auf unterschiedliche Polarisationsrichtungen beziehen. In manchen Fällen können sich die mittleren Leuchtdichtenwerte der Leuchtdichtenhistogramme, die sich auf unterschiedliche Polarisationsrichtungen beziehen, aufgrund von Empfindlichkeitsvariationen voneinander unterscheiden, die beispielsweise durch Schwierigkeiten bei einer Polarisatorbildung verursacht werden.
  • Falls die Polarisationsbildkorrekturinformationen für jede Polarisationsrichtung berechnet werden, wie später in Verbindung mit einer ersten Ausführungsform des Korrekturinformationserzeugungsabschnitts beschrieben ist, werden Pixelwertkorrekturen so vorgenommen, dass unterschiedliche Polarisationsrichtungen hinsichtlich eines mittleren Leuchtdichtenwertes einer Polarisationsrichtung mit dem größten mittleren Leuchtdichtenwert gleich sind. Daher sind die Leuchtdichtenhistogramme in Bezug auf die verschiedenen Polarisationsrichtungen von verarbeiteten Polarisationsbildern derart, dass die mittleren Leuchtdichtenwerte der verschiedenen Polarisationsrichtungen einander gleich sind, wie in (b) aus 9 dargestellt ist.
  • Falls die Polarisationsbildkorrekturinformationen für jedes Pixel gemäß dem Mittelwert aller Pixel berechnet werden, wie später in Verbindung mit einer Ausführungsform des Korrekturinformationserzeugungsabschnitts beschrieben wird, werden ferner Pixelwertkorrekturen so vorgenommen, dass der Pixelwert jedes Pixels gleich dem Mittelwert aller Pixel ist. Daher sind die Leuchtdichtenhistogramme in Bezug auf unterschiedliche Polarisationsrichtungen von verarbeiteten Polarisationsbildern derart, dass Variationen ohne Berücksichtigung der Polarisationsrichtung kleiner als in (a) und (b) aus 9 angegeben sind, und somit repräsentiert der Modus die mittleren Leuchtdichtenwerte, wie in (c) aus 9 dargestellt ist.
  • (a) aus 10 veranschaulicht ein Polarisationsbild, das durch Empfindlichkeitsvariationen und durch Schattierung in der oberen linken Ecke eines Bildschirms beeinflusst wird, wenn ein Bild eines Objekts mit gleichmäßiger Leuchtdichte erfasst wird. Der Korrekturverarbeitungsabschnitt 40 führt einen Korrekturprozess durch, um Empfindlichkeitsvariationen und Schattierung zu korrigieren, indem die Polarisationsbildkorrekturinformationen GAij beispielsweise gemäß der obigen Gleichung (5) berechnet und die berechneten Polarisationsbildkorrekturinformationen GAij verwendet werden. Wie in (b) aus 10 dargestellt, ist daher das einer Korrekturverarbeitung unterzogene Polarisationsbild, das von dem Korrekturverarbeitungsabschnitt 40 ausgegeben wird, ein Polarisationsbild mit hoher Qualität, das einer Empfindlichkeitsvariationskorrektur und einer Schattierungskorrektur unterzogen wurde.
  • Wie oben beschrieben, ist die vorliegende Technologie dazu in der Lage, beispielsweise Empfindlichkeitsvariationen in Polarisationsbildern, die durch den Polarisationsbildaufnahmeabschnitt 20 aufgenommen werden, zu korrigieren. Daher können Polarisationsbilder mit hoher Qualität erhalten werden. Da Polarisationsbilder mit hoher Qualität erhalten werden können, kann außerdem eine Verschlechterung der Verarbeitungsleistungsfähigkeit aufgrund von Empfindlichkeitsvariationen vermieden werden, während eine Verarbeitung beispielsweise an Polarisationsbildern durchgeführt wird.
  • <Erzeugung von Variationskorrekturinformationen>
  • Nun wird die Erzeugung von Variationskorrekturinformationen beschrieben. Der Korrekturinformationserzeugungsabschnitt 50 beinhaltet den Messlichtabstrahlungsabschnitt und einen Korrekturinformationserzeugungsverarbeitungsabschnitt. Der Messlichtabstrahlungsabschnitt emittiert Messlicht mit einer gleichmäßigen Intensität auf den Polarisationsbildaufnahmeabschnitt 20, der Polarisationsbilder aufnimmt. Der Korrekturinformationserzeugungsverarbeitungsabschnitt, erzeugt die Variationskorrekturinformationen, die Korrekturempfindlichkeitsvariationen korrigieren, die in Polarisationsbildern aufgrund des Unterschieds der Polarisationsrichtung erzeugt werden, gemäß den Polarisationsbildern, die durch den Polarisationsbildaufnahmeabschnitt aufgenommen werden, wenn das Messlicht von dem Messlichtabstrahlungsabschnitt emittiert wird. Ferner speichert der Korrekturinformationserzeugungsverarbeitungsabschnitt die erzeugten Variationskorrekturinformationen in dem Korrekturinformationsspeicherungsabschnitt 30. Wenn die Variationskorrekturinformationen erzeugt werden sollen, wird es bevorzugt, dass gemessene Polarisationsbilder durch Erhöhen der Belichtungszeit durch das Verwenden von ausreichend hellem Messlicht aufgenommen werden, um einen durch Rauschen hervorgerufenen nachteiligen Effekt zu vermeiden. Zudem kann das Rauschen in den gemessenen Polarisationsbildern reduziert werden, indem ein Mittelungsprozess an einer mehreren erfassten Polarisationsbildern durchgeführt wird und die gemittelten Polarisationsbilder verwendet werden. Wenn eingesetzte gemessene Polarisationsbilder, wie oben beschrieben, nicht wesentlich durch Rauschen beeinflusst werden, können Variationskorrekturinformationen in Abhängigkeit von dem Polarisationsbildaufnahmeabschnitt 20 angemessen erzeugt werden.
  • 11 veranschaulicht einen Teil eines gemessenen Polarisationsbildes, das durch den Polarisationsbildaufnahmeabschnitt erfasst wird. (a) aus 11 stellt einen Fall dar, bei dem das gemessene Polarisationsbild ein Monochrombild ist. (b) aus 11 stellt einen Fall dar, bei dem das gemessene Polarisationsbild ein Farbbild ist. Des Weiteren bezeichnet das Bezugszeichen „C1“ den Pixelwert eines Pixels, das sich in einem gemessenen Polarisationsbild befindet und eine erste Polarisationsrichtung aufweist. Das Bezugszeichen „C2“ bezeichnet den Pixelwert eines Pixels, das sich in dem gemessenen Polarisationsbild befindet und eine zweite Polarisationsrichtung aufweist.
  • Das Bezugszeichen „C3“ repräsentiert den Pixelwert eines Pixels, das sich in dem gemessenen Polarisationsbild befindet und eine dritte Polarisationsrichtung aufweist. Das Bezugszeichen „C4“ repräsentiert den Pixelwert eines Pixels, das sich in dem gemessenen Polarisationsbild befindet und eine vierte Polarisationsrichtung aufweist. Das Bezugszeichen „R1“ repräsentiert den Pixelwert eines roten Pixels, das sich in einem gemessenen Polarisationsbild befindet und die erste Polarisationsrichtung aufweist. Das Bezugszeichen „R2“ bezeichnet den Pixelwert eines roten Pixels, das sich in dem gemessenen Polarisationsbild befindet und die zweite Polarisationsrichtung aufweist. Das Bezugszeichen „R3“ bezeichnet den Pixelwert eines roten Pixels, das sich in dem gemessenen Polarisationsbild befindet und die dritte Polarisationsrichtung aufweist. Das Bezugszeichen „R4“ bezeichnet den Pixelwert eines roten Pixels, das sich in dem gemessenen Polarisationsbild befindet und die vierte Polarisationsrichtung aufweist. Gleichermaßen repräsentieren Bezugszeichen „G1“ bis „G4“ die Pixelwerte von grünen Pixeln mit unterschiedlichen Polarisationsrichtungen und repräsentieren Bezugszeichen „B1“ bis „B4“ die Pixelwerte von blauen Pixeln mit unterschiedlichen Polarisationsrichtungen. Es sei darauf hingewiesen, dass die Bezugszeichen „C1“ bis „C4“, „R1“ bis „R4“, „G1“ bis „G4“ und „B1“ bis „B4“ Pixelwerte sind, die durch Ausschließen eines Pixelwertes BK eines Schwarzpegels erhalten werden. Ferner sind die erste bis vierte Polarisationsrichtung so definiert, dass ermöglicht wird, mit Bezug auf die Polarisationsmodellgleichung zu fitten. Zudem sind bei einer später beschriebenen dritten Ausführungsform die Polarisationsrichtungen so festgelegt, dass sie eine Winkeldifferenz von 90 Grad aufweisen.
  • <Erste Ausführungsform des
  • Korrekturinformationserzeugungsabschnitts>
  • 12 veranschaulicht eine erste Ausführungsform des Korrekturinformationserzeugungsabschnitts. Ein Messlichtabstrahlungsabschnitt 51-1 eines Korrekturinformationserzeugungsabschnitts 50-1 verwendet eine Lichtquelle, die paralleles nichtpolarisiertes Licht als das Messlicht emittiert. Ein Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 erzeugt Variationskorrekturinformationen aus Polarisationsbildern, die erzeugt werden, wenn der Messlichtabstrahlungsabschnitt 51-1 das Messlicht auf den Polarisationsbildaufnahmeabschnitt 20 emittiert.
  • 13 ist ein Flussdiagramm, das einen Betrieb gemäß der ersten Ausführungsform veranschaulicht. In Schritt ST11 erlangt der Korrekturinformationserzeugungsabschnitt die gemessenen Polarisationsbilder durch Verwenden von parallelem nichtpolarisiertem Licht. Der Korrekturinformationserzeugungsabschnitt 50-1 bewirkt, dass der Messlichtabstrahlungsabschnitt 51-1 paralleles nichtpolarisiertes Licht auf den Polarisationsbildaufnahmeabschnitt 20 emittiert, ermöglicht, dass der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 die gemessenen Polarisationsbilder erlangt, die durch den Polarisationsbildaufnahmeabschnitt 20 erzeugt werden, und geht dann zu Schritt ST12 über.
  • In Schritt ST12 erzeugt der Korrekturinformationserzeugungsabschnitt Variationskorrekturinformationen. Basierend auf den aufgenommenen gemessenen Polarisationsbildern erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 in dem Korrekturinformationserzeugungsabschnitt 50-1 die Variationskorrekturinformationen, die einen Korrekturwert für jede Polarisationsrichtung oder jedes Pixel angeben, wie später beschrieben wird, und geht dann zu Schritt ST13 über.
  • In Schritt ST13 veranlasst der Korrekturinformationserzeugungsabschnitt, dass die Variationskorrekturinformationen gespeichert werden. Der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 in dem Korrekturinformationserzeugungsabschnitt 50-1 bewirkt, dass der Korrekturinformationsspeicherungsabschnitt 30 die erzeugten Variationskorrekturinformationen speichert.
  • Nun wird die Erzeugung von Variationskorrekturinformationen beschrieben. Falls paralleles nichtpolarisiertes Licht als Beleuchtungslicht verwendet wird, ist ein ideales gemessenes Polarisationsbild derart, dass die Pixelwerte ohne Berücksichtigung der Polarisationsrichtung und Pixelposition zueinander gleich sind. Falls jedoch Empfindlichkeitsvariationen in Abhängigkeit von der Polarisationsrichtung des Polarisators auftreten, treten Pixelwertvariationen in Abhängigkeit von der Polarisationsrichtung eines Pixels auf. Daher erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 in dem Korrekturinformationserzeugungsabschnitt 50-1 Variationskorrekturinformationen, die einen Korrekturwert für jede Polarisationsrichtung oder jedes Pixel angeben, und korrigiert Pixelwertvariationen in den gemessenen Polarisationsbildern.
  • Falls das gemessene Polarisationsbild ein Monochrombild ist, berechnet der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 einen Referenzpixelwert Cbasis durch Durchführen einer Berechnung, wie in Gleichung (8) oder (9) angegeben, gemäß dem mittleren Pixelwert (C1mittel, C2mittel, C3mittel, C4mittel) jeder Polarisationsrichtung in dem gesamten oder zentralen Gebiet eines in 11A dargestellten gemessenen Polarisationsbildes. Cbasis = ( C1mittel + C2mittel + C3mittel + C4mittel ) /4
    Figure DE112017004203T5_0008
    Cbasis = Max ( C1mittel ,  C2mittel ,  C3mittel ,  C4mittel )
    Figure DE112017004203T5_0009
  • Als Nächstes erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 die Variationskorrekturinformationen für jede Polarisationsrichtung durch Durchführen einer Berechnung, wie in Gleichungen (10) bis (13) angegeben ist. Es ist zu beachten, dass das Bezugszeichen „GVd1“ eine Korrekturverstärkung für die erste Polarisationsrichtung repräsentiert und dass die Bezugszeichen „GVd2“ bis „GVd4“ jeweils Korrekturverstärkungen für die zweite bis vierte Polarisationsrichtung repräsentieren. Wenn Gleichung (8) zum Berechnen des Referenzpixelwerts Cbasis verwendet wird, ist ferner der berechnete Referenzpixelwert Cbasis weniger anfällig für den Einfluss von beispielsweise Rauschen als bei Verwendung der Gleichung (9). Wenn Gleichung (9) zum Berechnen des Referenzpixelwerts Cbasis verwendet wird, ist zudem der Wert der Korrekturverstärkung nicht kleiner als „1“. Daher verringert das Durchführen des Korrekturprozesses Durch Verwenden der Variationskorrekturinformationen nicht die Pixelwerte oder entsättigt gesättigte Pixelwerte nicht. GVd1 = Cbasis/C1mittel
    Figure DE112017004203T5_0010
    GVd2 = Cbasis/C3mittel
    Figure DE112017004203T5_0011
    GVd3 = Cbasis/C3mittel
    Figure DE112017004203T5_0012
    GVd4 = Cbasis/C4mittel
    Figure DE112017004203T5_0013
  • Falls das gemessene Polarisationsbild ein Farbbild ist, führt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 eine ähnliche Verarbeitung gemäß dem in 11B dargestellten gemessenen Polarisationsbild durch. Wenn die Variationskorrekturinformationen bezüglich beispielsweise eines roten Pixels erzeugt werden, berechnet der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 den Referenzpixelwert Cbasis, wie in Gleichung (14) oder (15) angegeben, gemäß dem mittleren Pixelwert (R1mittel) R2mittel, R3mittel, R4mittel) jeder Polarisationsrichtung des roten Pixels in dem gesamten oder zentralen Gebiet des gemessenen Polarisationsbildes. Rbasis = ( R1mittel + R2mittel + R3mittel + R4mittel ) / 4
    Figure DE112017004203T5_0014
    Rbasis = Max ( R1mittel ,  R2mittel ,  R3mittel ,  R4mittel )
    Figure DE112017004203T5_0015
  • Als Nächstes erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 die Variationskorrekturinformationen für jede Polarisationsrichtung des roten Pixels durch Durchführen einer Berechnung, wie in Gleichungen (16) bis (19) angegeben ist. Es ist zu beachten, dass das Bezugszeichen „GVd1R“ eine Korrekturverstärkung für die erste Polarisationsrichtung des roten Pixels repräsentiert und dass die Bezugszeichen „GVd2R“ bis „GVd4R“ jeweils Korrekturverstärkungen für die zweite bis vierte Polarisationsrichtung des roten Pixels repräsentieren. GVd1R = Rbasis/R1mittel
    Figure DE112017004203T5_0016
    GVd2R = Rbasis/R2mittel
    Figure DE112017004203T5_0017
    GVd3R = Rbasis/R3mittel
    Figure DE112017004203T5_0018
    GVd4R = Rbasis/R4mittel
    Figure DE112017004203T5_0019
  • Ferner erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 zusätzlich die Variationskorrekturinformationen für jede Polarisationsrichtung eines grünen Pixels und die Variationskorrekturinformationen für jede Polarisationsrichtung eines blauen Pixels durch Durchführen einer Verarbeitung an dem grünen und blauen Pixel auf eine dem Fall des roten Pixels ähnliche Weise.
  • Falls die Variationskorrekturinformationen für jedes Pixel erzeugt werden sollen, führt des Weiteren der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 eine Berechnung auf jedem Pixel durch, wie in Gleichung (20) angegeben ist. GVij = Cbasis/Cij
    Figure DE112017004203T5_0020
  • Falls das gemessene Polarisationsbild ein Farbbild ist, führt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 eine ähnliche Verarbeitung an jeder Farbe gemäß dem in 11B dargestellten gemessenen Polarisationsbild durch. Wenn die Variationskorrekturinformationen bezüglich beispielsweise eines roten Pixels erzeugt werden, führt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 eine Berechnung auf jedem Pixel durch, wie in Gleichung (21) angegeben ist. GVRij = Rbasis/Rij
    Figure DE112017004203T5_0021
  • Der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 erzeugt zusätzlich die Variationskorrekturinformationen GVGij für jedes grüne Pixel und die Variationskorrekturinformationen GVBij für jede Polarisationsrichtung eines blauen Pixels durch Durchführen einer Verarbeitung an dem grünen und blauen Pixel auf eine dem Fall des roten Pixels ähnliche Weise. Der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-1 bewirkt, dass der Korrekturinformationsspeicherungsabschnitt 30 die erzeugten Variationskorrekturinformationen speichert.
  • <Zweite Ausführungsform des
  • Korrekturinformationserzeugungsabschnitts>
  • 14 ist ein Diagramm, das eine zweite Ausführungsform des Korrekturinformationserzeugungsabschnitts veranschaulicht. Ein Messlichtabstrahlungsabschnitt 51-2 in einem Korrekturinformationserzeugungsabschnitt 50-2 beinhaltet eine sphärische Streuscheibe DBa und die Lichtquelle LT. Die sphärische Streuscheibe DBa des Messlichtabstrahlungsabschnitts 51-2 ist so konfiguriert, dass das sphärische Zentrum mit dem Hauptpunkt des Polarisationsbildaufnahmeabschnitts 20 zusammenfällt und dass das Messlicht, das durch die sphärische Streuscheibe DBa auf den Polarisationsbildaufnahmeabschnitts 20 einfällt, an einem beliebigen Punkt der sphärischen Streuscheibe DBa einen Zenitwinkel θ von 0 (null) aufweist. Basierend auf den Polarisationsbildern, die erzeugt werden, wenn der Messlichtabstrahlungsabschnitt 51-2 das Messlicht auf den Polarisationsbildaufnahmeabschnitts 20 emittiert, erzeugt ein Korrekturinformationserzeugungsverarbeitungsabschnitt 52-2 die Variationskorrekturinformation.
  • 15 ist ein Flussdiagramm, das einen Betrieb gemäß der zweiten Ausführungsform veranschaulicht. In Schritt ST21 erlangt der Korrekturinformationserzeugungsabschnitt gemessene Polarisationsbilder durch Verwenden der sphärischen Streuscheibe. Der Messlichtabstrahlungsabschnitt 51-2 in dem Korrekturinformationserzeugungsabschnitt 50-2 emittiert das Messlicht durch die sphärische Streuscheibe DBa auf den Korrekturinformationserzeugungsabschnitt 50-2. Der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-2 in dem Korrekturinformationserzeugungsabschnitt 50-2 erlangt die gemessenen Polarisationsbilder, die durch den Polarisationsbildaufnahmeabschnitt 20 erzeugt werden, und geht dann zu Schritt ST22 über.
  • In Schritt ST22 erzeugt der Korrekturinformationserzeugungsabschnitt die Variationskorrekturinformationen. Falls eine Beleuchtung auf eine solche Weise bereitgestellt wird, dass der Zenitwinkel θ 0 (null) ist, ist die minimale Leuchtdichte Imin gleich der maximalen Leuchtdichte Imax, wie zuvor erwähnt wurde. Insbesondere sind, falls keine Empfindlichkeitsvariationen auftreten, die Pixelwerte ohne Berücksichtigung der Polarisationsrichtung gleich. Basierend auf den aufgenommenen gemessenen Polarisationsbildern erzeugt daher der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-2 in dem Korrekturinformationserzeugungsabschnitt 50-2 die Variationskorrekturinformationen, die einen Korrekturwert für jede Polarisationsrichtung oder jedes Pixel angeben, wie später beschrieben wird, und geht dann zu Schritt ST23 über.
  • In Schritt ST23 veranlasst der Korrekturinformationserzeugungsabschnitt, dass die Variationskorrekturinformationen gespeichert werden. Der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-2 in dem Korrekturinformationserzeugungsabschnitt 50-2 bewirkt, dass der Korrekturinformationsspeicherungsabschnitt 30 die erzeugten Variationskorrekturinformationen speichert.
  • Nun wird die Erzeugung von Variationskorrekturinformationen beschrieben. Falls eine Beleuchtung auf eine solche Weise bereitgestellt wird, dass der Zenitwinkel θ 0 (null) ist, ist das ideale gemessene Polarisationsbild, das durch den Polarisationsbildaufnahmeabschnitt 20 aufgenommen wird, derart, dass die Pixelwerte ohne Berücksichtigung der Polarisationsrichtung und Pixelposition gleich sind. Falls jedoch Empfindlichkeitsvariationen in Abhängigkeit von der Polarisationsrichtung des Polarisators auftreten, treten Pixelwertvariationen in Abhängigkeit von der Polarisationsrichtung eines Pixels auf. Daher erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-2 in dem Korrekturinformationserzeugungsabschnitt 50-2 Variationskorrekturinformationen, die einen Korrekturwert für jede Polarisationsrichtung oder jedes Pixel angeben, und korrigiert Pixelwertvariationen in den gemessenen Polarisationsbildern.
  • Falls das gemessene Polarisationsbild ein Monochrombild ist, erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-2 die Variationskorrekturinformationen für jede Polarisationsrichtung durch Durchführen einer Berechnung, wie in Gleichungen (8) bis (13) angegeben, wie es bei der ersten Ausführungsform der Fall ist, basierend auf dem gemessenen Polarisationsbild, das in (a) aus 11 dargestellt ist. Falls das gemessene Polarisationsbild ein Farbbild ist, führt dagegen der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-2 eine ähnliche Verarbeitung an jeder Farbe gemäß dem in (b) aus 11B dargestellten gemessenen Polarisationsbild durch. Falls die Variationsinformationen zum Beispiel ein rotes Pixel betreffen, erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-2 die Variationskorrekturinformationen für jede Polarisationsrichtung des roten Pixels durch Durchführen einer Berechnung, wie in Gleichungen (14) bis (19) angegeben, wie es bei der ersten Ausführungsform der Fall ist. Ferner erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-2 die Variationskorrekturinformationen für jede Polarisationsrichtung eines grünen Pixels und die Variationskorrekturinformationen für jede Polarisationsrichtung eines blauen Pixels durch Durchführen einer Verarbeitung an dem grünen und blauen Pixel auf eine dem Fall des roten Pixels ähnliche Weise.
  • Falls das gemessene Polarisationsbild ein Monochrombild in einem Fall ist, bei dem die Variationskorrekturinformationen für jedes Pixel erzeugt werden sollen, führt des Weiteren der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-2 eine Berechnung auf jedem Pixel durch, wie in Gleichung (20) angegeben ist. Falls das gemessene Polarisationsbild ein Farbbild ist, führt dagegen der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-2 eine Berechnung auf jedem Pixel durch, wie in Gleichung (21) angegeben ist. Der Korrekturinformationserzeugungsverarbeitungsabschnitt 52- 2 erzeugt die Variationskorrekturinformationen für jedes grüne Pixel und die Variationskorrekturinformationen für jede Polarisationsrichtung eines blauen Pixels durch Durchführen einer Verarbeitung an dem grünen und blauen Pixel auf eine dem Fall des roten Pixels ähnliche Weise.
  • <Dritte Ausführungsform des
  • Korrekturinformationserzeugungsabschnitts>
  • 16 ist ein Diagramm, das eine dritte Ausführungsform des Korrekturinformationserzeugungsabschnitts veranschaulicht. Ein Messlichtabstrahlungsabschnitt 51-3 in einem Korrekturinformationserzeugungsabschnitt 50-3 beinhaltet eine flache Streuscheibe DBb und die Lichtquelle LT. Basierend auf Brennweiteninformationen und Informationen über ein Zentrums der optischen Achse bezüglich des Polarisationsbildaufnahmeabschnitts 20 erzeugt ein Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 Korrekturinformationen durch Verwenden von Polarisationsbildern, die erzeugt werden, wenn der Messlichtabstrahlungsabschnitt 51-3 Messlicht auf den Polarisationsbildaufnahmeabschnitt 20 durch die flache Streuscheibe emittiert.
  • 17 ist ein Flussdiagramm, das einen Betrieb gemäß der dritten Ausführungsform veranschaulicht. In Schritt ST31 erlangt der Korrekturinformationserzeugungsabschnitt gemessene Polarisationsbilder durch Verwenden der flachen Streuscheibe. Der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 in dem Korrekturinformationserzeugungsabschnitt 50-3 emittiert das Messlicht durch die flache Streuscheibe DBb auf den Korrekturinformationserzeugungsabschnitt 50-3. Der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 in dem Korrekturinformationserzeugungsabschnitt 50-3 erlangt die gemessenen Polarisationsbilder, die durch den Polarisationsbildaufnahmeabschnitt 20 erzeugt werden, und geht dann zu Schritt ST33 über.
  • In Schritt ST32 erfasst der Korrekturinformationserzeugungsabschnitt die Informationen über das Zentrum der optischen Achse und die Brennweiteninformationen. Nach dem Erlangen der Informationen über die optische Achse, die die Position eines Zentrum einer optischen Achse angeben, und der Brennweiteninformationen, die die Brennweite zum Zeitpunkt der Bilderfassung der flachen Streuscheibe angeben, fährt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 in dem Korrekturinformationserzeugungsabschnitt 50-3 mit Schritt ST33 fort. Es sollte beachtet werden, dass die Informationen über die optische Achse und die Brennweiteninformationen durch den Benutzer eingegeben oder aus den Charakteristiken eines optischen Abbildungssystems, das durch den Polarisationsbildaufnahmeabschnitt 20 verwendet wird, vorerfasst werden und dann in dem Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 gespeichert werden können. Eine andere Alternative besteht darin, eine Kalibrierung durchzuführen, um die Informationen über das Zentrum der optischen Achse und die Brennweitenformationen zu erlangen. Es ist zu beachten, dass die Verarbeitung in Schritt ST32 möglicherweise nur in einem Fall durchgeführt wird, in dem die Korrekturinformationen für jedes Pixel erzeugt werden sollen.
  • In Schritt ST33 erzeugt der Korrekturinformationserzeugungsabschnitt Variationskorrekturinformationen. Basierend auf den aufgenommenen gemessenen Polarisationsbildern erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-2 in dem Korrekturinformationserzeugungsabschnitt 50-2 die Variationskorrekturinformationen, die einen Korrekturwert für jede Polarisationsrichtung oder jedes Pixel angeben, wie später beschrieben wird, und geht dann zu Schritt ST34 über.
  • In Schritt ST34 veranlasst der Korrekturinformationserzeugungsabschnitt, dass die Variationskorrekturinformationen gespeichert werden. Der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 in dem Korrekturinformationserzeugungsabschnitt 50-3 bewirkt, dass der Korrekturinformationsspeicherungsabschnitt 30 die erzeugten Variationskorrekturinformationen speichert.
  • Nun wird die Erzeugung von Variationskorrekturinformationen beschrieben. In einem Gebiet nahe dem Zentrum der optischen Achse eines gemessenen Polarisationsbildes ist der Zenitwinkel θ beinahe gleich 0 (null). Dagegen ist der Zenitwinkel θ bei einem von einer optischen Achse entfernten Sichtwinkel groß. Falls der Zenitwinkel θ beinahe gleich 0 (null) ist, können die ferner die minimale Leuchtdichte Imin und die maximale Leuchtdichte Imax als im Wesentlichen gleich betrachtet werden. Insbesondere sind, falls keine Empfindlichkeitsvariationen auftreten, die Pixelwerte ohne Berücksichtigung der Polarisationsrichtung im Wesentlichen gleich. Daher erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 in dem Korrekturinformationserzeugungsabschnitt 50-3 basierend auf einem Bild des Gebietsnahe dem Zentrum der optischen Achse eines gemessenen Bildes die Variationskorrekturinformationen, die einen Korrekturwert für jede Polarisationsrichtung anzeigen.
  • Falls das gemessene Polarisationsbild ein Monochrombild ist, erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 basierend auf dem in (a) aus 11 dargestellten gemessenen Polarisationsbild die Variationskorrekturinformationen für jede Polarisationsrichtung durch Durchführen einer Berechnung, wie in Gleichungen (8) bis (13) angegeben, wie es bei der ersten Ausführungsform der Fall ist. Falls das gemessene Polarisationsbild ein Farbbild ist, führt dagegen basierend auf dem in (b) aus 11 dargestellten gemessenen Polarisationsbildes, der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 eine ähnliche Verarbeitung für jede Farbe durch. Falls zum Beispiel die Variationsinformationen bezüglich eines roten Pixels erzeugt werden sollen, erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 die Variationskorrekturinformationen für jede Polarisationsrichtung des roten Pixels durch Durchführen einer Berechnung, wie in Gleichungen (14) bis (19) angegeben, wie es bei der ersten Ausführungsform der Fall ist. Ferner erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 die Variationskorrekturinformationen für jede Polarisationsrichtung eines grünen Pixels und die Variationskorrekturinformationen für jede Polarisationsrichtung eines blauen Pixels durch Durchführen einer Verarbeitung an dem grünen und blauen Pixel auf eine dem Fall des roten Pixels ähnliche Weise.
  • Nun wird ein Fall beschrieben, bei dem die Variationskorrekturinformationen für jedes Pixel erzeugt werden sollen. 18 veranschaulicht einen Fall, in dem der Polarisationsbildaufnahmeabschnitt ein Bild der flachen Streuscheibe erfasst. Wenn eine Pixelposition in einem gemessenen Polarisationsbild von dem Zentrum der optischen Achse des Polarisationsbildaufnahmeabschnitts 20 entfernt ist, ist die Steigung der Normalgerade (Zenitwinkel θ) hoch. (a) aus 18 stellt die Beziehung zwischen der flachen Streuscheibe DBb und dem Hauptpunkt, d. h. dem Zentrum des optischen Abbildungssystems in dem Polarisationsbildaufnahmeabschnitt 20 von einem Blickpunkt in einer Richtung orthogonal zu der Richtung der optischen Achse des optischen Abbildungssystems in dem Polarisationsbildaufnahmeabschnitt 20, dar. (b) aus 18 zeigt dagegen die Beziehung von einem Blickpunkt in der Richtung der optischen Achse. Es sei darauf hingewiesen, dass (c) aus 18 eine normale Richtung zeigt, wenn Blickpunktrichtungen von Pixeln in dem gemessenen Polarisationsbild parallel zueinander sind.
  • Wie oben beschrieben, variiert die Steigung der Normalgeraden mit Pixeln in dem gemessenen Polarisationsbild und nimmt zu, wenn sich die Pixelposition von dem Zentrum der optischen Achse nach außen bewegt. Insbesondere ist der Zenitwinkel θ derart, dass die Differenz zwischen der minimalen Leuchtdichte Imin und der maximalen Leuchtdichte Imax zunimmt, wenn sich die Pixelposition von dem Zentrum der optischen Achse nach außen bewegt, wie in (d) aus 18 beschrieben ist.
  • Folglich berechnet der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 die zu beobachtende Normalgerade bei einer Korrekturzielpixelposition aus der Zentrumsposition der optischen Achse, der Brennweite und der Korrekturzielpixelposition und wendet die berechnete Normalgerade auf die Polarisationsmodellgleichung an. Ferner legt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 einen Referenzwert (Imax + Imin)/2 von einem Pixelwert nahe dem Zentrum der optischen Achsen fest, wendet den Referenzwert auf die Polarisationsmodellgleichung an, berechnet einen idealen Leuchtdichtenwert und erzeugt die Variationskorrekturinformationen bezüglich der Korrekturzielpixelposition.
  • 19 ist ein Diagramm, das die Berechnung der Normalgerade veranschaulicht. (a) aus 19 stellt die Anordnung des Polarisationsbilderfassungsabschnitts 20 und der flachen Streuscheibe DBb dar. (b) aus 19 stellt den Azimutwinkel ϕ dar. (C) aus 19 stellt den Zenitwinkel θ dar. Ferner wird in 19 angenommen, dass sich das Zentrum LC der optische Achsen LC bei Koordinaten (Cx, Cy) befindet und dass sich das Korrekturzielpixel HP bei Koordinaten (Hx, Hy) befindet. Die Brennweite fm (ausgedrückt in mm) kann gemäß Gleichung (22) in eine Brennweite f in der Einheit eines Pixels umgewandelt werden. Es ist zu beachten, dass „ps“ in Gleichung (22) die Pixelgröße eines Pixels (ausgedrückt in mm/Pixel) bezeichnet.
  • f = fm/ps
    Figure DE112017004203T5_0022
  • Der Azimutwinkel ϕ des Korrekturzielpixels HP kann aus Gleichung (23) berechnet werden. Ferner kann der Zenitwinkel θ des Korrekturzielpixels HP aus Gleichung (24) berechnet werden.
    [Math. 3] ϕ = arctan ( H y c y H x c x )
    Figure DE112017004203T5_0023
    θ = arctan ( ( H x c y ) 2 + ( H y c y ) 2 f )
    Figure DE112017004203T5_0024
  • Falls eine Beleuchtung von der Rückseite der flachen Streuscheibe aus bereitgestellt wird, um das Messlicht auf den Polarisationsbildaufnahmeabschnitt 20 zu emittieren, kann das Messlicht als diffuses Reflexionslicht betrachtet werden, das im Prinzip keine spiegelnde Reflexion verursacht. Der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 führt einen Fit mit Bezug auf die durch Gleichung (1) repräsentierte Polarisationsmodellgleichung durch, indem die Pixelwerte eines Polarisationsbildes verwendet werden, das durch den Polarisationsbildaufnahmeabschnitt 20 aufgenommen wird, wenn das Messlicht emittiert wird. Zudem kann Gleichung (1) durch Gleichung (25) dargestellt werden und der Polarisationsgrad ρ in Gleichung (25) kann aus Gleichung (2) berechnet werden.
    [Math. 4] I pol = I max + I min 2 ( 1 + ρ cos 2 ( ν pol ϕ ) )
    Figure DE112017004203T5_0025
  • Da der Zenitwinkel θ aus Gleichung (24) berechnet wird, wird außerdem der Polarisationsgrad ρ aus Gleichung (26) berechnet. Es sei darauf hingewiesen, dass Gleichung (26) als die Gleichung bekannt ist, die den Polarisationsgrad des diffusen Reflexionslichts angibt. Es wird angenommen, dass ein Brechungsindex n den Brechungsindex der flachen Streuscheibe darstellt.
    [Math. 5] ρ = ( n 1 /n ) 2 sin 2 θ 2 + 2 n 2 ( n + 1 /n ) 2 sin 2 θ + 4 cos θ n 2 sin 2 θ
    Figure DE112017004203T5_0026
  • Wenn eine arithmetische Verarbeitung durchgeführt wird, wie oben beschrieben ist, sind der Polarisationswinkel vpol, der die Polarisationsrichtung des Korrekturzielpixels HP angibt, der Azimutwinkel ϕ und der Polarisationsgrad ρ bekannte Werte in der Polarisationsmodellgleichung. Daher wird ((Imax + Imin)/2) so geschätzt, dass die ideale Leuchtdichte lpol des Korrekturzielpixels HP berechenbar gemacht wird.
  • Bei der Schätzung von ((Imax + Imin)/2) wird angenommen, dass der Mittelwert von Pixelwerten, die sich hinsichtlich der Polarisationsrichtung um 90 Grad unterscheiden, ein geschätzter Wert ist. Gleichung (27) repräsentiert die Addition von zwei Pixelwerten lpol, lpol+90, die sich hinsichtlich der Polarisationsrichtung um 90 Grad unterscheiden. Aus Gleichung (27) ist es offensichtlich, dass (Imax + Imin) das Ergebnis einer Addition des Pixelwertes lpol und des Pixelwertes lpol+90 ist.
    [Math. 6] I pol + I pol + 90 = I max + I min 2 + I max I min 2 cos 2 ( ν pol ϕ ) + I max + I min 2 + I max I min 2 cos 2 ( ν pol + 90 ϕ ) = I max + I min + I max I min 2 cos 2 ( ν pol ϕ ) + I max I min 2 cos { 2 ( ν pol ϕ ) + 180 } = I max + I min + I max I min 2 cos 2 ( ν pol ϕ ) I max I min 2 cos 2 ( ν pol ϕ ) = I max + I min
    Figure DE112017004203T5_0027
  • Folglich kann der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 den mittleren Pixelwert von Pixeln, die sich hinsichtlich der Polarisationsrichtung um 90 Grad unterscheiden, als den geschätzten Wert von ((Imax + Imin)/2) verwenden. Bei der Schätzung von ((Imax + Imin)/2) werden ferner Pixel, die sich hinsichtlich der Polarisationsrichtung um 90 Grad in einem Gebiet nahe dem Zentrum der optischen Achsen unterscheiden, verwendet, um den Einfluss des Zenitwinkels θ zu beseitigen.
  • Insbesondere führt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 eine Berechnung, wie in Gleichung (28) angegeben, durch, indem die gleiche Anzahl an Pixelwerten für jede Polarisationsrichtung (m Pixelwerte mit der i-Richtung und m Pixelwerte mit j-Richtung) in dem Gebiet nahe dem Zentrum der optischen Achse verwendet wird, und betrachtet den berechneten Mittelwert als den geschätzten Wert ((Imax + Imin)/2)basis.
    [Math. 7] ( I max + I min 2 ) base = i , j m c1 ij + i , j m c2 ij + i , j m c3 ij + i , j m c4 ij 4 m
    Figure DE112017004203T5_0028
  • Ferner berechnet der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 den idealen Leuchtdichtenwert ID durch Durchführen einer Berechnung, wie in Gleichung (29) angegeben, durch Verwenden des Polarisationswinkels vpol, der die Polarisationsrichtung des Korrekturzielpixels HP angibt, des Azimutwinkels ϕ des Korrekturzielpixels HP, des Polarisationsgrads ρ und des geschätzten Werts ((Imax + Imin)/2)basis.
    [Math. 8] ID = ( I max + I min 2 ) basis ( 1 + ρ cos 2 ( ν pol ϕ ) )
    Figure DE112017004203T5_0029
  • Zudem erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 die Variationskorrekturinformationen GVij durch Verwenden von Gleichung (30) in Übereinstimmung mit dem Pixelwert Cij des Korrekturzielpixels HP bei der Pixelposition (i, j) und mit dem idealen Leuchtdichtenwert IDij. GVij = IDij/Cij
    Figure DE112017004203T5_0030
  • Wie oben beschrieben, berücksichtigt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-3 jedes Pixel eines Polarisationsbildes als das Korrekturzielpixel, erzeugt die Korrekturinformationen GV für jedes Pixel und bewirkt, dass der Korrekturinformationsspeicherungsabschnitt 30 die erzeugten Korrekturinformationen GV speichert.
  • Falls ein telezentrisches optisches System als das optische Abbildungssystem des Polarisationsbilderfassungsabschnitts 20 verwendet wird, ist dagegen jedes Pixel der Streuscheibe zugewandt, unabhängig davon, ob die flache Streuscheibe oder die sphärische Streuscheibe verwendet wird. Falls die flache Streuscheibe und das telezentrische optische System verwendet werden, können daher die Variationskorrekturinformationen auf eine der zweiten Ausführungsform ähnliche Weise erzeugt werden.
  • <Vierte Ausführungsform des
  • Korrekturinformationserzeugungsabschnitts>
  • 20 ist ein Diagramm, das eine vierte Ausführungsform des Korrekturinformationserzeugungsabschnitts veranschaulicht. Ein Messlichtabstrahlungsabschnitt 51-4 in einem Korrekturinformationserzeugungsabschnitt 50-4 arbeitet so, dass das Beleuchtungslicht von der Lichtquelle LT durch die flache Streuscheibe DBb auf den Polarisationsbildaufnahmeabschnitt 20 einfällt. Ein Korrekturinformationserzeugungsverarbeitungsabschnitt 52-4 bewirkt, dass ein Korrekturzielpixel der flachen Streuscheibe DBb zugewandt ist, indem ein Drehabschnitt 53 gesteuert wird. Der Drehabschnitt 53 dreht den Polarisationsbildaufnahmeabschnitt 20 in der Schwenkrichtung oder in der Neigungsrichtung. Ferner erzeugt der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-4 die Variationskorrekturinformationen bezüglich des Korrekturzielpixels auf eine der ersten oder zweiten Ausführungsform ähnliche Weise, indem die Pixelwerte von Pixeln um das Korrekturzielpixel herum und die Pixelwerte des Korrekturzielpixels, das der flachen Streuscheibe DBb zugewandt ist, verwendet werden.
  • 21 ist ein Flussdiagramm, das einen Betrieb gemäß der vierten Ausführungsform veranschaulicht. In Schritt ST41 bewirkt der Korrekturinformationserzeugungsabschnitt, dass das Korrekturzielpixel der flachen Streuscheibe zugewandt ist. Der Korrekturinformationserzeugungsabschnitt 50-4 treibt den Polarisationsbildaufnahmeabschnitt 20 in der Schwenkrichtung oder in der Neigungsrichtung an, bis das Korrekturzielpixel des Polarisationsbildaufnahmeabschnitts 20 der flachen Streuscheibe zugewandt ist. Bei Abschluss von Schritt ST41 geht der Korrekturinformationserzeugungsabschnitt 50-4 zu Schritt ST42 über.
  • In Schritt ST42 erlangt der Korrekturinformationserzeugungsabschnitt 50-4 ein gemessenes Polarisationsbild durch Verwenden der flachen Streuscheibe. Der Korrekturinformationserzeugungsabschnitt 50-1 bewirkt, dass der Messlichtabstrahlungsabschnitt 51-1 Beleuchtungslicht durch die flache Streuscheibe auf den Polarisationsbildaufnahmeabschnitt 20 emittiert, bewirkt, dass der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-4 das gemessene Polarisationsbild erlangt, das durch den Polarisationsbildaufnahmeabschnitt 20 erzeugt wird, und geht dann zu Schritt ST43 über.
  • In Schritt ST43 erzeugt der Korrekturinformationserzeugungsabschnitt Variationskorrekturinformationen. Der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-4 in dem Korrekturinformationserzeugungsabschnitt 50-4 erzeugt die Variationskorrekturinformationen, die einen Korrekturwert für das Korrekturzielpixel oder für die Polarisationsrichtung des Korrekturzielpixels angeben, wie es bei der ersten und zweiten Ausführungsform der Fall ist, und geht dann zu Schritt ST44 über.
  • In Schritt ST44 bestimmt der Korrekturinformationserzeugungsabschnitt, ob ein Variationskorrekturinformationserzeugungsprozess beendet werden soll oder nicht. Der Korrekturinformationserzeugungsabschnitt 50-4 bestimmt, ob die Erzeugung von Variationskorrekturinformationen bezüglich gewünschter Pixel abgeschlossen ist. Falls die Erzeugung von Variationskorrekturinformationen für ein oder mehrere Pixel nicht abgeschlossen ist, geht der Korrekturinformationserzeugungsabschnitt 50-4 zu Schritt ST45 über. Falls die Erzeugung von Variationskorrekturinformationen für die gewünschten Pixel abgeschlossen ist, geht dagegen der Korrekturinformationserzeugungsabschnitt 50-4 zu Schritt ST46 über.
  • In Schritt ST45 aktualisiert der Korrekturinformationserzeugungsabschnitt das Korrekturzielpixel. Der Korrekturinformationserzeugungsabschnitt 50-4 berücksichtigt ein Pixel, dessen Variationskorrekturinformationen immer noch nicht erzeugt sind, als ein neues Korrekturzielpixel, kehrt zu Schritt ST41 zurück und bewirkt, dass das neue Korrekturzielpixel der flachen Streuscheibe zugewandt ist.
  • In Schritt ST46 veranlasst der Korrekturinformationserzeugungsabschnitt, dass die Variationskorrekturinformationen gespeichert werden. Der Korrekturinformationserzeugungsverarbeitungsabschnitt 52-4 in dem Korrekturinformationserzeugungsabschnitt 50-4 bewirkt, dass der Korrekturinformationsspeicherungsabschnitt 30 die erzeugten Variationskorrekturinformationen speichert.
  • Falls die Orientierung des Polarisationsbildaufnahmeabschnitts 20 in der Schwenkrichtung oder in der Neigungsrichtung angepasst werden soll, so dass das Korrekturzielpixel der flachen Streuscheibe zugewandt ist, ist ein Hochpräzisionsorientierungsanpassungsmechanismus erforderlich, um Anpassungen vorzunehmen, bis jedes Pixel der flachen Streuscheibe zugewandt ist. Daher können die Variationskorrekturinformationen erzeugt werden, während ein Pixel in jedem durch mehrere Pixel gebildeten Gebiet als das Korrekturzielpixel betrachtet wird, und die erzeugte Variationskorrekturinformationen können als die Variationskorrekturinformationen für jedes Pixel in dem Gebiet verwendet werden.
  • Die erste bis dritte Ausführungsform wurden oben unter Bezugnahme auf einen Fall, bei dem die Variationskorrekturinformationen für jede Polarisationsrichtung zu erzeugen sind, und auf einen Fall, bei dem die Variationskorrekturinformationen für jedes Pixel zu erzeugen sind, beschrieben. Ferner wurde die vierte Ausführungsform unter Bezugnahme auf einen Fall beschrieben, bei dem die Variationskorrekturinformationen für jedes Pixel zu erzeugen sind. Jedoch kann der Korrekturinformationserzeugungsabschnitt bei der vierten Ausführungsform die Variationskorrekturinformationen für jede Polarisationsrichtung oder jedes Pixel erzeugen und bewirken, dass der Korrekturinformationsspeicherungsabschnitt 30 die erzeugten Variationskorrekturinformationen speichert. Falls zum Beispiel die Empfindlichkeitsvariationen von Pixeln mit der gleichen Polarisationsrichtung offensichtlich kleiner als der Schwellenwert in dem Polarisationsbildaufnahmeabschnitt 20 sind, werden die Variationskorrekturinformationen für jede Polarisationsrichtung erzeugt. Falls die Empfindlichkeitsvariationen von Pixeln mit der gleichen Polarisationsrichtung offensichtlich nicht kleiner als der Schwellenwert sind, werden dagegen die Variationskorrekturinformationen für jedes Pixel erzeugt. Es ist zu beachten, dass, falls die Variationskorrekturinformationen für jede Polarisationsrichtung erzeugt werden, die Menge an Daten, die die Variationskorrekturinformationen angeben, kleiner als in einem Fall ist, bei dem die Variationskorrekturinformationen für jedes Pixel erzeugt werden. Daher kann die Speicherkapazität des Korrekturinformationsspeicherungsabschnitts 30 verringert werden. Des Weiteren muss der Korrekturverarbeitungsabschnitt 40 die Variationskorrekturinformationen nicht für jedes Pixel aus dem Korrekturinformationsspeicherungsabschnitt 30 lesen. Daher kann der Korrekturprozess effizient durchgeführt werden. Zudem kann, selbst wenn signifikante Variationen in einem Fall auftreten, bei dem die Variationskorrekturinformationen für jedes Pixel zu erzeugen sind, der Korrekturprozess genauer als in einem Fall durchgeführt werden, bei dem die Variationskorrekturinformationen für jede Polarisationsrichtung zu erzeugen sind.
  • <Alternative Konfigurationen und Betriebe>
  • Übrigens wird zur Erzeugung von Variationskorrekturinformationen ein vorbestimmtes optisches Abbildungssystem, das zum Montieren des Polarisationsbildaufnahmeabschnitts 20 in beispielsweise verschiedenen Vorrichtungen verwendet wird, an dem Polarisationsbildaufnahmeabschnitt 20 angebracht. In diesem Fall fällt Messlicht gemäß den Charakteristiken des vorbestimmten optischen Abbildungssystems durch den Polarisator und das Farbfilter auf den Bildsensor 200 ein. Daher ist der Korrekturinformationserzeugungsabschnitt 50 dazu in der Lage, die Variationskorrekturinformationen für jedes Pixel zu erzeugen, um Variationskorrekturinformationen zum Korrigieren einer durch das vorbestimmte optische Abbildungssystem verursachten Schattierung sowie von Empfindlichkeitsvariationen, die beispielsweise durch Polarisatorvariationen verursacht werden, zu erzeugen.
  • Wenn die Variationskorrekturinformationen für jedes Pixel ohne Verwendung des optischen Abbildungssystems erzeugt werden, ist ferner der Korrekturinformationserzeugungsabschnitt dazu in der Lage, die Variationskorrekturinformationen nur zum Korrigieren von lediglich Empfindlichkeitsvariationen erzeugen, die beispielsweise durch Polarisatorvariationen verursacht werden. Falls Pixelwerte eines Polarisationsbildes, das mit dem angebrachten optischen Abbildungssystem erfasst wird, durch Verwenden der Variationskorrekturinformationen für jedes Pixel, die nur Empfindlichkeitsvariationen korrigieren, korrigiert werden, repräsentieren Pixelwertvariationen in dem korrigierten Polarisationsbild Variationen, die durch die Charakteristiken des optischen Abbildungssystems verursacht werden. Daher ermöglicht das Verwenden der Variationskorrekturinformationen für jedes Pixel, die nur Empfindlichkeitsvariationen korrigieren, die Charakteristiken des optischen Abbildungssystems zu messen, die mit einer Polarisationsbildaufnahme in Bezug stehen.
  • <Beispielanwendungen>
  • Die Technologie gemäß der vorliegenden Offenbarung ist auf verschiedene Produkte anwendbar. Die Technologie gemäß der vorliegenden Offenbarung kann zum Beispiel als eine Vorrichtung implementiert werden, die in einem von verschiedenen Typen von beweglichen Objekten, wie etwa Kraftfahrzeugen, Elektrokraftfahrzeugen, Hybrid-Elektrokraftfahrzeugen, Motorrädern, Fahrrädern, persönlichen Mobilitätsvorrichtungen, Flugzeugen, Drohnen, Schiffen, Robotern, Baumaschinen und landwirtschaftlichen Maschinen (Traktoren), anzubringen ist.
  • 22 ist ein Blockdiagramm, das ein Beispiel für eine schematische Konfiguration eines Fahrzeugsteuersystems 7000 als ein Beispiel für ein Mobilkörpersteuersystem darstellt, auf das die Technologie gemäß der vorliegenden Offenbarung angewandt werden kann. Das Fahrzeugsteuersystems 7000 beinhaltet mehrere elektronische Steuereinheiten, die über ein Kommunikationsnetz 7010 miteinander verbunden sind. Bei dem in 22 dargestellten Beispiel beinhaltet das Fahrzeugsteuersystem 7000 eine Fahrsystemsteuereinheit 7100, eine Karosseriesystemsteuereinheit 7200, eine Batteriesteuereinheit 7300 eine Fahrzeugaußenbereichsinformationsdetektionseinheit 7400, eine Fahrzeuginnenbereichsinformationsdetektionseinheit 7500 und eine integrierte Steuereinheit 7600. Das Kommunikationsnetz 7010, das die mehreren Steuereinheiten miteinander verbindet, kann zum Beispiel ein fahrzeugmontiertes Kommunikationsnetz sein, das einem beliebigen Standard entspricht, wie beispielsweise Controller Area Network (CAN), Local Interconnect Network (LIN), Local Area Network (LAN), FlexRay oder dergleichen.
  • Jede der Steuereinheiten beinhaltet Folgendes: einen Mikrocomputer, der eine arithmetische Verarbeitung gemäß verschiedenen Arten von Programmen durchführt; einen Speicherungsabschnitt, der die durch den Mikrocomputer ausgeführten Programme, Parameter für verschiedene Arten von Operationen und dergleichen speichert; und einen Ansteuerungsschaltkreis, der verschiedene Arten von Steuerzielvorrichtungen ansteuert. Jede der Steuereinheiten beinhaltet ferner Folgendes: eine Netz-Schnittstelle (I/F: Interface) zum Durchführen einer Kommunikation mit anderen Steuereinheiten über das Kommunikationsnetz 7010; und eine Kommunikations-I/F zum Durchführen einer Kommunikation mit einer Vorrichtung, einem Sensor oder dergleichen innerhalb und außerhalb des Fahrzeugs durch drahtgebundene oder drahtlose Kommunikation. Eine funktionale Konfiguration der in 22 veranschaulichten integrierten Steuereinheit 7600 beinhaltet einen Mikrocomputer 7610, eine Mehrzweck-Kommunikations-I/F 7620, eine dedizierte Kommunikations-I/F 7630, einen Positionierungsabschnitt 7640, einen Beacon-Empfangsabschnitt 7650, eine Fahrzeuginnenbereichsvorrichtung-I/F 7660, einen Ton/Bild-Ausgabeabschnitt 7670, eine Fahrzeugmontiertes-Netz-I/F 7680 und einen Speicherungsabschnitt 7690. Die anderen Steuereinheiten beinhalten gleichermaßen einen Mikrocomputer, eine Kommunikations-I/F, einen Speicherungsabschnitt und dergleichen.
  • Die Fahrsystemsteuereinheit 7100 steuert den Betrieb von Vorrichtungen mit Bezug auf das Antriebssystem des Fahrzeugs gemäß verschiedenen Arten von Programmen. Zum Beispiel fungiert die Fahrsystemsteuereinheit 7100 als eine Steuervorrichtung für eine Antriebskrafterzeugungsvorrichtung zum Erzeugen der Antriebskraft des Fahrzeugs, wie etwa eines Verbrennungsmotors, eines Antriebsmotors oder dergleichen, eines Antriebskraftübertragungsmechanismus zum Übertragen der Antriebskraft an Räder, eines Lenkmechanismus zum Anpassen des Lenkwinkels des Fahrzeugs, einer Bremsvorrichtung zum Erzeugen der Bremskraft des Fahrzeugs und dergleichen. Die Fahrsystemsteuereinheit 7100 kann eine Funktion als eine Steuervorrichtung eines Antiblockiersystems (ABS), einer elektronischen Stabilitätssteuerung (ESC) oder dergleichen aufweisen.
  • Die Fahrsystemsteuereinheit 7100 ist mit einem Fahrzeugzustandsdetektionsabschnitt 7110 verbunden. Der Fahrzeugzustandsdetektionsabschnitt 7110 beinhaltet zum Beispiel einen Gyroskopsensor, der die Winkelgeschwindigkeit einer axialen Drehbewegung einer Fahrzeugkarosserie erfasst, und/oder einen Beschleunigungssensor, der die Beschleunigung des Fahrzeugs erfasst, und/oder Sensoren zum Detektieren eines Ausmaßes einer Betätigung eines Gaspedals, eines Ausmaßes einer Betätigung eines Bremspedals, des Lenkwinkels eines Lenkrads, einer Motordrehzahl oder der Drehzahl von Rädern und dergleichen. Die Fahrsystemsteuereinheit 7100 führt eine arithmetische Verarbeitung unter Verwendung eines von dem Fahrzeugzustandsdetektionsabschnitt 7110 eingegebenen Signals durch und steuert den Verbrennungsmotor, den Antriebsmotor, eine elektrische Servolenkungsvorrichtung, die Bremsvorrichtung und dergleichen.
  • Die Karosseriesystemsteuereinheit 7200 steuert den Betrieb verschiedener Arten von Vorrichtungen, die an der Fahrzeugkarosserie bereitgestellt sind, gemäß verschiedenen Arten von Programmen. Zum Beispiel fungiert die Karosseriesystemsteuereinheit 7200 als eine Steuervorrichtung für ein schlüsselloses Zugangssystem, eines Smart-Schlüssel-Systems, einer elektrischen Fensterhebervorrichtung oder verschiedener Arten von Lampen, wie etwa eines Scheinwerfers, einer Rückleuchte, eines Bremslichts, eines Fahrtrichtungssignals, eines Nebellichts oder dergleichen. In diesem Fall können Funkwellen, die von einer mobilen Vorrichtung übertragen werden, als eine Alternative zu einem Schlüssel oder Signale verschiedener Arten von Schaltern in die Karosseriesystemsteuereinheit 7200 eingegeben werden. Die Karosseriesystemsteuereinheit 7200 empfängt diese eingegebenen Funkwellen oder Signale und steuert eine Türverriegelungsvorrichtung, die elektrische Fensterhebervorrichtung, die Lampen oder dergleichen des Fahrzeugs.
  • Die Batteriesteuereinheit 7300 steuert eine Sekundärbatterie 7310, die eine Leistungsversorgungsquelle für den Antriebsmotor ist, gemäß verschiedenen Arten von Programmen. Zum Beispiel wird die Batteriesteuereinheit 7300 mit Informationen über eine Batterietemperatur, eine Batterieausgangsspannung, eine in der Batterie verbleibende Ladungsmenge oder dergleichen von einer Batterievorrichtung, die die Sekundärbatterie 7310 enthält, versorgt. Die Batteriesteuereinheit 7300 führt eine arithmetische Verarbeitung unter Verwendung dieser Signale durch und führt eine Steuerung zum Regeln der Temperatur der Sekundärbatterie 7310 durch oder steuert eine Kühlvorrichtung, die an der Batterievorrichtung bereitgestellt ist, oder dergleichen.
  • Die Fahrzeugaußenbereichsinformationsdetektionseinheit 7400 detektiert Informationen über den Außenbereich einschließlich des Fahrzeugsteuersystems 7000. Zum Beispiel ist die Fahrzeugaußenbereichsinformationsdetektionseinheit 7400 mit wenigstens einem Bildgebungsabschnitt 7410 und einem Fahrzeugaußenbereichsinformationsdetektionsabschnitt 7420 verbunden. Der Bildgebungsabschnitt 7410 beinhaltet eine Laufzeitkamera (ToF-Kamera) und/oder eine Stereokamera und/oder eine Monokularkamera und/oder eine Infrarotkamera und/oder andere Kameras. Der Fahrzeugaußenbereichsinformationsdetektionsabschnitt 7420 beinhaltet beispielsweise einen Umgebungssensor zum Detektieren aktueller atmosphärischer Bedingungen oder Wetterbedingungen und/oder einen Peripherieinformationsdetektionssensor zum Detektieren eines anderen Fahrzeugs, eines Hindernisses, eines Fußgängers oder dergleichen auf der Peripherie des Fahrzeugs einschließlich des Fahrzeugsteuersystems 7000.
  • Der Umgebungssensor kann zum Beispiel ein Regentropfensensor, der Regen detektiert, und/oder ein Nebelsensor, der einen Nebel detektiert, und/oder ein Sonnenscheinsensor, der einen Grad des Scheinens der Sonne detektiert, und/oder ein Schneesensor, der einen Schneefall detektiert, sein. Der Peripherieinformationsdetektionssensor kann ein Ultraschallsensor und/oder eine Radarvorrichtung und/oder eine LIDAR-Vorrichtung(Lichtdetektions- und Entfernungsmessvorrichtung oder Laserbildgebungsdetektions- und Entfernungsmessvorrichtung) sein. Sowohl der Bildgebungsabschnitt 7410 als auch der Fahrzeugaußenbereichsinformationsdetektionsabschnitt 7420 können als ein unabhängiger Sensor oder eine unabhängige Vorrichtung bereitgestellt sein oder können als eine Vorrichtung bereitgestellt sein, in der mehrere Sensoren oder Vorrichtungen integriert sind.
  • 23 stellt ein Beispiel für Installationspositionen des Bildgebungsabschnitts 7410 und des Fahrzeugaußenbereichsinformationsdetektionsabschnitts 7420 dar. Bildgebungsabschnitte 7910, 7912, 7914, 7916 und 7918 sind zum Beispiel an wenigstens einer von Positionen an einem Vorderende, Seitenspiegeln, einem hinteren Stoßfänger und einer Hecktür des Fahrzeugs 7900 und einer Position auf einem oberen Teil einer Windschutzscheibe im Inneren des Fahrzeugs angeordnet. Der Bildgebungsabschnitt 7910, der an dem Vorderende bereitgestellt ist, und der Bildgebungsabschnitt 7918, der an dem oberen Teil der Windschutzscheibe im Inneren des Fahrzeugs bereitgestellt ist, erhalten hauptsächlich ein Bild der Vorderseite des Fahrzeugs 7900. Die Bildgebungsabschnitte 7912 und 7914, die an den Seitenspiegeln bereitgestellt sind, erhalten hauptsächlich ein Bild der Seiten des Fahrzeugs 7900. Der Bildgebungsabschnitt 7916, der bei dem hinteren Stoßfänger oder der Hecktür bereitgestellt ist, erhält hauptsächlich ein Bild der Hinterseite des Fahrzeugs 7900. Der Bildgebungsabschnitt 7918, der an dem oberen Teil der Windschutzscheibe im Inneren des Fahrzeugs bereitgestellt ist, wird hauptsächlich dazu verwendet, ein vorausfahrendes Fahrzeug, einen Fußgänger, ein Hindernis, ein Signal, ein Verkehrszeichen, eine Fahrbahn oder dergleichen zu detektieren.
  • Übrigens zeigt 23 zeigt ein Beispiel für Fotografierbereiche der jeweiligen Bildgebungsabschnitte 7910, 7912, 7914 und 7916. Ein Bildgebungsbereich a repräsentiert den Bildgebungsbereich des an dem Vorderende bereitgestellten Bildgebungsabschnitts 7910. Die Bildgebungsbereiche b und c repräsentieren jeweils die Bildgebungsbereiche der Bildgebungsabschnitte 7912 und 7914, die an den Seitenspiegeln bereitgestellt sind.
  • Ein Bildgebungsbereich d repräsentiert den Bildgebungsbereich des Bildgebungsabschnitts 7916, der an dem hinteren Stoßfänger oder der Hecktür bereitgestellt ist. Ein von oben gesehenes Vogelperspektivenbild des Fahrzeugs 7900 kann zum Beispiel durch Überlagern von Bilddaten, die von den Bildgebungsabschnitten 7910, 7912, 7914 und 7916 abgebildet werden, erhalten werden.
  • Fahrzeugaußenbereichsinformationsdetektionsabschnitte 7920, 7922, 7924, 7926, 7928 und 7930, die an der Vorderseite, der Rückseite, den Seiten und den Ecken des Fahrzeugs 7900 und dem oberen Teil der Windschutzscheibe im Inneren des Fahrzeugs bereitgestellt sind, können zum Beispiel ein Ultraschallsensor oder eine Radarvorrichtung sein. Die Fahrzeugaußenbereichsinformationsdetektionsabschnitte 7920, 7926 und 7930, die an dem Vorderende des Fahrzeugs 7900, dem hinteren Stoßfänger, der Hecktür des Fahrzeugs 7900 und dem oberen Teil der Windschutzscheibe im Inneren des Fahrzeugs bereitgestellt sind, können zum Beispiel eine LIDAR-Vorrichtung sein. Diese Fahrzeugaußenbereichsinformationsdetektionsabschnitte 7920 bis 7930 werden hauptsächlich verwendet, um ein vorausfahrendes Fahrzeug, einen Fußgänger, ein Hindernis oder dergleichen zu erfassen.
  • Zurück zu 22 wird die Beschreibung fortgesetzt. Die Fahrzeugaußenbereichsinformationsdetektionseinheit 7400 bewirkt, dass Bildgebungsabschnitt 7410 ein Bild des Außenbereichs des Fahrzeugs abbildet, und empfängt Bilddaten. Außerdem empfängt die Fahrzeugaußenbereichsinformationsdetektionseinheit 7400 Detektionsinformationen von dem Fahrzeugaußenbereichsinformationsdetektionsabschnitt 7420, der mit der Fahrzeugaußenbereichsinformationsdetektionseinheit 7400 verbunden ist. Falls der Fahrzeugaußenbereichsinformationsdetektionsabschnitt 7420 ein Ultraschallsensor, eine Radarvorrichtung oder eine LIDAR-Vorrichtung ist, überträgt die Fahrzeugaußenbereichsinformationsdetektionseinheit 7400 eine Ultraschallwelle, eine elektromagnetische Welle oder dergleichen und empfängt Informationen einer empfangenen reflektierten Welle. Basierend auf den empfangenen Informationen kann die Fahrzeugaußenbereichsinformationsdetektionseinheit 7400 eine Verarbeitung zum Detektieren eines Objekts, wie etwa eines Menschen, eines Fahrzeugs, eines Hindernisses, eines Zeichens, eines Symbols auf einer Straßenoberfläche oder dergleichen oder eine Verarbeitung zum Detektieren einer Entfernung zu diesen durchführen. Die Fahrzeugaußenbereichsinformationsdetektionseinheit 7400 kann eine Umgebungserkennungsverarbeitung des Erkennens von Regen, von Nebel, von Straßenoberflächenbedingungen oder dergleichen basierend auf den empfangenen Informationen durchführen. Die Fahrzeugaußenbereichsinformationsdetektionseinheit 7400 kann eine Entfernung zu einem Objekt außerhalb des Fahrzeugs basierend auf den empfangenen Informationen berechnen.
  • Basierend auf den empfangenen Bilddaten kann die Fahrzeugaußenbereichsinformationsdetektionseinheit 7400 außerdem eine Bilderkennungsverarbeitung des Erkennens eines Menschen, eines Fahrzeugs, eines Hindernisses, eines Zeichens, eines Symbols auf einer Straßenoberfläche oder dergleichen oder eine Verarbeitung des Detektierens einer Entfernung zu diesen durchführen. Die Fahrzeugaußenbereichsinformationsdetektionseinheit 7400 kann die empfangenen Bilddaten einer Verarbeitung unterziehen, wie etwa einer Verzerrungskorrektur, einer Ausrichtung oder dergleichen, und die Bilddaten, die von mehreren verschiedenen Bildgebungsabschnitten 7410 abgebildet werden, kombinieren, um ein Bild aus der Vogelperspektive oder ein Panoramabild zu erzeugen. Die Fahrzeugaußenbereichsinformationsdetektionseinheit 7400 kann eine Sichtpunktumwandlungsverarbeitung unter Verwendung der Bilddaten durchführen, die durch den Bildgebungsabschnitt 7410 einschließlich der verschiedenen Bildgebungsteile abgebildet werden.
  • Die Fahrzeuginnenbereichsinformationsdetektionseinheit 7500 detektiert Informationen über den Innenbereich des Fahrzeugs. Die Fahrzeuginnenbereichsinformationsdetektionseinheit 7500 ist mit zum Beispiel mit einem Fahrerzustandsdetektionsabschnitt 7510 verbunden, der den Zustand eines Fahrers detektiert. Der Fahrerzustandsdetektionsabschnitt 7510 kann eine Kamera, die den Fahrer abbildet, einen Biosensor, der biologische Informationen des Fahrers detektiert, ein Mikrofon, das Ton im Inneren des Fahrzeugs sammelt, oder dergleichen beinhalten. Der Biosensor ist zum Beispiel in einer Sitzoberfläche, dem Lenkrad oder dergleichen angeordnet und detektiert biologische Informationen eines in einem Sitz sitzenden Insassen oder des Fahrers, der das Lenkrad hält. Basierend auf Detektionsinformationen, die von dem Fahrerzustandsdetektionsabschnitt 7510 eingegeben werden, kann die Fahrzeuginnenbereichsinformationsdetektionseinheit 7500 einen Ermüdungsgrad des Fahrers oder einen Konzentrationsgrad des Fahrers berechnen oder kann bestimmen, ob der Fahrer döst. Die Fahrzeuginnenbereichsinformationsdetektionseinheit 7500 kann ein Audiosignal, das durch die Sammlung des Tons erhalten wird, einer Verarbeitung unterziehen, wie etwa einer Rauschunterdrückungsverarbeitung oder dergleichen.
  • Die integrierte Steuereinheit 7600 steuert einen allgemeinen Betrieb innerhalb des Fahrzeugsteuersystems 7000 gemäß verschiedenen Arten von Programmen. Die integrierte Steuereinheit 7600 ist mit einem Eingabeabschnitt 7800 verbunden. Der Eingabeabschnitt 7800 wird durch eine Vorrichtung implementiert, die zu einem Eingabevorgang durch einen Insassen in der Lage ist, beispielsweise als ein Berührungsfeld, eine Taste, ein Mikrofon, ein Schalter, ein Hebel oder dergleichen. Die integrierte Steuereinheit 7600 kann mit Daten versorgt werden, die durch Spracherkennung einer Spracheingabe durch das Mikrofon erhalten werden. Der Eingabeabschnitt 7800 kann zum Beispiel eine Fernsteuervorrichtung, die Infrarotstrahlen oder andere Funkwellen verwendet, oder eine externe Verbindungsvorrichtung, wie beispielsweise ein Mobiltelefon, ein persönlicher digitaler Assistent (PDA) oder dergleichen, der den Betrieb des Fahrzeugsteuersystems 7000 überstützt, sein. Der Eingabeabschnitt 7800 kann zum Beispiel eine Kamera sein. In diesem Fall kann ein Insasse Informationen durch eine Geste eingeben. Alternativ dazu können Daten eingegeben werden, die durch Detektieren der Bewegung einer Wearable-Vorrichtung erhalten werden, die ein Insasse trägt. Ferner kann der Eingabeabschnitt 7800 zum Beispiel einen Eingabesteuerschaltkreis oder dergleichen beinhalten, der ein Eingabesignal basierend auf Informationen, die durch einen Insassen oder dergleichen unter Verwendung des oben beschriebenen Eingabeabschnitts eingegeben werden, erzeugt und der das Eingabesignal a die integrierte Steuereinheit 7600 ausgibt. Ein Insasse oder dergleichen gibt verschiedene Arten von Daten ein oder gibt einen Befehl für einen Verarbeitungsvorgang an das Fahrzeugsteuersystem 7000 durch Betätigen des Eingabeabschnitts 7800.
  • Der Speicherungsabschnitt 7690 kann einen Nur-Lese-Speicher (ROM), der verschiedene Arten von Programmen speichert, die durch den Mikrocomputer ausgeführt werden, und einen Direktzugriffsspeicher (RAM), der verschiedene Arten von Parametern, Operationsergebnissen, Sensorwerten oder dergleichen speichert, beinhalten. Außerdem kann der Speicherungsabschnitt 7690 durch eine Magnetspeicherungsvorrichtung, wie etwa ein Festplattenlaufwerk (HDD) oder dergleichen, eine Halbleiterspeicherungsvorrichtung, eine optische Speicherungsvorrichtung, eine magnetooptische Speicherungsvorrichtung oder dergleichen implementiert sein.
  • Die Mehrzweck-Kommunikations-I/F 7620 ist eine weit verbreitete Kommunikations-I/F, wobei die Kommunikations-I/F die Kommunikation mit verschiedenen in einer externen Umgebung 7750 vorhandenen Geräten vermittelt. Die Mehrzweck-Kommunikations-I/F 7620 kann ein zellulares Kommunikationsprotokoll implementieren, wie etwa ein Global System for Mobile Communications (GSM), Worldwide interoperability for Microwave Access (WiMAX), Long Term Evolution(LTE)), LTE-Advanced (LTE-A) oder dergleichen, oder ein anderes Drahtloskommunikationsprotokoll, wie etwa Wireless LAN (auch als Wireless Fidelity (Wi-Fi), Bluetooth oder dergleichen bezeichnet). Die Mehrzweck-Kommunikations-I/F 7620 kann zum Beispiel über eine Basisstation oder einen Zugangspunkt zu einer Einrichtung (z. B. einem Anwendungsserver oder einem Steuerserver) verbinden, die in einem externen Netz (zum Beispiel dem Internet, einem Cloud-Netz oder einem unternehmensspezifischen Netz) vorhanden ist. Außerdem kann die Mehrzweck-Kommunikations-I/F 7620 zum Beispiel unter Verwendung einer Peer-to-Peer-Technologie (P2P) mit einem Endgerät verbinden, das in der Nähe des Fahrzeugs vorhandenen ist (wobei dieses Endgerät zum Beispiel ein Endgerät des Fahrers, eines Fußgängers oder eines Geschäfts oder eine Maschinentypkommunikation(MTC)-Endgerät ist).
  • Die dedizierte Kommunikations-I/F 7630 ist eine Kommunikations-I/F, die ein Kommunikationsprotokoll unterstützt, das zur Verwendung in Fahrzeugen entwickelt wurde. Die dedizierte Kommunikations-I/F 7630 kann ein Standardprotokoll implementieren, wie etwa zum Beispiel als drahtlosen Zugang in einer Fahrzeugumgebung (WAVE: Wireless Access in Vehicle Environment), was eine Kombination aus Institute-of-Electrical-and-Electronic-Engineers(IEEE)-802.11p als eine untere Schicht und IEEE-1609 als eine höhere Schicht ist, dedizierte Kurzstreckenkommunikation (DSRC: Dedicated Short Range Communications) oder ein zellulares Kommunikationsprotokoll. Die dedizierte Kommunikations-I/F 7630 führt typischerweise eine V2X-Kommunikation als ein Konzept aus, das Kommunikation zwischen einem Fahrzeug und einem Fahrzeug (Fahrzeug zu Fahrzeug) und/oder Kommunikation zwischen einer Straße und einem Fahrzeug (Fahrzeug zu Infrastruktur) und/oder Kommunikation zwischen einem Fahrzeug und einem Zuhause (Vehicle zu Zuhause) und Kommunikation zwischen einem Fußgänger und einem Fahrzeug (Fahrzeug zu Fußgänger) beinhaltet.
  • Der Positionierungsabschnitt 7640 führt zum Beispiel eine Positionierung durch, indem er ein Signal eines globalen Navigationssatellitensystems (GNSS) von einem GNSS-Satelliten empfängt (zum Beispiel ein GPS-Signal von einem Globales-Positionierungssystems(GPS)-Satelliten), und erzeugt Positionsinformationen einschließlich des Breitengrads, Längengrads und der Höhe des Fahrzeugs. Übrigens kann der Positionierungsabschnitt 7640 eine aktuelle Position durch Austauschen von Signalen mit einem drahtlosen Zugangspunkt identifizieren oder kann die Positionsinformationen von einem Endgerät, wie etwa einem Mobiltelefon, einem Personal-Handyphone-System (PHS) oder einem Smartphone, das eine Positionierfunktion aufweist, erhalten.
  • Der Beacon-Empfangsabschnitt 7650 empfängt zum Beispiel eine Funkwelle oder eine elektromagnetische Welle, die von einer auf einer Straße installierten Funkstation oder dergleichen übertragen wird, und erhält dadurch Informationen über die aktuelle Position, Stau, eine geschlossene Straße, eine notwendige Zeit oder dergleichen. Übrigens kann die Funktion des Beacon-Empfangsabschnitts 7650 in der oben beschriebenen dedizierten Kommunikations-I/F 7630 enthalten sein.
  • Die Fahrzeuginnenbereichsvorrichtung-I/F 7660 ist eine Kommunikationsschnittstelle, die die Verbindung zwischen dem Mikrocomputer 7610 und verschiedenen Fahrzeuginnenbereichsvorrichtungen 7760 vermittelt. Die Fahrzeuginnenbereichsvorrichtung-I/F 7660 kann eine drahtlose Verbindung unter Verwendung eines Drahtloskommunikationsprotokolls, wie etwa Wireless LAN, Bluetooth, Nahfeldkommunikation (NFC) oder Wireless Universal Serial Bus (WUSB), herstellen. Außerdem kann die Fahrzeuginnenbereichsvorrichtung-I/F 7660 eine drahtgebundene Verbindung durch Universal Serial Bus (USB), High-Definition Multimedia Interface (HDMI), Mobile High-Definition Link (MHL) oder dergleichen über einen in den Figuren nicht dargestellten Verbindungsanschluss (und ggf. ein Kabel) herstellen. Die Fahrzeuginnenbereichsvorrichtungen 7760 können zum Beispiel eine mobile Vorrichtung und/oder eine Wearable-Vorrichtung, die ein Insasse besitzt, und/oder eine Informationsvorrichtung, die in dem Fahrzeug mitgeführt oder daran befestigt ist, beinhalten. Die Fahrzeuginnenbereichsvorrichtungen 7760 können auch eine Navigationsvorrichtung beinhalten, die nach einem Weg zu einem beliebigen Ziel sucht. Die Fahrzeuginnenbereichsvorrichtung-I/F 7660 tauscht Steuersignale oder Datensignale mit diesen Fahrzeuginnenbereichsvorrichtungen 7760 aus.
  • Die Fahrzeugmontiertes-Netz-I/F 7680 ist eine Schnittstelle, die eine Kommunikation zwischen dem Mikrocomputer 7610 und dem Kommunikationsnetz 7010 vermittelt. Die Fahrzeugmontiertes-Netz-I/F 7680 überträgt und empfängt Signale oder dergleichen in Übereinstimmung mit einem vorbestimmten Protokoll, das durch das Kommunikationsnetz 7010 unterstützt wird.
  • Der Mikrocomputer 7610 der integrierten Steuereinheit 7600 steuert das Fahrzeugsteuersystem 7000 gemäß verschiedenen Arten von Programmen basierend auf Informationen, die über die Mehrzweck-Kommunikations-I/F 7620 und/oder die dedizierte Kommunikations-I/F 7630 und/oder den Positionierungsabschnitt 7640 und/oder den Beacon-Empfangsabschnitt 7650 und/oder die Fahrzeuginnenbereichsvorrichtung-I/F 7660 und/oder die Fahrzeugmontiertes-Netz-I/F 7680 erhalten werden. Zum Beispiel kann der Mikrocomputer 7610 einen Steuerzielwert für die Antriebskrafterzeugungsvorrichtung, den Lenkmechanismus oder die Bremsvorrichtung basierend auf den erhaltenen Informationen über den Innenbereich und den Außenbereich des Fahrzeugs berechnen und einen Steuerbefehl an die Fahrsystemsteuereinheit 7100 ausgeben. Zum Beispiel kann der Mikrocomputer 7610 eine kooperative Steuerung durchführen, die zum Implementieren von Funktionen eines Fahrassistenzsystems (FAS) vorgesehen ist, dessen Funktionen eine Kollisionsvermeidung oder Stoßabschwächung für das Fahrzeug, eine Folgefahrt basierend auf einem Folgeabstand, eine Fahrt mit Geschwindigkeitsbeibehaltung, eine Fahrzeugkollisionswarnung, eine Fahrzeugspurverlassenwarnung beinhalten. Außerdem kann der Mikrocomputer 7610 eine kooperative Steuerung durchführen, die für automatisches Fahren, das bewirkt, dass das Fahrzeug autonom ohne Abhängigkeit von der Bedienung des Fahrers fährt, oder dergleichen vorgesehen ist, indem die Antriebskrafterzeugungsvorrichtung, der Lenkmechanismus, die Bremsvorrichtung oder dergleichen basierend auf den erhaltenen Informationen über die Umgebung des Fahrzeugs gesteuert werden.
  • Der Mikrocomputer 7610 kann dreidimensionale Entfernungsinformationen zwischen dem Fahrzeug und einem Objekt, wie etwa einer umgebenden Struktur, einer Person oder dergleichen, erzeugen und lokale Karteninformationen einschließlich Informationen über die Umgebung der aktuellen Position des Fahrzeugs basierend auf Informationen, die über die Mehrzweck-Kommunikations-I/F 7620, die dedizierte Kommunikations-I/F 7630, den Positionierungsabschnitt 7640, den Beacon-Empfangsabschnitt 7650, die Fahrzeuginnenbereichsvorrichtung-I/F 7660 und das Fahrzeugmontiertes-Netz-I/F 7680 erhalten werden, erzeugen. Außerdem kann der Mikrocomputer 7610 basierend auf den erhaltenen Informationen eine Gefahr, wie etwa eine Kollision des Fahrzeugs, eine Annäherung eines Fußgängers oder dergleichen, eine Einfahrt in eine geschlossene Straße oder dergleichen vorhersagen und ein Warnsignal erzeugen. Das Warnsignal kann zum Beispiel ein Signal zum Produzieren eines Warntons oder Erleuchten einer Warnlampe sein.
  • Der Ton/Bild-Ausgabeabschnitt 7670 überträgt ein Ausgabesignal eines Tons und/oder eines Bildes an eine Ausgabevorrichtung, die dazu in der Lage ist, visuell oder akustisch Informationen einem Insassen des Fahrzeuges oder dem Außenbereich des Fahrzeugs mitzuteilen. Bei dem Beispiel aus 22 sind ein Audiolautsprecher 7710, ein Anzeigeabschnitt 7720 und ein Instrumentenfeld 7730 als die Ausgabevorrichtung veranschaulicht. Der Anzeigeabschnitt 7720 kann zum Beispiel eine On-Board-Anzeige und/oder eine Head-Up-Anzeige beinhalten. Der Anzeigeabschnitt 7720 kann eine Anzeigefunktion mit erweiterter Realität (AR: Augmented Reality) aufweisen. Die Ausgabevorrichtung kann anders als diese Vorrichtungen sein und kann eine andere Vorrichtung sein, wie Kopfhörer, eine Wearable-Vorrichtung, wie etwa eine Anzeige vom Brillentyp, die von einem Insassen oder dergleichen getragen wird, ein Projektor, eine Lampe oder dergleichen. Falls die Ausgabevorrichtung eine Anzeigevorrichtung ist, zeigt die Anzeigevorrichtung visuell Ergebnisse, die durch verschiedene Arten einer durch den Mikrocomputer 7610 durchgeführten Verarbeitung erhalten wurden, oder Informationen, die von einer anderen Steuereinheit erhalten wurden, in verschiedenen Formen, wie beispielsweise Text, ein Bild, eine Tabelle, ein Graph oder dergleichen an. Falls die Ausgabevorrichtung eine Audioausgabevorrichtung ist, wandelt die Audioausgabevorrichtung ein Audiosignal, das aus reproduzierten Audiodaten oder Tondaten oder dergleichen besteht, in ein analoges Signal um und gibt das analoge Signal auditorisch aus.
  • Übrigens können wenigstens zwei Steuereinheiten, die über das Kommunikationsnetz 7010 in dem in 22 gezeigten Beispiel miteinander verbunden sind, in eine Steuereinheit integriert sein. Alternativ dazu kann jede einzelne Steuereinheit mehrere Steuereinheiten beinhalten. Ferner kann das Fahrzeugsteuersystem 7000 eine andere Steuereinheit beinhalten, die nicht in den Figuren dargestellt ist. Außerdem kann ein Teil oder die Gesamtheit der Funktionen, die durch eine der Steuereinheiten in der obigen Beschreibung durchgeführt werden, einer anderen Steuereinheit zugewiesen werden. Das heißt, eine vorbestimmte arithmetische Verarbeitung kann durch eine beliebige der Steuereinheiten durchgeführt werden, solange Informationen über das Kommunikationsnetz 7010 übertragen und empfangen werden. Gleichermaßen kann ein Sensor oder eine Vorrichtung, der/die mit einer der Steuereinheiten verbunden ist, mit einer anderen Steuereinheit verbunden sein, und können mehrere Steuereinheiten Detektionsinformationen über das Kommunikationsnetz 7010 übertragen senden und empfangen.
  • In dem oben beschriebenen Fahrzeugsteuersystem 7000 verwenden die Bildgebungsabschnitte 7410, 7910, 7912, 7914, 7916, 7918 den Polarisationsbildaufnahmeabschnitt. Ferner beinhaltet die integrierte Steuerung 7600, die in einer in 22 dargestellten beispielhaften Anwendung enthalten ist, den Korrekturinformationsspeicherungsabschnitt 30 und den Korrekturverarbeitungsabschnitt 40. Diese Konfiguration ermöglicht, dass die Bildgebungsabschnitte 7410, 7910, 7912, 7914, 7916, 7918 Polarisationsbilder mit unbedeutenden Empfindlichkeitsvariationen aufnehmen. Daher können die aufgenommenen Polarisationsbilder zum Beispiel zur Fahrtunterstützung und Fahrtsteuerung verwendet werden. Es sei angemerkt, dass der Korrekturinformationsspeicherungsabschnitt 30 und der Korrekturverarbeitungsabschnitt 40 durch ein Modul (z. B. ein aus einem einzigen Die gebildetes integriertes Schaltkreismodul) für die in 22 dargestellte integrierte Steuerung 7600 implementiert sein können.
  • Eine Reihe von in dieser Beschreibung beschriebenen Prozessen kann durch Hardware, Software oder eine Kombination aus beiden durchgeführt werden. Falls die Prozesse durch Software durchgeführt werden sollen, ist es möglich, ein Programm, das eine Verarbeitungssequenz aufzeichnet, in einem Speicher in einem Computer, der in dedizierter Hardware eingebaut ist, zu installieren und dann das Programm auszuführen oder das Programm in einem Mehrzweckcomputer zu installieren, der dazu in der Lage ist, verschiedene Prozesse durchzuführen, und dann das Programm auszuführen.
  • Zum Beispiel kann das Programm auf einer Festplatte, einer SSD (Solid-State-Laufwerk) oder einem ROM (Nur-Lese-Speicher), die als Aufzeichnungsmedien verwendet werden, voraufgezeichnet sein. Alternativ dazu kann das Programm temporär oder permanent auf einer Diskette, einer CD-ROM (Compact Disc Read-Only Memory), einer MO(magnetooptische)-Platte, einer DVD (Digital Versatile Disc), einer BD (Blu-ray-Disk (eingetragene Marke)), einer Magnetplatte, einer Halbleiterspeicherkarte oder einem anderen entfernbaren Aufzeichnungsmedium gespeichert werden. Ein solches entfernbares Aufzeichnungsmedium kann als sogenannte Package-Software geliefert werden.
  • Als eine Alternative zu dem Verfahren des Installierens des Programms auf einem Computer von einem entfernbaren Aufzeichnungsmedium kann das Programm auf eine drahtlose oder drahtgebundene Weise über ein Netz, wie etwa ein LAN (Local Area Network) oder das Internet, von einer Download-Seite zu dem Computer übertragen werden. In einem solchen Fall kann der Computer das übertragene Programm empfangen und es auf einer eingebauten Festplatte oder einem anderen Aufzeichnungsmedium installieren.
  • Die in dieser Beschreibung beschriebene Vorteile sind lediglich veranschaulichend und nicht beschränkend. Die vorliegende Technologie ist nicht auf die oben beschriebenen Vorteile beschränkt und kann zusätzliche Vorteile bereitstellen. Ferner ist die Interpretation der vorliegenden Technologie nicht auf jene in Verbindung mit den vorhergehenden Ausführungsformen beschriebenen beschränkt. Die Ausführungsformen der vorliegenden Technologie offenbaren die vorliegende Technologie auf eine veranschaulichende Weise. Es ist offensichtlich, dass die Ausführungsformen von Fachleuten modifiziert oder geändert werden können, ohne von der Idee und dem Schutzumfang der vorliegenden Technologie abzuweichen. Insbesondere sollte die Idee der vorliegenden Technologie unter Berücksichtigung der angehängten Ansprüche bestimmt werden.
  • Ferner kann die Bildverarbeitungsvorrichtung gemäß der vorliegenden Technologie auch die folgenden Konfigurationen annehmen.
    1. (1) Eine Bildverarbeitungsvorrichtung, die einen Korrekturverarbeitungsabschnitt beinhaltet, der vorab erzeugte Korrekturinformationen verwendet, um Empfindlichkeitsvariationen zu korrigieren, die in einem Polarisationsbild aufgrund eines Unterschiedes der Polarisationsrichtung verursacht werden.
    2. (2) Die Bildverarbeitungsvorrichtung, wie in (1) oben beschrieben, wobei das Polarisationsbild ein Pixel für jede von mehreren Polarisationsrichtungen beinhaltet und durch einen Polarisationsbildaufnahmeabschnitt aufgenommen wird, der ein Polarisationsbildgebungselement mit einem Polarisator angeordnet aufweist.
    3. (3) Die Bildverarbeitungsvorrichtung, wie in (1) oder (2) oben beschrieben, wobei die Korrekturinformationen für jede Polarisationsrichtung erzeugt werden.
    4. (4) Die Bildverarbeitungsvorrichtung, wie in einem von (1) bis (3) oben beschrieben, wobei die Korrekturinformationen für jede Pixelposition in dem Polarisationsbild erzeugt werden.
    5. (5) Die Bildverarbeitungsvorrichtung, wie in einem von (1) bis (4) oben beschrieben, wobei die Korrekturinformationen Informationen zum Korrigieren einer Schattierung in dem Polarisationsbild beinhalten.
    6. (6) Die Bildverarbeitungsvorrichtung, wie in einem von (1) bis (5) oben beschrieben, wobei das Polarisationsbild ein Farbbild beinhaltet und die Korrekturinformationen für jede Farbkomponente des Polarisationsbilds erzeugt werden.
    7. (7) Die Bildverarbeitungsvorrichtung, wie in (6) oben beschrieben, wobei die Korrekturinformationen Informationen zum Korrigieren eines Weißabgleichs in dem Polarisationsbilder beinhalten.
    8. (8) Die Bildverarbeitungsvorrichtung, wie in (2) oben beschrieben, wobei die Korrekturinformationen eine Korrekturverstärkung zum Korrigieren von Empfindlichkeitsvariationen, die in dem Polarisationsbild aufgrund des Unterschieds der Polarisationsrichtung erzeugt werden, basierend auf einem Polarisationsbild beinhalten, das durch den Polarisationsbildaufnahmeabschnitt aufgenommen wird, wenn ein Messlichtabstrahlungsabschnitt Messlicht mit einer gleichmäßigen Intensität auf den Polarisationsbildaufnahmeabschnitt emittiert.
    9. (9) Die Bildverarbeitungsvorrichtung, wie in einem von (1) bis (8) oben beschrieben, die ferner einen Korrekturinformationsspeicherungsabschnitt beinhaltet, der die Korrekturinformationen speichert.
  • Währenddessen kann die Informationserzeugungsvorrichtung gemäß der vorliegenden Technologie auch die folgenden Konfigurationen annehmen.
    1. (1) Eine Informationserzeugungsvorrichtung, die einen Messlichtabstrahlungsabschnitt und einen Korrekturinformationserzeugungsabschnitt beinhaltet. Der Messlichtabstrahlungsabschnitt emittiert Messlicht mit einer gleichmäßigen Intensität auf einen Polarisationsbildaufnahmeabschnitt, der ein Polarisationsbild aufnimmt. Der Korrekturinformationserzeugungsabschnitt erzeugt basierend auf dem Polarisationsbild, das durch die Polarisationsbildaufnahmeeinheit aufgenommen wird, wenn das Messlicht von dem Messlichtabstrahlungsabschnitt emittiert wird, Korrekturinformationen zum Korrigieren von Empfindlichkeitsvariationen, die in dem Polarisationsbild aufgrund des Unterschieds der Polarisationsrichtung erzeugt werden.
    2. (2) Die Informationsverarbeitungsvorrichtung, wie in (1) oben beschrieben, wobei der Messlichtabstrahlungsabschnitt nichtpolarisiertes Licht als das Messlicht emittiert.
    3. (3) Die Informationsverarbeitungsvorrichtung, wie in (1) oben beschrieben, wobei der Messlichtabstrahlungsabschnitt das Messlicht auf den Polarisationsbildaufnahmeabschnitt durch eine sphärische Streuscheibe emittiert.
    4. (4) Die Informationsverarbeitungsvorrichtung, wie in (1) oben beschrieben, wobei der Messlichtabstrahlungsabschnitt das Messlicht auf den Polarisationsbildaufnahmeabschnitt durch eine flache Streuscheibe emittiert und der Korrekturinformationserzeugungsabschnitt eine Orientierung des Polarisationsbildaufnahmeabschnitts mit Bezug auf die flache Streuscheibe ändert und dann die Korrekturinformationen erzeugt.
    5. (5) Die Informationsverarbeitungsvorrichtung, wie in (1) oben beschrieben, wobei der Messlichtabstrahlungsabschnitt das Messlicht auf den Polarisationsbildaufnahmeabschnitt durch eine flache Streuscheibe emittiert und der Korrekturinformationsabschnitt Korrekturinformationen für jedes Pixel basierend auf einer Brennlänge und einem Zentrum einer optischen Achse des Polarisationsbildaufnahmeabschnitts erzeugt.
  • [Industrielle Anwendbarkeit]
  • Basierend auf einem Polarisationsbild, das aufgenommen wird, wenn Messlicht mit gleichmäßiger Intensität auf den Polarisationsbildaufnahmeabschnitt, der Polarisationsbilder aufnimmt, emittiert wird, erzeugen die Bildverarbeitungsvorrichtung, die Informationserzeugungsvorrichtung und das Informationserzeugungsverfahren gemäß der vorliegenden Technologie Korrekturinformationen zum Korrigieren von Empfindlichkeitsvariationen, die in dem aufgenommenen Polarisationsbild aufgrund eines Unterschieds in der Polarisationsrichtung verursacht werden, vorab und verwenden die vorab erzeugten Korrekturinformationen, um einen Korrekturprozess an dem Polarisationsbild durchzuführen, um die Empfindlichkeitsvariationen aufgrund des Unterschieds der Polarisationsrichtung zu korrigieren. Daher sind die Bildverarbeitungsvorrichtung, die Informationserzeugungsvorrichtung und das Informationserzeugungsverfahren gemäß der vorliegenden Technologie dazu in der Lage, Polarisationsbilder mit hoher Qualität aufzunehmen, und sind für Einrichtungen geeignet, die eine Erkennung einer dreidimensionalen Form durchführen, zum Beispiel durch Verwenden von Polarisationsbilder.
  • Bezugszeichenliste
  • 10
    Polarisationsbildsystem
    20
    Polarisationsbildaufnahmeabschnitt
    30
    Korrekturinformationsspeicherungsabschnitt
    40
    Korrekturverarbeitungsabschnitt
    50, 50-1, 50-2, 50-3, 50-4
    Korrekturinformationserzeugungsabschnitt
    51-1, 51-2, 51-3, 51-4
    Messlichtabstrahlungsabschnitt
    52-1, 52-2, 52-3, 52-4
    Korrekturinformationserzeugungsverarbeitungsabschnitt
    53
    Drehungsabschnitt
    200
    Bildsensor
    201
    Polarisator
    202
    Farbfilter

Claims (15)

  1. Bildverarbeitungsvorrichtung, die Folgendes umfasst: einen Korrekturverarbeitungsabschnitt, der vorab erzeugte Korrekturinformationen verwendet, um Empfindlichkeitsvariationen, die in einem Polarisationsbild aufgrund eines Unterschiedes der Polarisationsrichtung verursacht werden, zu korrigieren.
  2. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei das Polarisationsbild ein Pixel für jede von mehreren Polarisationsrichtungen beinhaltet und durch einen Polarisationsbildaufnahmeabschnitt aufgenommen wird, der ein Polarisationsbildgebungselement mit einem Polarisator angeordnet aufweist.
  3. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Korrekturinformationen für jede Polarisationsrichtung erzeugt werden.
  4. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Korrekturinformationen für jede Pixelposition in dem Polarisationsbild erzeugt werden.
  5. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Korrekturinformationen Informationen zum Korrigieren einer Schattierung, die in den Polarisationsbildern verursacht wird, beinhalten.
  6. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei das Polarisationsbild ein Farbbild beinhaltet und die Korrekturinformationen für jede Farbkomponente des Polarisationsbilds erzeugt werden.
  7. Bildverarbeitungsvorrichtung nach Anspruch 6, wobei die Korrekturinformationen Informationen zum Korrigieren eines Weißabgleichs in dem Polarisationsbild beinhalten.
  8. Bildverarbeitungsvorrichtung nach Anspruch 2, wobei die Korrekturinformationen eine Korrekturverstärkung zum Korrigieren von Empfindlichkeitsvariationen, die in dem Polarisationsbild aufgrund des Unterschieds der Polarisationsrichtung erzeugt werden, basierend auf einem Polarisationsbild umfassen, das durch den Polarisationsbildaufnahmeabschnitt aufgenommen wird, wenn ein Messlichtabstrahlungsabschnitt Messlicht mit einer gleichmäßigen Intensität auf den Polarisationsbildaufnahmeabschnitt emittiert.
  9. Bildverarbeitungsvorrichtung nach Anspruch 1, die ferner Folgendes umfasst: einen Korrekturinformationsspeicherungsabschnitt, der die Korrekturinformationen speichert.
  10. Informationserzeugungsvorrichtung, die Folgendes umfasst: einen Messlichtabstrahlungsabschnitt, der Messlicht mit einer gleichmäßigen Intensität auf einen Polarisationsbildaufnahmeabschnitt emittiert, der ein Polarisationsbild aufnimmt; und einen Korrekturinformationserzeugungsverarbeitungsabschnitt, der Korrekturinformationen für Korrekturempfindlichkeitsvariationen, die in dem Polarisationsbild aufgrund eines Unterschieds der Polarisationsrichtung erzeugt werden, basierend auf dem Polarisationsbild erzeugt, das durch den Polarisationsbildaufnahmeabschnitt aufgenommen wird, wenn das Messlicht von dem Messlichtabstrahlungsabschnitt emittiert wird.
  11. Informationserzeugungsvorrichtung nach Anspruch 10, wobei der Messlichtabstrahlungsabschnitt nichtpolarisiertes Licht als das Messlicht emittiert.
  12. Informationserzeugungsvorrichtung nach Anspruch 10, wobei der Messlichtabstrahlungsabschnitt das Messlicht auf den Polarisationsbildaufnahmeabschnitt durch eine sphärische Streuscheibe emittiert.
  13. Informationserzeugungsvorrichtung nach Anspruch 10, wobei der Messlichtabstrahlungsabschnitt das Messlicht auf den Polarisationsbildaufnahmeabschnitt durch eine flache Streuscheibe emittiert, und der Korrekturinformationserzeugungsverarbeitungsabschnitt eine Orientierung des Polarisationsbildaufnahmeabschnitts mit Bezug auf die flache Streuscheibe ändert und dann die Korrekturinformationen erzeugt.
  14. Informationserzeugungsvorrichtung nach Anspruch 10, wobei der Messlichtabstrahlungsabschnitt das Messlicht auf den Polarisationsbildaufnahmeabschnitt durch die flache Streuscheibe emittiert, und der Korrekturinformationserzeugungsverarbeitungsabschnitt Korrekturinformationen für jedes Pixel basierend auf einer Brennweite und einem Zentrum einer optischen Achse des Polarisationsbildaufnahmeabschnitts erzeugt.
  15. Informationserzeugungsverfahren, das Folgendes umfasst: Emittieren von Messlicht mit einer gleichmäßigen Intensität von einem Messlichtabstrahlungsabschnitt auf einen Polarisationsbildaufnahmeabschnitt, der ein Polarisationsbild aufnimmt; und Erzeugen, durch einen Korrekturinformationserzeugungsverarbeitungsabschnitt, von Korrekturinformationen für Korrekturempfindlichkeitsvariationen, die in dem Polarisationsbild aufgrund des Unterschieds der Polarisationsrichtung erzeugt werden, basierend auf dem Polarisationsbild, das durch den Polarisationsbildaufnahmeabschnitt aufgenommen wird, wenn das Messlicht von dem Messlichtabstrahlungsabschnitt emittiert wird.
DE112017004203.8T 2016-08-24 2017-06-13 Bildverarbeitungsvorrichtung, informationserzeugungsvorrichtung und informationserzeugungsverfahren Pending DE112017004203T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016163627 2016-08-24
JP2016-163627 2016-08-24
PCT/JP2017/021793 WO2018037678A1 (ja) 2016-08-24 2017-06-13 画像処理装置および情報生成装置と情報生成方法

Publications (1)

Publication Number Publication Date
DE112017004203T5 true DE112017004203T5 (de) 2019-06-13

Family

ID=61246681

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017004203.8T Pending DE112017004203T5 (de) 2016-08-24 2017-06-13 Bildverarbeitungsvorrichtung, informationserzeugungsvorrichtung und informationserzeugungsverfahren

Country Status (5)

Country Link
US (2) US10848727B2 (de)
JP (1) JP7040447B2 (de)
CN (1) CN109565546B (de)
DE (1) DE112017004203T5 (de)
WO (1) WO2018037678A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017149608A1 (ja) * 2016-02-29 2017-09-08 富士通フロンテック株式会社 撮像装置及び撮像方法
US20210235060A1 (en) * 2018-05-18 2021-07-29 Sony Corporation Solid-state imaging device, information processing device, information processing method, and calibration method
US10598838B2 (en) * 2018-06-29 2020-03-24 Intel Corporation Pixel level polarizer for flexible display panels
WO2020017002A1 (ja) * 2018-07-19 2020-01-23 株式会社ソニー・インタラクティブエンタテインメント 電子機器および撮影方法
JP2020080366A (ja) * 2018-11-13 2020-05-28 ソニーセミコンダクタソリューションズ株式会社 受光装置
CN113557709A (zh) * 2019-04-19 2021-10-26 索尼集团公司 成像装置、图像处理装置和图像处理方法
TW202131671A (zh) * 2019-10-07 2021-08-16 日商索尼半導體解決方案公司 電子機器
JPWO2021140873A1 (de) * 2020-01-09 2021-07-15
US11838699B2 (en) * 2020-07-06 2023-12-05 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, and image processing method
JP7300432B2 (ja) * 2020-10-27 2023-06-29 Ckd株式会社 三次元計測装置
WO2022196038A1 (ja) * 2021-03-19 2022-09-22 ソニーグループ株式会社 情報処理装置と情報処理方法およびプログラム
WO2023105961A1 (ja) * 2021-12-08 2023-06-15 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
DE102021132644A1 (de) 2021-12-10 2023-06-15 Valeo Schalter Und Sensoren Gmbh Verfahren zur Farbkalibrierung einer farbauflösenden Kamera für ein Kraftfahrzeug, Steuereinrichtung und Kamera

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4419705B2 (ja) * 2004-06-24 2010-02-24 カシオ計算機株式会社 撮像装置と撮像方法、光量調整装置
JP4713983B2 (ja) * 2005-08-31 2011-06-29 オリンパスイメージング株式会社 色調整方法及び色調整装置
JP4014612B2 (ja) * 2005-11-09 2007-11-28 シャープ株式会社 周辺光量補正装置、周辺光量補正方法、電子情報機器、制御プログラムおよび可読記録媒体
EP2202688B1 (de) 2007-02-13 2013-11-20 Panasonic Corporation System, Verfahren und Vorrichtung zur Bildverarbeitung und Bildformat
JP2009192520A (ja) * 2007-11-15 2009-08-27 Nikon Corp 表面検査装置
JP4748266B2 (ja) * 2009-01-30 2011-08-17 ソニー株式会社 情報入力装置、情報入出力装置および電子機器
JP2012203274A (ja) 2011-03-28 2012-10-22 Sony Corp 撮像装置および電子機器
CN103688211B (zh) * 2011-05-12 2017-02-15 瑞尔D股份有限公司 偏振补偿立体系统
JP5982751B2 (ja) * 2011-08-04 2016-08-31 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN103182984B (zh) * 2011-12-28 2015-08-26 财团法人车辆研究测试中心 车用影像显示系统及其校正方法
JP5873983B2 (ja) * 2013-01-29 2016-03-01 パナソニックIpマネジメント株式会社 撮像システム
JP2014174517A (ja) * 2013-03-13 2014-09-22 Seiko Epson Corp プロジェクターおよび制御方法
JP6471424B2 (ja) 2013-11-13 2019-02-20 セイコーエプソン株式会社 プロジェクター

Also Published As

Publication number Publication date
US20190166342A1 (en) 2019-05-30
WO2018037678A1 (ja) 2018-03-01
CN109565546A (zh) 2019-04-02
JPWO2018037678A1 (ja) 2019-06-20
US10848727B2 (en) 2020-11-24
US10904503B2 (en) 2021-01-26
US20200068182A1 (en) 2020-02-27
JP7040447B2 (ja) 2022-03-23
CN109565546B (zh) 2020-12-01

Similar Documents

Publication Publication Date Title
DE112017004203T5 (de) Bildverarbeitungsvorrichtung, informationserzeugungsvorrichtung und informationserzeugungsverfahren
DE112017005807T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
DE102018116108B4 (de) Kalibrierungsprüfverfahren für den betrieb von autonomen fahrzeugen sowie fahrzeug mit einer steuerung zur ausführung des verfahrens
DE112017001322T5 (de) Signalverarbeitungsvorrichtung und Signalverarbeitungsverfahren
DE102018105140A1 (de) Objektverfolgung
CN109804621B (zh) 图像处理装置、图像处理方法和图像拾取装置
DE102018107754A1 (de) Objektverfolgung
DE102019112002A1 (de) Systeme und verfahren zur automatischen detektion von anhängereigenschaften
DE102018121597A1 (de) Boden-referenzbestimmung für den betrieb von autonomen fahrzeugen
DE102018116107A1 (de) Kalibrierungsverfahren für den betrieb von autonomen fahrzeugen
EP3544283A1 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programm
DE102018109371A1 (de) Kalibrierungsvalidierung für den betrieb von autonomen fahrzeugen
DE112017002774T5 (de) Bildverarbeitungseinrichtung und Bildverarbeitungsverfahren, und Lerneinrichtung und Lernverfahren
DE112017005318T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
DE102020115479A1 (de) Erweiterte bildgebung mit hohem dynamikumfang und tone -mapping
DE112018000795T5 (de) Bildverarbeitungsvorrichtung und bildverarbeitungsverfahren
DE112018002918T5 (de) Steuervorrichtung, bildaufnahmevorrichtung, steuerverfahren, programm undbildaufnahmesystem
DE102017128619A1 (de) Fahrzeugsteuerung unter verwendung von strassenwinkeldaten
WO2018034211A1 (en) Imaging device and imaging method
DE102021133638A1 (de) Bildzusammensetzung in multi-view-automobilsystemen und robotersystemen
DE112017005385T5 (de) Bildverarbeitungseinrichtung und Bildverarbeitungsverfahren
DE112017005228T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
DE112018003270T5 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programm
DE112019001772T5 (de) Bildgebungsvorrichtung
DE112021001015T5 (de) Bildgebungsvorrichtung und fahrzeugsteuerungsystem

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000

R012 Request for examination validly filed