WO2017002716A1 - 画像処理装置、画像処理システム、多視点カメラ、および画像処理方法 - Google Patents

画像処理装置、画像処理システム、多視点カメラ、および画像処理方法 Download PDF

Info

Publication number
WO2017002716A1
WO2017002716A1 PCT/JP2016/068775 JP2016068775W WO2017002716A1 WO 2017002716 A1 WO2017002716 A1 WO 2017002716A1 JP 2016068775 W JP2016068775 W JP 2016068775W WO 2017002716 A1 WO2017002716 A1 WO 2017002716A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
depth map
normal
data
natural light
Prior art date
Application number
PCT/JP2016/068775
Other languages
English (en)
French (fr)
Inventor
博之 勢川
英彦 小笠原
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Publication of WO2017002716A1 publication Critical patent/WO2017002716A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Definitions

  • the present invention relates to an image data acquisition technique using an image sensor that selectively acquires optical components.
  • a polarization camera that acquires polarization information of an object by mounting a polarization filter on the sensor has been put into practical use.
  • a polarization camera information on the plane orientation of the subject and the presence of a transparent object can be acquired, so that object identification and foreign object detection are facilitated. Therefore, application to a wide range of fields such as inspection devices and in-vehicle cameras in production lines is expected (see, for example, Patent Documents 1 and 2).
  • a polarization camera has limited information that can be acquired based on the principle of selecting light components, such as detecting light that has passed through a polarizing filter having a polarization axis in a predetermined direction, and its use is naturally limited.
  • information such as the plane orientation that can be acquired by a polarization camera is useful in various information processing that requires image analysis, and therefore a technique that can be easily applied to such processing is desired.
  • the present invention has been made in view of these problems, and an object of the present invention is to provide a technique that can easily acquire various information of a subject including polarization information by photographing.
  • An aspect of the present invention relates to an image processing apparatus.
  • the image processing apparatus acquires a normal information acquisition unit that acquires information related to the normal of the subject surface, and a depth map that maps the distance from the imaging surface of the subject to the image plane, and based on the information related to the normal
  • a depth map generating unit that interpolates data at corresponding positions to generate a final depth map, and an output data generating unit that performs predetermined processing using at least the final depth map to generate image data for output; It is characterized by providing.
  • This image processing system is an image processing system including a multi-viewpoint camera and an image processing apparatus that acquires data of the captured image and performs image processing, and the multi-viewpoint camera includes an image of natural light captured in the same field of view,
  • a plurality of image pickup devices including a parallel image pickup device that outputs data of polarization component images in a plurality of directions in parallel are arranged in a horizontal direction at known intervals, and the image processing device is photographed from at least a plurality of viewpoints from a multi-view camera.
  • Image data acquisition unit for acquiring the image of the natural light and the data of the polarization component image taken from one viewpoint, and the normal information acquisition unit for obtaining information related to the normal of the subject surface using at least the polarization component image
  • a depth map generator that calculates the distance from the imaging surface of the subject based on natural light images taken from multiple viewpoints and generates a depth map mapped to the image plane.
  • an output data generation unit that generates image data for output by performing predetermined processing using at least a depth map, and the depth map generation unit is a method at a corresponding position obtained by the normal line information acquisition unit. It is characterized in that the distance represented in the depth map is interpolated based on the information related to the line.
  • Still another aspect of the present invention relates to a multi-view camera.
  • a plurality of image pickup devices including a parallel image pickup device that outputs in parallel a natural light image taken in the same field of view and an image of polarization component images in a plurality of directions are arranged in a horizontal direction at known intervals. It is characterized by that.
  • Still another aspect of the present invention relates to an image processing method.
  • This image processing method corresponds to the step of acquiring information related to the normal of the subject surface, the step of acquiring a depth map in which the distance from the imaging surface of the subject is mapped to the image plane, and the information related to the normal Interpolating data at positions to generate a final depth map, and at least performing predetermined processing using the final depth map to generate and output image data for output.
  • FIG. 1 It is a conceptual diagram of the image pick-up element in this Embodiment. It is a figure for demonstrating the detection efficiency of the incident light in the image pick-up element of the structure shown in FIG. It is a figure which shows the example of a layout when arrange
  • the relationship between the unit pixel columns of the first photodetection layer and the second photodetection layer and the region of the polarizer at each principal axis angle in the wire grid polarizer layer in one unit of the image sensor is illustrated. It is a figure to do. It is a figure which shows the functional block of the imaging device in this Embodiment. It is a figure for demonstrating the process of a defect detection and correction
  • FIG. 18 it is sectional drawing which shows another example of the structure of an image pick-up element when acquiring a polarization image as a color image. It is a figure which illustrates the relationship between the unit pixel row
  • this Embodiment it is a figure which shows the two-dimensional arrangement
  • FIG. 1 is a conceptual diagram of an image sensor in the present embodiment.
  • the imaging device 10 includes a first light detection layer 12, a wire grid type polarizer layer 14, and a second light detection layer 16.
  • the first photodetection layer 12 includes an organic photoelectric conversion material and a transparent electrode formed so as to sandwich the organic photoelectric conversion material, and has a structure that absorbs a part of light to generate charges and transmits the remaining light.
  • the wire grid type polarizer layer 14 includes a polarizer in which a plurality of linear conductor members are arranged in stripes at intervals smaller than the wavelength of the incident light 8.
  • the second photodetection layer 16 has a semiconductor element structure such as a general CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor.
  • CCD Charge-Coupled Device
  • CMOS Complementary Metal-Oxide Semiconductor
  • incident light 8 from the first photodetection layer 12 side is partly absorbed and photoelectrically converted by the first photodetection layer 12, and the rest is transmitted.
  • the transmitted light is incident on the wire grid polarizer layer 14
  • the polarization component in the direction parallel to the polarizer line is reflected, and only the perpendicular polarization component is transmitted.
  • the polarized light component thus transmitted is detected by the second light detection layer 16.
  • the component reflected by the wire grid type polarizer layer 14 enters the first photodetection layer 12 again, and a part of the component is absorbed and photoelectrically converted.
  • two types of light can be detected at the same position, such as substantially non-polarized light in the first light detection layer 12 and a polarized light component in a specific direction in the second light detection layer 16.
  • FIG. 2 is a diagram for explaining the detection efficiency of incident light in the imaging device having the structure shown in FIG.
  • the absorption rate of incident light (arrow A) in the first photodetection layer 12 is 40%
  • the remaining 60% is incident on the wire grid polarizer layer 14 (arrow B).
  • the transmittance of the wire grid polarizer layer 14 is 50%
  • 40% + 12% 52% is absorbed in the first light detection layer 12. That is, according to the structure of this imaging device, 52% of the first photodetection layer 12 and 30% of the second photodetection layer 16 are 82% in total.
  • the structure of the first photodetection layer 12 is devised so that the reflected light from the wire grid polarizer layer 14 can be collected more easily, and the generation of stray light is suppressed to about 1/10, 100% Incident light can be reflected in the detection value at a rate close to.
  • the imaging device of the present embodiment can obtain polarized / non-polarized information at the same position. However, if a plurality of polarizers having different principal axis angles (stripe directions) are arranged close to each other, almost Information on polarization components in a plurality of directions can be further acquired at the same position.
  • FIG. 3 shows an example of a layout when a plurality of polarizers having different principal axis angles are arranged close to the wire grid polarizer layer 14.
  • This figure shows a state where the wire grid type polarizer layer 14 is looked down, and the shaded lines are conductors (wires) constituting the polarizer.
  • Each dotted rectangle represents a region of a polarizer having one principal axis angle, and the dotted line itself is not actually formed.
  • four polarizers having different principal axis angles are arranged in four regions 20, 22, 24, and 26 in 2 rows and 2 columns, respectively.
  • the polarizers on the diagonal are orthogonal in the principal axis angle, and adjacent polarizers have a 45 ° difference. That is, polarizers with four main axis angles every 45 ° are provided. Each polarizer attenuates the polarization component in the direction of the wire and transmits the polarization component in the direction orthogonal thereto.
  • the polarization in four directions at 45 ° intervals in each region corresponding to the four regions 20, 22, 24, and 26 of the wire grid type polarizer layer 14 is performed. Information can be obtained.
  • FIG. 4 shows a structural example of the image sensor of the present embodiment in a cross-sectional view.
  • the image sensor 28 acquires a black and white (grayscale) image as polarization information.
  • the image pickup device 28 includes the second light detection layer 16, the wire grid polarizer layer 14, the first light detection layer 12, and the on-chip lens 30 on the multilayer wiring layer 58 for transferring the detection result as an electric signal. It has a structure in which the support substrate 60 is laminated on the back side by stacking in order.
  • the first photodetection layer 12 includes an organic photoelectric conversion film 38 that performs photoelectric conversion by selectively detecting light in a predetermined wavelength band, and an upper electrode 36 and a lower electrode 44 for applying a voltage to the signal and extracting a signal charge. And the inorganic insulating film 40.
  • the lower electrode 44 is formed for each region corresponding to the pixel, and is insulated from each other by the inorganic insulating film 40.
  • the lower electrode 44 is connected to a conductive plug 52 that reaches the multilayer wiring layer 58.
  • the charge that has moved through the conductive plug 52 is stored in a charge storage layer (not shown) and is read out at a predetermined timing.
  • the upper electrode 36 is connected to the multilayer wiring layer 58 by a contact metal layer (not shown) and applied with a voltage.
  • the organic photoelectric conversion film 38 absorbs light in a predetermined wavelength range at a predetermined ratio and performs photoelectric conversion, while transmitting the remaining light.
  • the organic photoelectric conversion film 38 is formed of, for example, a quinacridone derivative, a naphthalene derivative, an anthracene derivative, a conjugated polymer, or the like.
  • the upper electrode 36 and the lower electrode 44 are made of a light-transmitting inorganic conductive film such as ITO (indium tin oxide) or TO (tin oxide).
  • the inorganic insulating film 40 is formed by forming a material such as silicon oxide, silicon nitride, or silicon oxynitride (SiON) in a lattice shape between the lower electrode 44 corresponding to a pixel and the organic photoelectric conversion film 38 thereon. is there.
  • a light shielding layer 42 is formed inside the inorganic insulating film 40.
  • the organic photoelectric conversion film 38 has a well-shaped shape that is in contact with the lower electrode 44 so as to be dropped between the light shielding layers 42 and has a dent together with the upper electrode 36 in the opposite region.
  • the light shielding layer 42 suppresses the incidence of light from the lateral direction.
  • a material having a low transmittance with respect to visible light such as tungsten, titanium, aluminum, or copper, or a nitride film thereof is used.
  • An on-chip lens 30 is provided on the first photodetection layer 12 via a protective film 34 and a planarization layer 32.
  • the protective film 34 is formed of a light-transmitting inorganic material such as silicon oxide, silicon nitride, or silicon oxynitride.
  • the planarization layer 32 is formed of a resin having optical transparency, such as an acrylic resin, a styrene resin, an epoxy resin, or the like.
  • the protective film 34 may also serve as the planarizing layer 32.
  • the on-chip lens 30 condenses incident light on each pixel region of the first light detection layer 12. Note that techniques for obtaining an image using an organic photoelectric conversion film are disclosed in, for example, JP-T-2002-502129, JP-A-2011-199152, JP-A-2013-183056, JP-A-2007-59515, and the like. It is disclosed. However, in this embodiment, a material having an absorption wavelength band including all the red, green, and blue wavelength bands may be selected.
  • luminance information may be obtained by using a material that absorbs a wider wavelength band of visible light or by stacking materials of different absorption wavelength bands.
  • materials and structures have been put into practical use particularly in the field of photovoltaic power generation, and techniques for controlling the absorption wavelength band by using materials are also known in the above-mentioned documents.
  • a material that absorbs light in a wide wavelength band of visible light polymers such as polythienylene vinylene (PTV) and polyvinyl carbazole (PVK) disclosed in JP-T-2002-502129, and organic molecules thereof can be used.
  • a mixed material or the like can be used.
  • the light absorptance in the film is appropriately controlled according to the film thickness as disclosed in, for example, Japanese Patent Application Laid-Open No. 2007-59515.
  • the wire grid type polarizer layer 14 is provided below the first light detection layer 12 with an interlayer insulating film 46 interposed therebetween.
  • the interlayer insulating film 46 is formed of silicon oxide, silicon nitride, silicon oxynitride, or the like.
  • the wire grid polarizer layer 14 has a structure in which a polarizer 48 is embedded in an interlayer film 50 having light transmissivity, such as silicon oxide or acrylic resin.
  • the polarizer 48 has a stripe arrangement in which the direction differs depending on the region when viewed from above.
  • FIG. 4 shows, for example, a cross section taken along one-dot chain line AA ′ in FIG. 3. As shown in black, a plurality of wire cross sections are shown in the left region of the figure, and one wire is shown in the right region. The side is visible.
  • the polarizer 48 is formed, for example, by arranging linear aluminum having a thickness of 100 nm and a width of 50 nm at intervals of 150 nm. By forming the polarizer 48 by arranging the linear materials that do not transmit light in this manner at intervals smaller than the wavelength of the incident light, the polarization component in the direction orthogonal to the polarizer 48 is transmitted. The light reflected by the polarizer 48 enters the first light detection layer 12.
  • the second photodetection layer 16 is provided below the wire grid polarizer layer 14 via an interlayer insulating film 46 made of the same material as described above.
  • the interlayer insulating film 46 includes the light shielding layer 42, and suppresses the incidence of light from the lateral direction to the second light detection layer 16.
  • the second photodetection layer 16 has a structure in which a photoelectric conversion element 54 is embedded in a silicon substrate 56 so as to correspond to each pixel.
  • a photoelectric conversion element 54 is embedded in a silicon substrate 56 so as to correspond to each pixel.
  • both the lower electrode 44 corresponding to the pixel of the first photodetection layer 12 and the photoelectric conversion element 54 corresponding to the pixel of the second photodetection layer 16 are both provided. Two are provided in the horizontal direction. Similarly, if two pixels are provided in the depth direction, four pixels of the first photodetection layer 12 and the second photodetection layer 16 are provided for the polarizer 48 having one principal axis angle.
  • the area of one pixel of the first photodetection layer 12 and the area of one pixel of the second photodetection layer 16 may be different.
  • a color filter is provided above the second photodetection layer 16 and a photoelectric conversion element is provided for each color, as will be described later.
  • the image sensor 28 as shown in the figure is arranged in a matrix in the horizontal direction and the depth direction in the figure and connected to a peripheral circuit that controls the timing of light detection, thereby simultaneously acquiring information on a plurality of types of light as two-dimensional data.
  • An image sensor can be configured.
  • a technique for acquiring an image using a wire grid polarizer is disclosed in, for example, Japanese Patent Application Laid-Open No. 2012-80065.
  • the configuration of the peripheral circuit for reading the charge may be the same as that of a general image sensor. However, in order to read in parallel two images, the image having the detection value of the first light detection layer 12 as the pixel value and the image having the detection value of the second light detection layer 16 as the pixel value, two similar peripheral circuits are provided.
  • FIG. 5 shows an outline of the structure of the image sensor in the present embodiment.
  • the image sensor 170 includes a pixel unit 172, a row scanning unit 174 as a peripheral circuit, a horizontal selection unit 176, a column scanning unit 180, and a control unit 178.
  • the pixel portion 172 is formed by arranging one unit of the image sensor 28 as shown in FIG. 4 in a matrix.
  • a charge indicating the sum of the incident light from the subject space and the reflected light from the wire grid polarizer layer 14 is obtained from the second photodetection layer 16.
  • the charges indicating the polarization components in each direction are read out in units of electrodes corresponding to the pixels.
  • one of two peripheral circuits for reading is shown as a representative.
  • Each pixel including an existing mechanism such as a transistor for reading out charges generated by photoelectric conversion and accumulated in the charge accumulation layer is supplied to the row scanning unit 174 for each row, and to the horizontal selection unit 176 and the column scanning unit 180 for each column. It is connected.
  • the row scanning unit 174 includes a shift register, an address code, and the like, and drives each pixel in units of rows.
  • a signal output from the pixel selectively scanned by the row scanning unit 174 is supplied to the horizontal selection unit 176.
  • the horizontal selection unit 176 is configured by an amplifier, a horizontal selection switch, and the like.
  • the column scanning unit 180 is configured by a shift register, an address decoder, and the like, and is driven in order while operating each horizontal selection switch of the horizontal selection unit 176.
  • the control unit 178 generates a timing signal and controls driving timing of the horizontal selection unit 176 and the column scanning unit 180.
  • the output frame rates of two types of images based on them are provided. It can be controlled independently.
  • the frame rate of the image from the first photodetection layer 12 is made smaller than the frame rate of the image from the second photodetection layer 16.
  • the latter is set to 60 fps, the former is set to 30 fps or the like. In this way, the accumulation time of charges generated by the first photodetection layer 12 can be made longer than that of the second photodetection layer 16, and the sensitivity of the first photodetection layer 12 can be improved.
  • the ratio of light transmitted from the first photodetection layer 12 to the second photodetection layer 16 side is controlled by adjusting the film thickness of the organic photoelectric conversion film 38. If the film thickness of the organic photoelectric conversion film 38 is reduced in order to sufficiently secure this transmittance, the detection sensitivity in the first photodetection layer 12 is naturally lowered.
  • the first photodetection layer 12 is provided. The light transmittance and the detection sensitivity can be made compatible.
  • the first photodetection layer 12 has a large interlayer distance to the multilayer wiring layer 58 for signal readout, so that the operation speed is more severely limited than the second photodetection layer 16. From this point of view, the image rate from the first photodetection layer 12 cannot be obtained while sufficiently securing the output rate of the image from the second photodetection layer 16 by independently controlling the frame rate of the images from both. It is possible to realize a mode of output without any problem. This is particularly effective when an image processing system is constructed in combination with a general color image capturing device as will be described later.
  • FIG. 6 shows the unit pixel rows of the first photodetection layer 12 and the second photodetection layer 16 and the regions of the polarizers at the respective principal axis angles in the wire grid polarizer layer 14 in the one-unit image sensor described so far.
  • the relationship is illustrated.
  • 4A is a unit pixel row of the first photodetection layer 12
  • FIG. 3B is an array of polarizers having respective principal axis angles in the wire grid polarizer layer 14
  • FIG. 4C is a unit of the second photodetection layer 16. It is a pixel column.
  • both the first photodetection layer 12 and the second photodetection layer 16 are provided with four pixels in two rows and two columns with respect to the polarizer of each principal axis angle.
  • the first light detection layer 12 detects light of a substantially non-polarized component.
  • a material or structure that absorbs light in a wider wavelength band is used, an image close to a general luminance image can be obtained by the whole pixel arrangement in which the unit pixel columns in (a) are further arranged.
  • the second light detection layer 16 detects the polarized light that has passed through the polarizer, information on different polarization components can be obtained depending on the principal axis angle of the polarizer in the corresponding region. That is, in the pixel block 82a, 82b, 82c, and 82d each consisting of four pixels in the unit pixel column of (c), polarized components having different directions are detected. As a result, an image in which black and white images of different polarization components appear alternately in pixel block units is obtained by the all pixel arrangement in which the unit pixel columns in (c) are further arranged.
  • FIG. 7 shows functional blocks of the image pickup apparatus of the present embodiment including the image sensor 70.
  • Each functional block shown in FIG. 7 and FIGS. 20, 23, 24, and 26, which will be described later, can be realized in terms of hardware by a configuration of an image sensor, various arithmetic circuits, a microprocessor, a CPU, a memory, and the like. This is realized by a program stored in a memory or read from a recording medium to a memory. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.
  • the imaging apparatus 100 includes an image sensor 70 including a pixel matrix, a sensitivity difference adjustment unit 75 that adjusts data based on a difference in sensitivity between the light detection layers, a defect detection unit 78 that detects a defect in data, and a case where there is a defect.
  • 3 includes a defect correction unit 76 that supplements data, a natural light image generation unit 84 that generates a natural light image, and a polarization image generation unit 86 that generates a polarization component image.
  • the image sensor 70 corresponds to the image sensor 70 in FIG. 5 and is configured by a two-dimensional array of one unit of image pickup elements and peripheral circuits as shown in FIG.
  • one unit of the image sensor includes the first photodetection layer 12 and the second photodetection layer 16, and information on substantially non-polarized light (hereinafter referred to as “natural light”) from the former, Information on polarization components in a plurality of directions can be obtained.
  • the natural light data acquisition unit 72 and the polarization data acquisition unit 74 respectively detect the values detected by the first light detection layer 12 and the second light detection layer 16 in a predetermined pixel order such as a raster order. Output to the sensitivity difference adjustment unit 75. Since the first photodetection layer 12 and the second photodetection layer 16 are different in material and structure, there is a high possibility that the scale of the detection value is different due to the difference in sensitivity even with the same light intensity. Therefore, the sensitivity difference adjustment unit 75 aligns the scales so that the comparison and addition of both can be correctly performed in subsequent processing.
  • the natural light conversion value Ocon (x, y) in which the scale is matched with the detection value of the polarization component is obtained by multiplying the natural light detection value O (x, y) by the coefficient k (x, y).
  • Ocon (x, y) k (x, y) ⁇ O (x, y)
  • (x, y) is the coordinates of a two-dimensional array of pixels.
  • the coefficient k (x, y) has a default value determined as follows before the operation of the imaging apparatus 100 or by initial calibration. First, a gray subject that occupies the entire field of view is photographed in a state where light is uniformly irradiated by a non-polarized light source. Then, the coefficient k (x, y) is determined so that the converted value of the natural light data at that time matches the detection value of the second photodetection layer 16.
  • the coefficient k may be a constant independent of the pixel position coordinates.
  • the constant k may be determined by dividing the total sum of the detection values Sin (x, y) of the polarization component by the total sum of the detection values Oin (x, y) of the natural light.
  • the sensitivity difference adjustment unit 75 multiplies the natural light detection value output from the natural light data acquisition unit 72 of the image sensor 70 by the coefficient k set in this way, thereby obtaining the scaled detection value of the polarization component. Then, both are output to the defect detection unit 78 and the defect correction unit 76. If there is a defect (abnormal value) in the detection value, the defect detection unit 78 detects it. For example, in the polarization component data, the sum of two types of polarization components whose directions are orthogonal represents the original natural light. Therefore, among the detected values of the polarized light components in the four directions obtained from the unit pixel array shown in FIG. 6C, the detected values of the two orthogonal polarized light components are added and compared with each other. Since both of them show the same value representing natural light, it can be determined that any detected value is defective if the difference is large.
  • the defect correction unit 76 complements the defect based on data of surrounding pixels.
  • the cause of the defect is estimated by utilizing the natural light data at the same position for the polarization component data and the polarization component data at the same position for the natural light data, and appropriate complement processing is performed.
  • the defect correction unit 76 outputs the natural light and polarization component data acquired from the sensitivity difference adjustment unit 75 to the natural light image generation unit 84 as they are.
  • the natural light image generation unit 84 generates a luminance image of natural light to be finally output based on the natural light conversion value and the polarization component detection value.
  • the original incident light intensity is restored by adding the conversion value obtained by multiplying the detection value of natural light by the coefficient k and the detection value of the polarization component.
  • the data may be further adjusted in consideration of the position dependency of the natural light data. A specific method will be described later.
  • the natural light image generation unit 84 appropriately outputs the generated natural light image data to a storage device or an image processing device connected to the imaging device 100.
  • the natural light image generation unit 84 outputs the detected value of the polarization component acquired from the defect correction unit 76 and the generated luminance image data of natural light to the polarization image generation unit 86.
  • the polarization image generation unit 86 generates a polarization image in each direction to be finally output using those data.
  • the polarization image generation unit 86 appropriately outputs the generated polarization image data to a storage device or an image processing device connected to the imaging device 100.
  • FIG. 8 is a diagram for explaining data defect detection and correction processing performed by the defect detection unit 78 and the defect correction unit 76.
  • the left side of the figure is the unit polarizer row 102 of the wire grid polarizer layer 14 included in one unit of the image sensor, and the right side is the unit pixel row 104 of the second photodetection layer 16 that detects the polarization component.
  • the peripheral pixels are also indicated by dotted lines for the purpose of later description.
  • the polarization component by the upper left polarizer having an inclination of 45 ° from the vertical axis of the figure is 1 channel (1ch), and the polarization component by the upper right polarizer having an inclination of 90 ° is 2
  • the polarization component of the channel (2ch) and the lower right polarizer having an inclination of 135 ° is called 3 channels (3ch), and the polarization component of the lower left polarizer having an inclination of 180 ° is called 4 channels (4ch).
  • the polarization component is detected by four pixels in 2 rows and 2 columns for each channel.
  • identification numbers 1, 2, 3, and 4 are given clockwise from the upper left to the pixels of each channel, and the 16 pixels included in the unit pixel row 104 are represented by (channel number, identification number). Identify the pixels. Focusing on the fact that the sum of the orthogonal polarization components represents the original natural light as described above, the sum of the detection values of the 1-channel and 3-channel whose directions are orthogonal is the same as the sum of the detection values of the 2-channel and 4-channel. Will be shown. Therefore, both are compared, and if the difference is large, it is determined that there is a defect.
  • the detection value of the polarization component of each pixel is S (channel number, identification number), and the total Ssum (channel number) of the detection values of each channel is calculated as follows.
  • Ssum (1) S (1,1) + S (1,2) + S (1,3) + S (1,4)
  • Ssum (2) S (2,1) + S (2,2) + S (2,3) + S (2,4)
  • Ssum (3) S (3,1) + S (3,2) + S (3,3) + S (3,4)
  • Ssum (4) S (4,1) + S (4,2) + S (4,3) + S (4,4)
  • the defect detection unit 78 determines that any channel has a defect.
  • the defect detection unit 78 determines that any channel has a defect.
  • an area corresponding to each channel for natural light data is also referred to as a “channel”.
  • the defect detection unit 78 determines that any channel is defective.
  • the defect correcting unit 76 confirms the total Ssum (N) for each channel of the detection value of the polarization component and the total Osum (N) for each channel of the converted value of the natural light, where N is the channel number, Of the data determined to be defective, a defective channel is specified, and a value that complements the channel is determined.
  • FIG. 9 is a flowchart showing in more detail the defect detection and complement processing procedure performed by the defect detection unit 78 and the defect correction unit 76. The process of FIG. 9 is executed for each unit pixel column shown in FIG. First, the defect correction unit 76 checks whether or not the above ⁇ S exceeds the threshold value Th1, and if not, determines that the unit pixel column has no defect with respect to the polarization component (N in S10, S16). .
  • the defect correction unit 76 detects an edge by a general method with respect to the two-dimensional array of detected values of the polarization component.
  • the defect detection unit 78 determines that the polarization component has a defect in the unit pixel row. (S14).
  • the defect correction unit 76 also detects an edge for a two-dimensional array of natural light conversion values. If ⁇ O exceeds the threshold value (Y in S18) and the unit pixel row does not include an edge portion (N in S20), the defect detection unit 78 determines that there is a defect in the unit pixel row with respect to natural light ( S22).
  • the defect correction unit 76 If the defect detection unit 78 determines that neither the polarization component nor the natural light data is defective, the defect correction unit 76 outputs the value of the unit pixel column to the natural light image generation unit 84 as it is (N in S26). ). If it is determined that at least one of the polarization component and the natural light data is defective (Y in S26), the defect correction unit 76 compares the detection value of the polarization component and the natural light conversion value for each same channel. Then, the channel in which the defect has occurred is specified (S28).
  • the defect correcting unit 76 considers the situation such as the difference between the total Ssum (N) of the detected values of the polarization components and the total Osum (N) of the converted values of the natural light, and the values in the surrounding unit pixel columns, An appropriate value is assigned to the channel N including the defect to complement it (S30). Then, the complemented data is output to the natural light image generation unit 84.
  • FIG. 10 shows the type of situation when the defect detection unit 78 determines that there is a defect in at least one of the polarization component and the natural light data, and the cause of the estimated defect when the two are compared in the same channel. Is illustrated.
  • the defect detection unit 78 determines that there is a defect in at least one of the polarization component and the natural light data, and the cause of the estimated defect when the two are compared in the same channel.
  • S the polarization component detection value
  • OF natural light conversion value
  • the schematic diagram below each of the types A1 to D shows the cross section of the image sensor, the shaded rectangle is the polarizer, the dotted line above it detects the natural light, the bottom detects the polarization component, the arrow Represents the incidence of light.
  • the defect is at least one of S and O
  • the total Osum (N) of the converted natural light values of the defective channel is greater than the total Osum (N ′) of the converted natural light values of the surrounding predetermined positions. This is a case where the sum Ssum (N) of the detection values of the polarization components of the small and defective channel is larger than the sum Ssum (N ′) of the detection values of the surrounding predetermined position or the nearest same channel.
  • Type A2 is similar to type A1, except that Osum (N) is significantly smaller than Osum (N ') and Ssum (N) is significantly larger than Ssum (N'). In this case, it is presumed that “total transmission” in which the polarizer does not function at all and all the polarization components are transmitted causes the defect.
  • the types A1 and A2 are actually distinguished from each other by providing threshold values for Osum (N ')-Osum (N) and Ssum (N) -Ssum (N').
  • Type B is a case where the defect is in S and Osum (N) is the same level as the surrounding Osum (N ′), while Ssum (N) is a value that can be regarded as zero.
  • the polarizer does not transmit or reflect, or the detection mechanism of the polarization component does not function, it is presumed that the “black crushing” of the polarization component (polarized image) is the cause of the defect.
  • Type C is a case where the defect is at least one of S and O, Osum (N) is significantly larger than the surrounding Osum (N ′), and Ssum (N) is a value that can be regarded as zero. In this case, it is presumed that the cause of the defect is that the incident light is “totally reflected” by the polarizer.
  • the defect is at least one of S and O, and the total Osum (N, N ′) of the converted values of the defective channel and the surrounding natural light is further converted into the converted value of the surrounding natural light.
  • the sum Ssum (N) of the detected values of the polarization components is smaller than the sum Ssum (N ′) of the detected values of the surrounding or nearest channel.
  • the polarizer is used. It is estimated that the cause of the defect is that the incident light is “diffused”.
  • the defect correction unit 76 estimates the cause of the defect by mutually referring to the natural light data and the polarization component data, and considering the comparison result with the surrounding values, and performs a complementary method corresponding thereto. It can be selected as appropriate.
  • an appropriate value Ssum ′ (1) as a total of detection values of the channel is obtained as follows using the above orthogonal relationship.
  • Ssum ′ (1) Ssum (2) + Ssum (4) ⁇ Ssum (3)
  • the four pixels included in this channel are multiplied by Ssum ′ (1) / Ssum (1) to determine an appropriate value for each pixel.
  • the same calculation formula can be used for complementing the converted value of natural light.
  • the appropriate value for each channel may be determined using data in another adjacent unit pixel column. For example, when a defect is detected in one channel of the polarization component, the sum of the detection values of the polarization components of the three channels in the adjacent unit pixel column (dotted arrow in the figure) described by the dotted line in FIG. It becomes almost equal to the sum of the detected values of the polarized components of the neighboring 2 channels and 4 channels. That is, the following equation is established.
  • Ssum_ul (3) is the three channels of the upper left unit pixel column of the target unit pixel column 104
  • Ssum_u (3) and Ssum_u (4) are the three channels of the unit pixel column above the target unit pixel column 104
  • 4 Channels Ssum_l (2) and Ssum_l (3) are sums of the detected values of the polarization components of the two channels and three channels of the left unit pixel column of the target unit pixel column 104, respectively.
  • the appropriate value Ssum '(1) of the total of the polarization components may be a value obtained by dividing the total of the right side of the above four formulas by 4. The value can be supplemented by the same calculation for other channels.
  • the coefficient k (x, y) may be the coefficient k (x, y) used when the converted value of natural light is obtained in the sensitivity difference adjustment unit 75.
  • the luminance Y (x, y) is Asking.
  • Y (x, y) Ocon (x, y) + S (x, y)
  • the natural light image generation unit 84 may calculate the luminance Y (x, y) as follows.
  • Y (x, y) k (x, y) ⁇ O (x, y)
  • the coefficient k may be adjusted so as to eliminate image unevenness in consideration of the position dependence of actual natural light data.
  • FIG. 11 is a diagram for explaining the position dependency of natural light data.
  • the light detected by the first light detection layer 12 includes a reflected light component from the wire grid polarizer layer 14. This reflected light is a component that does not pass through the polarizer, that is, a polarization component in a direction orthogonal to the polarization direction of the detection target of the second photodetection layer 16.
  • FIG. 11 shows the light intensity distribution 110 detected by the first light detection layer 12 and the light intensity distribution 112 detected by the second light detection layer 16 with the principal axis angle of the polarizer as the horizontal axis.
  • the sine waves representing the intensity distributions 110 and 112 represent qualitative changes when the principal axis angle is continuously changed, and actually the values corresponding to the channel numbers represented by numbers on the horizontal axis are discrete. Can be obtained. Since the intensity distribution 112 of the light detected by the second photodetection layer 16 depends on the principal axis angle of the polarizer, the above-described channels 1, 2, 3, 4 changes as shown.
  • the intensity distribution of the remaining components reflected without passing through the polarizer also depends on the principal axis angle of the polarizer.
  • the light intensity distribution 110 detected by the first light detection layer 12 has position dependency as shown in the figure.
  • the luminance Y is calculated by linear summation with the detected value of the polarization component
  • such position dependency is obtained by appropriately setting the coefficient k (x, y) for each pixel by calibration. Canceled.
  • the detected value of the polarization component is not added, the presence / absence of position dependency is confirmed in the actual data, and the data is adjusted accordingly.
  • FIG. 12 is a flowchart illustrating an example of a processing procedure in which the natural light image generation unit 84 adjusts natural light data.
  • the pixels in the unit pixel row are identified by the notation (channel number, identification number in the channel).
  • an average value Oave (channel number) of converted natural light values for each channel is obtained as follows. (S40).
  • the determination as to whether or not the unit pixel row includes an edge portion may be based on the result obtained when the defect detection unit 78 detects a defect. If the difference between the average values of both exceeds the threshold value (Y in S42) and the unit pixel row does not include an edge portion (N in S44), position dependency occurs due to the reflection component from the polarizer. Therefore, the value is adjusted so as to cancel it (S48). For example, if the difference
  • the converted value of each pixel of the natural light of the 1-channel and 3-channel is further multiplied by the following adjustment coefficient kcr to obtain the luminance Y.
  • kcr (1) (Oave (1) + Oave (3)) / Oave (1)
  • kcr (3) (Oave (1) + Oave (3)) / Oave (3)
  • Th3 the adjustment coefficients kcr (2) and kcr (4) are obtained by the same formula.
  • the converted value of the pixel is multiplied to obtain luminance Y.
  • the natural light image generation unit 84 performs such position dependency confirmation and adjustment processing as necessary for each unit pixel column. Note that when moving image shooting is performed by the imaging apparatus 100, the position dependency confirmation and the adjustment processing as necessary are performed at a frequency lower than the frame rate, and the calculated adjustment coefficient kcr is diverted over a plurality of frames to increase the processing load. May be reduced.
  • the natural light image generation unit 84 multiplies the adjustment coefficient kcr calculated as necessary, or takes the sum of the converted value of natural light and the detected value of the polarization component at the same position, thereby obtaining a final luminance image. Output as pixel value.
  • the polarization image generation unit 86 generates polarization image data for four channels based on the detected value of the polarization component.
  • FIG. 13 shows a two-dimensional array of pixels of the second photodetection layer 16 constituted by a plurality of unit pixel columns.
  • the thick line in the figure is the boundary of the unit pixel column, and has a configuration in which four pixels are provided in each of the first to fourth channels indicated by numerals.
  • the pixel block is discretely arranged so as to sandwich a pixel block of another channel as shown by hatching. The same applies to other channels. Therefore, the polarization image generation unit 86 interpolates the pixel values, and creates polarization image data without gaps for each channel.
  • the polarization image generation unit 86 adjusts the positions of the pixels so that the pixels for the four channels in the same unit pixel row appear at the same position in the final polarization image of each channel. Specifically, the image of one channel is shifted by one pixel in the right direction and one pixel in the downward direction. The two-channel image is shifted by one pixel in the left direction and one pixel in the downward direction. The 3-channel image is shifted by one pixel in the left direction and one pixel in the upward direction. The 4-channel image is shifted rightward by one pixel and upward by one pixel.
  • the polarization image generation unit 86 extracts the high frequency component hf_Y (x, y) from the luminance image using a high pass filter. For the pixel including the edge portion, the process of adding hf_Y (x, y) to the pixel value is performed on all the polarized images for the four channels obtained as described above, thereby generating and outputting a final polarized image. To do. Note that the edge portion specified here may also be obtained using the result obtained when the defect detection unit 78 detects a defect.
  • FIG. 14 is a cross-sectional view illustrating an example of the structure of the imaging element when a polarization image is acquired as a color image.
  • the image sensor 128 has a structure in which a color filter layer 130 is provided between the wire grid polarizer layer 14 of the image sensor 28 shown in FIG. 4 and the interlayer insulating film 46 therebelow.
  • the color filter layer 130 has a configuration in which red, blue, and green filters are arranged in a Bayer array.
  • FIG. 15 illustrates the relationship between the unit pixel rows of the first photodetection layer 12 and the second photodetection layer 16 in this case and the polarizer region of each channel in the wire grid polarizer layer 14.
  • 4A is a unit pixel row of the first photodetection layer 12
  • FIG. 3B is an array of polarizers having respective principal axis angles in the wire grid polarizer layer 14
  • FIG. 4C is a unit of the second photodetection layer 16. It is a pixel column.
  • one pixel of the first photodetection layer 12 and the second photodetection layer 16 corresponds to the polarizer of each principal axis angle.
  • the color filter layer 130 causes the upper left pixel to be red (R), the upper right and lower left pixels are green (G), and the lower right pixel among the unit pixel columns of the second photodetection layer 16 shown in FIG. Detects the blue (B) polarization component.
  • FIG. 16 is a cross-sectional view showing another example of the structure of the image sensor when a polarized image is acquired as a color image.
  • the imaging device 140 is provided with four pixels in two rows and two columns with respect to the polarizer of each principal axis angle in the second light detection layer 16. Therefore, in the cross-sectional view, two photoelectric conversion elements 54a, 54b, 54c, and 54d are arranged in the second photodetection layer 16 with respect to a region of a polarizer having two principal axis angles.
  • the in-chip microlens 142 is provided on the color filter layer 144 so that light transmitted through the wire grid polarizer layer 14 is condensed on each pixel of the second light detection layer 16. Yes.
  • FIG. 17 illustrates the relationship between the unit pixel rows of the first photodetection layer 12 and the second photodetection layer 16 in this case and the polarizer regions of each channel in the wire grid polarizer layer 14.
  • 4A is a unit pixel row of the first photodetection layer 12
  • FIG. 3B is an array of polarizers having respective principal axis angles in the wire grid polarizer layer 14
  • FIG. 4C is a unit of the second photodetection layer 16. It is a pixel column.
  • the pixels of the second photodetection layer are subdivided into 2 rows and 2 columns as described above, and four pixels are provided for the polarizers of each principal axis angle.
  • the color filter layer 144 of the pixel block composed of the four pixels, the upper left pixel is red (R), the upper right and lower left pixels are green (G), and the lower right pixel is blue (B). Is detected.
  • FIG. 18 is a cross-sectional view showing still another example of the structure of the image sensor when a polarized image is acquired as a color image.
  • the imaging device 150 is provided with four pixels in two rows and two columns for each main axis angle polarizer in both the first photodetection layer 12 and the second photodetection layer 16. Accordingly, the cross-sectional view has a configuration in which two lower electrodes 44 corresponding to the pixels of the first photodetecting layer 12 are arranged two by two with respect to the regions of the polarizers having two principal axis angles.
  • FIG. 19 illustrates the relationship between the unit pixel rows of the first photodetection layer 12 and the second photodetection layer 16 in this case and the polarizer region of each channel in the wire grid polarizer layer 14.
  • 4A is a unit pixel row of the first photodetection layer 12
  • FIG. 3B is an array of polarizers having respective principal axis angles in the wire grid polarizer layer 14
  • FIG. 4C is a unit of the second photodetection layer 16. It is a pixel column.
  • the pixels of the first photodetection layer are subdivided into 2 rows and 2 columns as described above, and four pixels are provided for the polarizers of the respective principal axis angles.
  • the region of one pixel of the first photodetection layer 12 and the second photodetection layer 16 can be variously combined depending on the size and number of the lower electrode 44 and the photoelectric conversion element 54. it can.
  • the unit pixel column of the first light detection layer 12 is 16 pixels of 4 rows and 4 columns as shown in FIG. 19, and the unit pixel column of the second light detection layer 16 is 2 rows as shown in FIG. It may be 4 pixels in 2 rows.
  • the in-chip microlens 142 is provided on the color filter layer 144. However, depending on the size of the pixel region and the like, it is provided on the wire grid polarizer layer 14. May be. In this case, the light reflected by the polarizer can be diffused and detected uniformly by the first light detection layer 12. When the polarization component is acquired as color information in this way, a natural light color image can also be generated using the information.
  • FIG. 20 shows functional blocks of an imaging apparatus including an image sensor that acquires polarization components as color information.
  • the imaging device 160 includes an image sensor 161, a sensitivity difference adjustment unit 75, a defect detection unit 78, a defect correction unit 76, a luminance image generation unit 164 that generates a natural light luminance image, and a color image generation unit 166 that generates a natural light color image. , And a polarization image generation unit 168 that generates a color polarization component image.
  • the image sensor 161 has the same structure as that of the image sensor 70 shown in FIG. 5, and basically has the same function as that of the image sensor 70 of FIG.
  • the imaging device includes a color filter layer as shown in FIGS. 14, 16, and 18, the detection value of the polarization component output from the polarization data acquisition unit 162 includes polarization information of a plurality of directions, red, It consists of a combination of blue and green color information.
  • Each of the sensitivity difference adjustment unit 75, the defect detection unit 78, and the defect correction unit 76 has the same function as the corresponding functional block described with reference to FIG.
  • the luminance image generation unit 164 Similar to the natural light image generation unit 84 of FIG. 7, the luminance image generation unit 164 generates a luminance image of natural light to be finally output based on the converted natural light value and the detected value of the polarization component.
  • (i, j) is a position coordinate when the original image plane represented by (x, y) is reduced to 1 ⁇ 4, and Ocon 1 ⁇ 4 (i, j) is a sensitivity difference adjustment unit 75.
  • This is a pixel value in a binning image having a value S (x, y).
  • the luminance image generation unit 164 returns the luminance Y 1/4 (i, j) thus obtained to the original resolution.
  • the number of pixels is quadrupled by interpolating a two-dimensional array of luminance Y 1/4 (i, j), and the high-frequency of the two-dimensional array of natural light converted values Ocon (x, y). Detail is restored by adding the components.
  • the luminance image generation unit 164 appropriately outputs the generated luminance image with the original resolution to a storage device or an image processing device connected to the imaging device 160.
  • the color image generation unit 166 generates a color image of natural light based on the detected value of the polarization component.
  • FIG. 21 is a flowchart illustrating a processing procedure in which the color image generation unit 166 generates a color image of natural light.
  • the color image generation unit 166 depolarizes the detection value of the polarization component for each color (S50). Depolarization is to eliminate the position dependency due to the polarization direction from the detected value of the polarization component.
  • the adjustment process for eliminating the position dependency of natural light shown in FIG. 12 can be applied to this process.
  • the detected value of the polarization component is compared between the channels whose directions are orthogonal (S42 in FIG. 12).
  • the average value is calculated and compared (S40 in FIG. 12).
  • each channel since each channel includes two green pixels, green is compared with an average value of detection values of the two pixels. If both of these differences do not exceed the predetermined threshold value (N in S42 in FIG. 12), and if the difference is included, an edge portion is included (Y in S42 in FIG. 12, Y in S44), the unit pixel column It is determined that the color has no position dependency, and the detected value of the change component is used as it is (S46 in FIG. 12).
  • the position dependency due to the difference in polarization direction is high.
  • the value is adjusted so as to cancel (S48 in FIG. 12). Specifically, the detected value of the polarization component is averaged over both channels. When a plurality of pixels of the same color are included in one channel and compared with an average value, the average value is averaged between both channels.
  • Save (n) and Save (n + 2) are average values of detection values of pixels included in channel n and channel n + 2, respectively.
  • the detection value of the polarization component of each color can be made non-polarized.
  • the color image generation unit 166 performs demosaic processing that interpolates pixel values of each color discretely represented in a Bayer array. First, the color image generation unit 166 interpolates green pixel values having a large number of pixels (S52).
  • the detail of the image is restored by adding the high frequency components of the luminance image generated by the luminance image generation unit 164 (S54).
  • the high frequency component addition processing in S54 may be performed as a part of the interpolation processing in S52, or may be performed individually after the interpolation processing.
  • red and blue demosaic processing is performed using them.
  • a demosaic processing method performed in a general imaging apparatus may be employed.
  • a full-color natural light image can be generated based on the color information of the polarization component.
  • the color image generation unit 154 appropriately outputs the generated image data to a storage device or an image processing device connected to the imaging device 160. Since this image is equivalent to a general full-color image, it may be output and displayed on a display device such as a television.
  • the polarization image generation unit 168 generates color polarization image data for four channels based on the detection value of the polarization component.
  • FIG. 22 shows a two-dimensional array of pixels of the second photodetection layer 16 constituted by a plurality of unit pixel columns. The thick lines in the figure are the boundaries of the unit pixel columns, and as shown in FIG. 19, each of the 1st to 4th channels has 4 pixels.
  • the procedure for generating a polarization image is almost the same even in the pixel arrangement as shown in FIGS.
  • the polarization component is acquired with color information, it is necessary to extract and interpolate pixels of the same channel and the same color.
  • the luminance image generated by the luminance image generation unit 164 is used to express a fine change in the edge portion or the like. Therefore, the polarization image generation unit 168 extracts the high frequency component hf_Y (x, y) from the luminance image using a high-pass filter, and adds hf_Y (x, y) to the green pixel value for the pixel including the edge portion. Using the green pixel value of each channel obtained in this way and the discrete detection values of the red and blue polarization components, the red and blue pixel values of the polarization components of each channel are determined.
  • This processing can be applied to general demosaic processing as appropriate.
  • the pixel value arrangement of each color of each channel generated in this way is out of phase with the pixel depending on the arrangement of the channels in the unit pixel column and the arrangement of the colors in each channel. Therefore, the pixel position is adjusted so that the pixels of each color in each channel in the same unit pixel row represent the pixels at the same position in the final polarized image of each channel. Specifically, red is shifted by 0.5 pixels in the right direction and 0.5 pixels in the downward direction.
  • the polarization image generation unit 168 appropriately outputs the color polarization image of each channel generated in this way to a storage device or an image processing device connected to the imaging device 160.
  • the technique for obtaining the normal of the subject surface using a polarizer or a polarizing plate research has been conducted as disclosed in, for example, International Publication No. 2009/147814. That is, the reflected light from the surface of the object is acquired by a polarization camera, and the azimuth angle of the object surface is acquired based on the polarization angle when the minimum luminance is observed. By performing this from two viewpoints, the normal of the object surface can be uniquely determined.
  • FIG. 23 shows a configuration example of the image processing system according to the present embodiment.
  • the image processing system 200 includes a stereo camera 210 and an image processing device 220.
  • the stereo camera 210 and the image processing apparatus 220 may be configured as separate individuals to establish communication by wire or wireless to transmit and receive data, or may be configured as an information processing apparatus or the like that integrally includes both. Data may be transmitted / received by an internal bus or the like.
  • the stereo camera 210 is a camera in which two imaging devices 160a and 160b having the same configuration as the imaging device 160 shown in FIG. 20 are arranged on the left and right sides so as to have a known interval.
  • the image processing apparatus 220 includes an image data acquisition unit 222 that acquires image data from the stereo camera 210, a sensitivity difference adjustment unit 224 that adjusts a sensitivity difference between the acquired left and right image data, and a normal map based on the left and right polarized images.
  • a normal map generation unit 226 that generates a depth map based on the natural light image and the normal map on the left and right, and an output data generation unit 230 that generates data to be output.
  • the image data acquisition unit 222 acquires natural light color images and polarization component color images from the imaging devices 160a and 160b of the stereo camera 210, respectively. That is, the color image data of natural light from the left and right viewpoints and the color polarization image data for four channels from the left and right viewpoints are acquired.
  • data is continuously acquired at a predetermined frame rate.
  • the acquired data is temporarily stored in a memory (not shown) in a predetermined unit such as every frame so that the sensitivity adjustment unit 224 and the like can be read at an appropriate timing.
  • the sensitivity difference adjustment unit 224 adjusts the output level with a pair of color images of natural light from the left and right viewpoints and a pair of polarized images of each channel from the left and right viewpoints.
  • the average luminance value is calculated for each image, and gain is applied to one side so that it becomes the same level.
  • the gain applied to the color image of natural light may be used as the gain of the polarization image from the same viewpoint.
  • the normal map generation unit 226 obtains a normal vector of the subject surface using the polarized images for the left and right four channels, and generates a normal map in which the normal vector is mapped to the image plane. For this processing, the above-described conventional technique for obtaining normal information of a subject using a stereo polarization camera can be applied.
  • the depth map generation unit 228 first generates a depth map using the left and right natural light color images that have been level-adjusted.
  • the corresponding points are detected from the left and right color images, the distance from the imaging surface of the corresponding points is calculated from the parallax by the principle of triangulation, and the depth map is generated by mapping to the image plane.
  • a technique for generating a depth map using a stereo image has been put to practical use in a conventional stereo camera.
  • the depth map generation unit 228 improves the accuracy of the depth map using the normal map generated by the normal map generation unit 226. Specifically, the continuity of the surface of the subject is acquired based on the distribution of normal vectors. As a result, even if the points whose distances are obtained by the corresponding point detection are discrete, it is possible to specify whether or not the surrounding images represent the same continuous surface. It can be calculated from the normal vector.
  • the depth map generation unit 228 may further use a polarization image for detection of corresponding points itself, and may use fine irregularities on the object surface appearing in the polarization image as feature points.
  • a polarization image for detection of corresponding points itself, and may use fine irregularities on the object surface appearing in the polarization image as feature points.
  • the position of the natural light image and the image in the polarization image are coincident at the pixel level at the photographing stage, it is not necessary to align them later. As a result, a depth map can be obtained with high accuracy even for a subject with a few feature points at first glance.
  • the output data generation unit 230 outputs necessary data among the generated normal map, depth map, and natural light color image acquired by the image data acquisition unit 222 to an external output device.
  • display image or audio data may be generated and output as a result of performing predetermined information processing using these data.
  • the data to be output and the information processing to be performed may vary depending on the purpose of use of the image processing system 200.
  • the position of the subject in the real space is specified using the depth map obtained with high accuracy, and the color image of natural light is processed or a game screen that reacts to the movement of the subject is generated accordingly. If the image data generated in this way is output to a display as an output device at an appropriate timing, a moving image that changes according to the movement of the subject can be displayed.
  • the output mode is not limited to this.
  • FIG. 24 shows another example of the configuration of the image processing system of the present embodiment.
  • the image processing system 300 includes a stereo camera 310 and an image processing device 320.
  • the stereo camera 310 is a camera in which the imaging device 160 shown in FIG. 20 and a general color image imaging device 312 are arranged on the left and right sides with a known interval.
  • the image processing apparatus 320 includes an image data acquisition unit 222 that acquires image data from the stereo camera 310, a sensitivity difference adjustment unit 224 that adjusts a sensitivity difference between the acquired left and right image data, and a depth map generation unit that generates a depth map. 228, a luminance difference acquisition unit 324 that acquires the luminance difference between the left and right natural light images, a normal map generation unit 326 that generates a normal map, and an output data generation unit 230 that generates data to be output.
  • the image acquisition unit 222 acquires image data from the stereo camera 310 as in the case of FIG. However, in this case, the color image of natural light acquires data from the left and right viewpoints, but the color polarization image is only data from one viewpoint obtained from the imaging device 160. Similar to the case of FIG. 23, the sensitivity difference adjustment unit 224 performs adjustment to align the output levels of the natural light color images from the left and right viewpoints. Similarly to the case of FIG. 23, the depth map generation unit 228 also extracts corresponding points from the left and right natural light images, calculates the distance from the imaging surface of the subject based on the parallax, and generates initial data of the depth map.
  • the luminance difference acquisition unit 324 acquires the luminance difference between corresponding regions in the left and right images based on the left and right parallaxes calculated by the depth map generation unit 228. If the difference in luminance between the left and right images is large despite representing the same subject image, it is considered that the specular reflection component is dominant in the higher luminance.
  • FIG. 25 compares right and left natural light images actually captured. In the figure, the portion indicated by the arrow in the right image is considered to have a significantly higher luminance and a dominant specular reflection component than the corresponding portion in the left image.
  • the luminance difference acquisition unit 324 compares the luminances of the corresponding pixels or image areas of both images, and generates a luminance difference image representing the difference for each pixel or image area.
  • the normal map generation unit 326 performs threshold determination based on the luminance difference image generated by the luminance difference acquisition unit 314, and the region where the specular reflection component is dominant and the other region, that is, the diffuse reflection component. Determine the dominant territory. Then, the azimuth angle of the subject is estimated by a calculation method suitable for each. In general, when the specular reflection component is dominant, the incident surface (azimuth) is an angle at which the luminance is minimum with respect to the polarization azimuth, and when diffuse reflection is dominant, the incident surface (azimuth) is It is known that the angle has the maximum luminance with respect to the polarization direction.
  • the normal map generation unit 326 approximates a luminance sine wave that interpolates the change direction of the four channels based on the polarization image obtained from the imaging device 160, and which of the specular reflection component and the diffuse reflection component dominates.
  • the azimuth angle of the subject surface is obtained by a method suitable for each region.
  • the normal map generation unit 326 further obtains a normal vector of the subject surface using the initial data of the depth map generated by the depth map generation unit 228.
  • the position of the object surface in the three-dimensional space is obtained as a point cloud by back-projecting the distribution of distance values on the image plane represented by the depth map into the three-dimensional space.
  • the normal vector of the subject surface can be obtained in units of the minute area.
  • a calculation technique using such a principle is widely known in the field of computer vision.
  • a library such as PCL (Point Cloud Library) is widely used.
  • the normal map generation unit 326 generates a final normal map based on the normal vector generated from the depth map and the azimuth angle of the surface acquired from the polarization image.
  • the depth map may have data omissions or errors in the image plane depending on the state of the subject surface. Therefore, the azimuth angle of the object surface acquired from the polarization image is compared with the normal vector generated from the depth map, and a normal map with higher accuracy is generated. For example, a normal vector that clearly deviates from the azimuth angle obtained from the polarization image is excluded from the result, or a normal vector of a missing region is estimated from the azimuth angle and interpolated.
  • the depth map generation unit 228 interpolates the initial data of the depth map using the normal map generated in this way, and generates a final depth map.
  • the depth map generation unit 228 may use a polarization image for detection of corresponding points.
  • the output data generation unit 230 generates and outputs predetermined output data as in FIG.
  • FIG. 26 shows still another example of the configuration of the image processing system according to the present embodiment.
  • the image processing system 400 includes a trinocular camera 410 and an image processing device 420.
  • a general color image imaging device 412a, the imaging device 100 shown in FIG. 7, and a general color image imaging device 412b are arranged on the left, middle, and right so as to have known intervals. Camera.
  • the image processing apparatus 420 includes an image data acquisition unit 222 that acquires image data from the trinocular camera 410, a sensitivity difference adjustment unit 224 that adjusts a sensitivity difference between the acquired three-viewpoint image data, and a depth map that generates a depth map.
  • a generation unit 228 includes a luminance difference acquisition unit 324 that acquires a luminance difference between the left and right natural light images, a normal map generation unit 426 that generates a normal map, and an output data generation unit 230 that generates data to be output.
  • the image acquisition unit 222 acquires image data from the trinocular camera 410 as in the case of FIGS. However, in this case, the left and right natural light color image data from the imaging devices 412a and 412b, and the natural light luminance image and the four-channel monochrome polarization image data from the imaging device 100 located in the middle are obtained.
  • the sensitivity difference adjustment unit 224 performs adjustment to align the output levels of natural light images from three viewpoints.
  • the depth map generation unit 228 extracts corresponding points from the color images of the left and right natural lights acquired from the imaging devices 412a and 412b, calculates the distance from the imaging surface of the subject based on the parallax, and generates initial data of the depth map. .
  • the luminance difference acquisition unit 324 acquires the luminance difference of the corresponding region based on the parallax of the color images of the left and right natural light calculated by the depth map generation unit 228.
  • the normal map generation unit 426 detects a region where the amplitude of the polarization luminance is larger than a predetermined threshold in the polarization image for four channels from the imaging device 100. In the polarization image, specular reflection is considered to be dominant in the region where the polarization direction dependency is large. And the area
  • the region where the specular reflection is dominant can be specified more accurately by using the left and right natural light color images from the imaging devices 412a and 412b and the polarized image from the imaging device 100.
  • the normal map generation unit 426 approximates a luminance sine wave that interpolates the change direction of the four channels based on the polarization image obtained from the imaging device 100, and then uses the specular reflection component.
  • the azimuth angle of the object surface is obtained by a method suitable for each region depending on which of the dominant and diffuse reflection components is dominant.
  • a final normal map is generated using the normal vector of the subject surface obtained by using the initial data of the depth map generated by the depth map generation unit 228 and the azimuth angle.
  • the depth map generation unit 228 interpolates the initial data of the depth map using the normal map generated in this way, and generates a final depth map. Also in this case, the depth map generation unit 228 may use a polarization image for detection of corresponding points.
  • the output data generation unit 230 generates and outputs predetermined output data as in FIG. According to such a three-lens camera, a depth map can be generated more accurately by the imaging devices at both ends having a large parallax, and a normal map is created using a polarization image in the middle of the parallax. Can be easily taken, and the accuracy can be further improved.
  • the photoelectric conversion element layer is provided on the upper layer and the lower layer of the conductive wire grid polarizer in the imaging element.
  • the upper photoelectric conversion element layer is formed of a light-transmitting organic material, and electrodes for voltage application and charge reading are also formed of a transparent material.
  • electrodes for voltage application and charge reading are also formed of a transparent material.
  • a part of the light incident from the upper surface and the light reflected by the wire grid polarizer are also detected. Since the polarization component that has passed through the wire grid polarizer is detected by the lower photoelectric conversion element layer, the entire image sensor can use the incident light without waste to obtain information on the natural light and the polarization component with high sensitivity. Further, by independently controlling the readout rates of both signals, sufficient performance can be obtained from the viewpoint of both detection sensitivity and readout speed.
  • a depth map using a general stereo image of natural light there may be a portion where a corresponding point cannot be extracted and a distance value is not calculated, but by acquiring a polarization image at the same position, A detailed depth map can be generated. Specifically, since fine unevenness on the object surface is also obtained as polarization information, it can be used as a feature point. Even if the distance values obtained using such feature points as the corresponding points are discrete, more detailed depth information can be obtained in view of the continuity of the surface obtained from the normal map. In combination with an imaging device that captures a general color image, an optimal image processing system can be constructed in view of required accuracy, allowable processing load, manufacturing cost, and the like.
  • the first photodetection layer 12 is made of an organic photoelectric conversion material that detects light in a wide wavelength band, thereby obtaining a luminance image of natural light.
  • information on different colors may be obtained from each layer by stacking organic photoelectric conversion materials that detect light in a specific wavelength band with electrodes interposed therebetween, and a natural light color image may be obtained.
  • the second photodetection layer 16 may have a laminated structure of organic photoelectric conversion materials that detect light in a specific wavelength band, so that a polarized color image may be acquired without providing a color filter layer. In this case, since red, green, and blue information can be obtained from the same pixel, a process of demosaicing the Bayer array is not necessary.
  • image sensor 10 image sensor, 12 first photodetection layer, 14 wire grid polarizer layer, 16 second photodetection layer, 28 image sensor, 36 upper electrode, 38 organic photoelectric conversion film, 44 lower electrode, 48 polarizer, 54 photoelectric Conversion element, 70 image sensor, 72 natural light data acquisition unit, 74 polarization data acquisition unit, 75 sensitivity difference adjustment unit, 76 defect correction unit, 78 defect detection unit, 84 natural light image generation unit, 86 polarization image generation unit, 100 imaging device 160 imaging device, 161 image sensor, 162 polarization data acquisition unit, 164 luminance image generation unit, 166 color image generation unit, 168 polarization image generation unit.
  • the present invention can be used for cameras, imaging devices, image processing devices, information processing devices, object recognition devices, image analysis devices, and systems including them.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

ステレオカメラ210は、自然光の画像と複数方位の偏光画像を同時に撮影する撮像装置160a、160bを左右に配置した構成を有する。画像処理装置220の画像データ取得部222は、自然光のステレオ画像と偏光成分のステレオ画像を取得する。感度差調整部224は、自然光のステレオ画像と偏光成分のステレオ画像の出力レベルをそれぞれ揃える。法線マップ生成部226は、偏光成分のステレオ画像に基づき被写体の法線ベクトルを画像平面に表した法線マップを生成する。デプスマップ生成部228は、自然光のステレオ画像と法線マップに基づき、被写体の撮像面からの距離を画像平面に表したデプスマップを生成する。出力データ生成部230は、デプスマップを利用するなどして出力データを生成する。

Description

画像処理装置、画像処理システム、多視点カメラ、および画像処理方法
 本発明は光学成分を選択的に取得する撮像素子を用いた画像データ取得技術に関する。
 偏光フィルタをセンサ上に搭載することにより被写体の偏光情報を取得する偏光カメラが実用化されている。偏光カメラを用いることにより、被写体の面方位の情報や透明な物の存在を取得できるため、物体識別や異物検知が容易となる。そのため製造ラインにおける検品装置や車載カメラなど、幅広い分野への応用が見込まれる(例えば特許文献1、2参照)。
特開2012-80065号公報 特開2014-57231号公報
 偏光カメラは、所定方向の偏光軸を有する偏光フィルタを通過した光を検出するという、光成分の取捨選択をする原理上、取得できる情報が限定的であり、自ずとその用途も限定される。一方、偏光カメラで取得できる面方位などの情報は、画像解析を必要とする各種情報処理においても有用であるため、そのような処理へ容易に応用できる技術が望まれている。
 本発明はこうした課題に鑑みてなされたものであり、その目的は、撮影により、偏光情報を含む被写体の多様な情報を容易に取得できる技術を提供することにある。
 本発明のある態様は画像処理装置に関する。この画像処理装置は、被写体表面の法線に係る情報を取得する法線情報取得部と、被写体の撮像面からの距離を画像平面にマッピングしたデプスマップを取得し、法線に係る情報に基づき対応する位置におけるデータを補間して最終的なデプスマップを生成するデプスマップ生成部と、少なくとも最終的なデプスマップを用いて所定の処理を行い出力用の画像データを生成する出力データ生成部と、を備えることを特徴とする。
 本発明の別の態様は画像処理システムに関する。この画像処理システムは、多視点カメラと、その撮影画像のデータを取得し画像処理を行う画像処理装置を含む画像処理システムであって、多視点カメラは、同じ視野において撮影した自然光の画像と、複数方位の偏光成分の画像のデータを並行して出力する並列撮像装置を含む複数の撮像装置が既知の間隔で水平方向に配置され、画像処理装置は、多視点カメラから、少なくとも複数視点から撮影した自然光の画像と、一視点から撮影した偏光成分の画像のデータを取得する画像データ取得部と、少なくとも偏光成分の画像を利用して被写体表面の法線に係る情報を求める法線情報取得部と、複数視点から撮影した自然光の画像に基づき被写体の撮像面からの距離を求め、画像平面にマッピングしたデプスマップを生成するデプスマップ生成部と、少なくともデプスマップを用いて所定の処理を行い出力用の画像データを生成する出力データ生成部と、を備え、デプスマップ生成部は、法線情報取得部が求めた対応する位置における法線に係る情報に基づき、デプスマップに表される距離を補間することを特徴とする。
 本発明のさらに別の態様は多視点カメラに関する。この多視点カメラは、同じ視野において撮影した自然光の画像と、複数方位の偏光成分の画像のデータを並行して出力する並列撮像装置を含む複数の撮像装置が既知の間隔で水平方向に配置されたことを特徴とする。
 本発明のさらに別の態様は画像処理方法に関する。この画像処理方法は、被写体表面の法線に係る情報を取得するステップと、被写体の撮像面からの距離を画像平面にマッピングしたデプスマップを取得するステップと、法線に係る情報に基づき対応する位置におけるデータを補間して最終的なデプスマップを生成するステップと、少なくとも最終的なデプスマップを用いて所定の処理を行い出力用の画像データを生成し出力するステップと、を含むことを特徴とする。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置などの間で変換したものもまた、本発明の態様として有効である。
 本発明によると、撮影により偏光情報を含む被写体の多様な情報を容易に取得できる。
本実施の形態における撮像素子の概念図である。 図1で示した構造の撮像素子における入射光の検出効率を説明するための図である。 本実施の形態におけるワイヤグリッド型偏光子層に主軸角度の異なる複数の偏光子を近接させて配置したときのレイアウトの例を示す図である。 本実施の形態の撮像素子の構造例を示す断面図である。 本実施の形態におけるイメージセンサの構造の概略を示す図である。 本実施の形態における、1単位の撮像素子における、第1光検出層および第2光検出層の単位画素列と、ワイヤグリッド型偏光子層における各主軸角度の偏光子の領域との関係を例示する図である。 本実施の形態における撮像装置の機能ブロックを示す図である。 本実施の形態において欠陥検出部および欠陥補正部が行う、偏光成分の欠陥検出および補正の処理を説明するための図である。 本実施の形態において欠陥検出部および欠陥補正部が行う欠陥検出と補完の処理手順をより詳細に示すフローチャートである。 本実施の形態における欠陥検出部によりデータに欠陥があると判定された場合に、状況の類型と推定される欠陥の原因を例示する図である。 本実施の形態において生じ得る自然光データの位置依存性を説明するための図である。 本実施の形態において自然光画像生成部が自然光のデータを調整する処理手順の例を示すフローチャートである。 本実施の形態における、複数の単位画素列によって構成される、第2光検出層の画素の2次元配列を示す図である。 本実施の形態における、偏光画像をカラー画像として取得するときの撮像素子の構造例を示す断面図である。 図14で示した第1光検出層および第2光検出層の単位画素列と、ワイヤグリッド型偏光子層における各チャンネルの偏光子の領域との関係を例示する図である。 本実施の形態において、偏光画像をカラー画像として取得するときの撮像素子の構造の別の例を示す断面図である。 図16で示した第1光検出層および第2光検出層の単位画素列と、ワイヤグリッド型偏光子層における各チャンネルの偏光子の領域との関係を例示する図である。 本実施の形態において、偏光画像をカラー画像として取得するときの撮像素子の構造の別の例を示す断面図である。 図18で示した第1光検出層および第2光検出層の単位画素列と、ワイヤグリッド型偏光子層における各チャンネルの偏光子の領域との関係を例示する図である。 本実施の形態において、偏光成分をカラー情報として取得するイメージセンサを含む撮像装置の機能ブロックを示す図である。 本実施の形態において、カラー画像生成部が自然光のカラー画像を生成する処理手順を示すフローチャートである。 本実施の形態において、複数の単位画素列によって構成される、第2光検出層の画素の2次元配列を示す図である。 本実施の形態の画像処理システムの構成例を示す図である。 本実施の形態の画像処理システムの構成例を示す図である。 本実施の形態において実際に撮影された左右の自然光の画像を比較する図である。 本実施の形態の画像処理システムの構成例を示す図である。
 図1は本実施の形態における撮像素子の概念図である。撮像素子10は第1光検出層12、ワイヤグリッド型偏光子層14、および第2光検出層16を含む。第1光検出層12は有機系の光電変換材料とそれを挟むように形成された透明電極を含み、一部の光を吸収して電荷を発生させ、残りの光を透過する構造を有する。ワイヤグリッド型偏光子層14は、複数の線状の導体部材を入射光8の波長より小さい間隔でストライプ状に配列させた偏光子を含む。第2光検出層16は、一般的なCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの半導体素子構造を有する。
 第1光検出層12側からの入射光8はまず、第1光検出層12によりその一部が吸収され光電変換されるとともに残りが透過する。透過した光がワイヤグリッド型偏光子層14に入射すると、偏光子のラインと平行な方位の偏光成分は反射し、垂直な偏光成分のみが透過する。そのように透過した偏光成分を、第2光検出層16で検出する。一方、ワイヤグリッド型偏光子層14で反射した成分は再び第1光検出層12に入射し、その一部が吸収され光電変換される。このような構成により、第1光検出層12では略無偏光の光、第2光検出層16では特定方位の偏光成分、というように、同じ位置において2種類の光を検出できる。
 またワイヤグリッド型偏光子層14の反射光を第1光検出層12で吸収するため、入射光の検出効率に優れている。図2は、図1で示した構造の撮像素子における入射光の検出効率を説明するための図である。まず第1光検出層12における入射光(矢印A)の吸収率を40%とすると、残りの60%がワイヤグリッド型偏光子層14に入射する(矢印B)。ワイヤグリッド型偏光子層14における透過率を50%とすると、第2光検出層16に入射する光、および反射する光はどちらも、最初の入射光の60%×50%=30%である(矢印C、D)。
 このうち反射光(矢印D)は、第1光検出層12で30%×40%=12%吸収される。結果として第1光検出層12では、40%+12%=52%が吸収されることになる。すなわちこの撮像素子の構造によれば、第1光検出層12で52%、第2光検出層16で30%の、合計82%が検出対象となる。ここで、後述するようにワイヤグリッド型偏光子層14による反射光をより集めやすいように第1光検出層12の構造を工夫し、迷光の発生を1/10程度に抑えれば、100%に近い率で入射光を検出値に反映させることができる。
 偏光子を構成する導体の被覆率によってワイヤグリッド型偏光子層14における透過率を調整し、例えば70%とした場合、第1光検出層で47%以上、第2光検出層で42%が検出対象となり、上述と同じ構造でもさらに検出効率を増やすことができる。上述のとおり、本実施の形態の撮像素子は同じ位置で偏光/無偏光の情報を得ることができるが、異なる主軸角度(ストライプの方向)の複数の偏光子を近接させて配置すれば、ほぼ同じ位置で複数方位の偏光成分の情報をさらに取得できる。
 図3は、ワイヤグリッド型偏光子層14に主軸角度の異なる複数の偏光子を近接させて配置したときのレイアウトの例を示している。同図はワイヤグリッド型偏光子層14を俯瞰した状態を示しており、網掛けされたラインが偏光子を構成する導体(ワイヤ)である。なお点線の矩形はそれぞれ一主軸角度の偏光子の領域を表しており、点線自体は実際に形成されるものではない。図示する例では、主軸角度の異なる4つの偏光子が2行2列の4つの領域20、22、24、26にそれぞれ配置されている。
 図中、対角線上にある偏光子はその主軸角度が直交しており、隣り合う偏光子は45°の差を有する。すなわち45°おきの4つの主軸角度の偏光子を設けている。各偏光子はワイヤの方向の偏光成分を減衰させ、それに直交する方向の偏光成分を透過する。これにより、その下に設けた第2光検出層16においては、ワイヤグリッド型偏光子層14の4つの領域20、22、24、26に対応する各領域で、45°おきの4方位の偏光情報を得ることができる。
 このような4つの主軸角度の偏光子配列をさらに縦方向、横方向に所定数、配列させ、各偏光子単位、あるいはそれより小さい単位を画素と対応づけて上下の層で光を検出すれば、略無偏光の画像と4種類の偏光成分の画像が得られることになる。以後、図3で示した4つの主軸角度の偏光子配列を1単位として説明する。
 図4は本実施の形態の撮像素子の構造例を断面図で表している。この撮像素子28は、偏光情報として白黒(グレースケール)の画像を取得する。撮像素子28は、第2光検出層16、ワイヤグリッド型偏光子層14、第1光検出層12、オンチップレンズ30を、検出結果を電気信号として転送するための多層配線層58上にこの順で積層させ、支持基板60を裏に貼り合わせた構造を有する。第1光検出層12は、所定の波長帯の光を選択的に検出して光電変換を行う有機光電変換膜38と、それに電圧を印加し信号電荷を取り出すための上部電極36および下部電極44、および無機絶縁膜40を含む。
 下部電極44は画素に対応する領域ごとに形成され、無機絶縁膜40により互いに絶縁される。有機光電変換膜38によって光電変換され生じた電荷を読み出すため、下部電極44には多層配線層58へ至る導電性プラグ52が接続される。導電性プラグ52を移動した電荷は図示しない電荷蓄積層に蓄積され、所定のタイミングで読み出される。上部電極36は、図示しないコンタクトメタル層により多層配線層58に接続され電圧が印加される。有機光電変換膜38は所定の波長域の光を所定の割合で吸収して光電変換する一方、残りの光を透過させる。有機光電変換膜38は例えばキナクリドン誘導体、ナフタレン誘導体、アントラセン誘導体、共役ポリマーなどで形成される。
 上部電極36および下部電極44は、光透過性を有する無機導電膜、例えばITO(インジウム錫酸化物)、TO(酸化錫)などで構成する。無機絶縁膜40は、例えば酸化シリコン、窒化シリコン、酸窒化シリコン(SiON)などの材料を、画素に対応する下部電極44とその上の有機光電変換膜38の間に格子状に形成したものである。無機絶縁膜40の内部には遮光層42を形成する。図示するように、有機光電変換膜38は遮光層42間に落とし込むような形状で下部電極44と接し、相対する領域の上部電極36とともに凹みを有する井戸型の形状を有する。
 このような形状とすることで、上述のとおりワイヤグリッド型偏光子層14から反射した光を効率的に集めて迷光を減らすことができる。遮光層42は横方向からの光の入射を抑制する。遮光層42は、例えばタングステン、チタン、アルミニウム、銅など、可視光に対して透過率の低い材料やその窒化膜を用いる。このような第1光検出層12の上に、保護膜34、平坦化層32を介してオンチップレンズ30を設ける。保護膜34は光透過性を有する無機材料、例えば酸化シリコン、窒化シリコン、酸窒化シリコンなどにより形成する。
 平坦化層32は光透過性を有する樹脂、例えばアクリル系樹脂、スチレン系樹脂、エポキシ系樹脂などにより形成する。ただし保護膜34が平坦化層32を兼ねてもよい。オンチップレンズ30は、入射光を第1光検出層12の各画素領域に集光させるものである。なお有機光電変換膜を用いて画像を取得する技術については、例えば特表2002-502129号公報、特開2011-199152号公報、特開2013-183056号公報、特開2007-59515号公報などに開示されている。ただし本実施の形態では、赤、緑、青の波長帯を全て含む吸収波長帯を有する材料を選択してよい。
 すなわち可視光のより広範囲の波長帯を吸収する材料を用いるか、異なる吸収波長帯の材料を積層させることにより、輝度の情報が得られればよい。このような材料や構造は、特に太陽光発電の分野などでも実用化されており、材料によって吸収波長帯を制御する技術は上記文献などにおいても公知である。例えば、可視光の広い波長帯の光を吸収する材料として、特表2002-502129号公報に開示されるポリチエニレンビニレン(PTV)やポリビニルカルバゾール(PVK)などのポリマーや、それらと有機分子を混合した材料などを用いることができる。また、当該膜における光の吸収率は、例えば特開2007-59515号公報に開示されるように、形成膜厚によって適宜制御する。
 第1光検出層12の下層には、層間絶縁膜46を介してワイヤグリッド型偏光子層14を設ける。層間絶縁膜46は酸化シリコン、窒化シリコン、酸窒化シリコンなどにより形成する。ワイヤグリッド型偏光子層14は、酸化シリコンやアクリル系樹脂などの光透過性を有する層間膜50に偏光子48を埋設した構造を有する。偏光子48は図3に示すように、上面から見たとき、領域によってその方向が異なるストライプ状の配列を有する。図4は、例えば図3の一点鎖線A-A’における断面を示しており、黒の塗り潰しで示したように、図の左側の領域では複数のワイヤ断面が、右側の領域では1つのワイヤの側面が見えている。
 偏光子48は、例えば厚さ100nm、幅50nmの線状のアルミニウムを150nm間隔で配列させて形成する。このように光を透過しない線状の材料を入射光の波長より小さい間隔で配列させて偏光子48を形成することにより、偏光子48と直交する方向の偏光成分が透過する。また偏光子48で反射した光は第1光検出層12に入射する。ワイヤグリッド型偏光子層14の下層には、上述したのと同様の材料の層間絶縁膜46を介して第2光検出層16を設ける。ここで層間絶縁膜46は遮光層42を含み、第2光検出層16への横方向からの光の入射を抑制する。
 第2光検出層16は、シリコン基板56に、各画素に対応させて光電変換素子54を埋設した構造を有する。なお同図では、一主軸角度の偏光子48に対し、第1光検出層12の画素に対応する下部電極44と、第2光検出層16の画素に対応する光電変換素子54を、どちらも横方向に2つずつ設けている。図の奥行き方向にも同様に2つずつ設けるとすると、一主軸角度の偏光子48に対し、第1光検出層12と第2光検出層16の画素が4つずつ設けられることになる。
 ただし第1光検出層12の1画素の領域と第2光検出層16の1画素の領域は面積が異なっていてもよい。また偏光情報としてカラー画像を取得する場合は、後述するように、第2光検出層16の上層にカラーフィルタを設け、各色に対し光電変換素子を設ける。図示するような撮像素子28を、図の横方向および奥行き方向にマトリクス状に並べ光検出のタイミングを制御する周辺回路を接続することにより、複数種類の光の情報を2次元データとして同時に取得するイメージセンサを構成できる。なおワイヤグリッド型偏光子を用いて画像を取得する技術については、例えば特開2012-80065号公報などに開示されている。
 電荷の読み出しのための周辺回路の構成は一般的なイメージセンサと同様でよい。ただし、第1光検出層12の検出値を画素値とする画像と第2光検出層16の検出値を画素値とする画像の2つを並行して読み出すため、同様の周辺回路を2つ設ける。図5は本実施の形態におけるイメージセンサの構造の概略を示している。イメージセンサ170は画素部172と、周辺回路としての行走査部174、水平選択部176、列走査部180、制御部178を含む。画素部172は図4で示したような1単位の撮像素子28をマトリクス状に配列させてなる。
 本実施の形態では、第1光検出層12からは、被写空間からの入射光およびワイヤグリッド型偏光子層14からの反射光の合計を示す電荷が、第2光検出層16からは、各方位の偏光成分を示す電荷が、画素に対応する電極単位でそれぞれ読み出される。同図では読み出しのための2つの周辺回路のうち一方を代表させて示している。光電変換により発生し電荷蓄積層に蓄積された電荷を読み出すための、トランジスタ等既存の機構を含む各画素は、行ごとに行走査部174、列ごとに水平選択部176および列走査部180に接続されている。行走査部174はシフトレジスタやアドレスコードなどによって構成され各画素を行単位で駆動する。
 行走査部174によって選択走査された画素から出力される信号は水平選択部176に供給される。水平選択部176は、アンプや水平選択スイッチなどによって構成される。列走査部180はシフトレジスタやアドレスデコーダなどによって構成され、水平選択部176の各水平選択スイッチを操作しつつ順番に駆動する。列走査部180による選択走査により、水平選択部176に供給された各画素からの信号が外部へ出力される。制御部178は、タイミング信号を生成し、水平選択部176および列走査部180などの駆動タイミングを制御する。
 図示するような周辺回路を、第1光検出層12からの信号読み出し用と第2光検出層16からの信号読み出し用の2つ設けることにより、それらに基づく2種類の画像の出力フレームレートを独立に制御することができる。例えば、第1光検出層12からの画像のフレームレートを、第2光検出層16からの画像のフレームレートより小さくする。具体的には後者を60fpsとしたとき前者を30fpsなどとする。このようにすると、第1光検出層12により発生した電荷の蓄積時間を第2光検出層16より長くでき、第1光検出層12の感度を向上させることができる。
 上述のように、第1光検出層12から第2光検出層16側へ透過する光の割合は、有機光電変換膜38の膜厚を調整することにより制御される。この透過率を十分確保するために有機光電変換膜38の膜厚を薄くすると、自ずと第1光検出層12における検出感度が下がる。第1光検出層12からの画像のフレームレートを第2光検出層16と独立に、かつ有機光電変換膜38の膜厚や材料に応じて適切に制御することにより、第1光検出層12における光の透過率と検出感度を両立させることができる。
 また本実施の形態において第1光検出層12は、信号読み出しのための多層配線層58までの層間距離が大きいため、第2光検出層16と比較し動作速度の制限が厳しくなる。その観点においても、両者からの画像のフレームレートを独立に制御することにより、第2光検出層16からの画像の出力レートを十分に確保しつつ、第1光検出層12からの画像を無理なく出力する態様を実現できる。このことは、後述するように一般的なカラー画像の撮像装置と組み合わせて画像処理システムを構築する場合には特に有効である。
 図6はこれまで述べた1単位の撮像素子における、第1光検出層12および第2光検出層16の単位画素列と、ワイヤグリッド型偏光子層14における各主軸角度の偏光子の領域との関係を例示している。同図(a)は第1光検出層12の単位画素列、(b)はワイヤグリッド型偏光子層14における各主軸角度の偏光子の配列、(c)は第2光検出層16の単位画素列である。この例では上述のとおり、第1光検出層12および第2光検出層16のどちらも、各主軸角度の偏光子に対し2行2列の4つの画素を設けている。
 第1光検出層12は略無偏光の成分の光を検出する。ここで上述のように、より広い波長帯の光を吸収する材料または構造を用いれば、(a)の単位画素列をさらに並べた全画素配列により、一般的な輝度画像に近い画像が得られる。第2光検出層16は、偏光子を透過した偏光を検出するため、対応する領域の偏光子の主軸角度に依存して、異なる偏光成分の情報が得られる。すなわち(c)の単位画素列のうち、それぞれ4つの画素からなる画素ブロック82a、82b、82c、82dにおいて、異なる方位の偏光成分が検出される。結果として、(c)の単位画素列をさらに並べた全画素配列により、異なる偏光成分の白黒画像が画素ブロック単位で交互に表れる画像が得られる。
 図7は、上記イメージセンサ70を含む、本実施の形態の撮像装置の機能ブロックを示している。図7および後述する図20、23、24、26に示す各機能ブロックは、ハードウェア的には、撮像素子、各種演算回路、マイクロプロセッサ、CPU、メモリなどの構成で実現でき、ソフトウェア的には、メモリに格納された、または記録媒体からメモリに読み出されたプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 撮像装置100は、画素のマトリクスを含むイメージセンサ70、各光検出層の感度の差に基づきデータを調整する感度差調整部75、データの欠陥を検出する欠陥検出部78、欠陥があった場合にデータを補う欠陥補正部76、自然光画像を生成する自然光画像生成部84、偏光成分画像を生成する偏光画像生成部86を含む。イメージセンサ70は図5のイメージセンサ70に対応し、図4で示したような1単位の撮像素子の2次元配列と周辺回路により構成される。上述のとおり1単位の撮像素子は第1光検出層12、第2光検出層16が含まれ、前者からは略無偏光の光(以後、「自然光」と呼ぶ)の情報が、後者からは複数方位の偏光成分の情報が得られる。
 図7のイメージセンサ70のうち自然光データ取得部72および偏光データ取得部74はそれぞれ、第1光検出層12および第2光検出層16が検出した値を、例えばラスタ順など所定の画素順で感度差調整部75に出力する。第1光検出層12と第2光検出層16は、その材料や構造が異なるため、同じ光の強度であっても感度の違いにより検出値のスケールが異なる可能性が高い。そこで感度差調整部75は、後段の処理において両者の比較や加算を正しく行えるようにスケールを揃える。
 具体的には、自然光の検出値O(x,y)に係数k(x,y)を乗算することにより、スケールを偏光成分の検出値に合わせた自然光の換算値Ocon(x,y)を次のように算出する。
 Ocon(x,y)=k(x,y)×O(x,y)
ここで(x,y)は画素の2次元配列の座標である。係数k(x,y)は、撮像装置100の運用前または初期のキャリブレーションによりデフォルト値を次のように決定される。まず視野全体を占めるグレーの被写体を、無偏光光源により光を均一に照射した状態で撮影する。そしてそのときの自然光のデータの換算値が第2光検出層16の検出値と一致するように係数k(x,y)を決定する。
 すなわち、このとき第1光検出層12による自然光の検出値Oin(x,y)と第2光検出層16による偏光成分の検出値Sin(x,y)が得られたとすると、次の式を満たすようにk(x,y)を算出する。
 Sin(x,y)=k(x,y)×Oin(x,y)
ここで係数k(x,y)が画像全体で所定範囲内にある場合は、係数kを画素の位置座標によらない定数としてもよい。例えば偏光成分の検出値Sin(x,y)の画像全体の総和を自然光の検出値Oin(x,y)の画像全体の総和で除算することにより定数kを決定してもよい。
 感度差調整部75は、このようにして設定されている係数kを、イメージセンサ70の自然光データ取得部72から出力された自然光の検出値に乗算することにより、そのスケールを偏光成分の検出値に揃えたあと、両者を欠陥検出部78および欠陥補正部76に出力する。欠陥検出部78は、検出値に欠陥(異常値)がある場合、それを検出する。例えば偏光成分のデータにおいては、方位が直交する2種類の偏光成分の和は元の自然光を表す。そこで、図6の(c)で示した単位画素列から得られる4方位の偏光成分の検出値のうち、2組の直交する偏光成分の検出値同士を足し合わせ互いに比較する。両者は本来、自然光を表す同程度の値を示すため、差が大きければいずれかの検出値に欠陥があると判定できる。
 自然光のデータについても、近接する位置では本来は検出値が同等であることに基づき、単位画素列のうち対角線上にある画素ブロックの値を足し合わせ互いに比較することにより、同様の基準で欠陥を検出できる。欠陥補正部76は、欠陥検出部78が欠陥を検出した場合、周囲の画素のデータに基づき欠陥を補完する。このとき偏光成分のデータについては同じ位置の自然光のデータを、自然光のデータについては同じ位置の偏光成分のデータを活用することにより欠陥の原因を推定し、適切な補完処理を行う。
 一方、欠陥検出部78が欠陥を検出しない場合、欠陥補正部76は、感度差調整部75から取得した自然光および偏光成分のデータをそのまま自然光画像生成部84に出力する。自然光画像生成部84は、自然光の換算値と偏光成分の検出値に基づき、最終的に出力すべき自然光の輝度画像を生成する。基本的には自然光の検出値に上述の係数kを乗算してなる換算値と偏光成分の検出値を足し合わせることにより、元来の入射光強度を復元する。ただし自然光のデータの位置依存性を考慮し、データをさらに調整してもよい。具体的な手法は後述する。
 自然光画像生成部84は、生成した自然光の画像のデータを、撮像装置100に接続した記憶装置や画像処理装置などに適宜出力する。また自然光画像生成部84は、欠陥補正部76から取得した偏光成分の検出値と、生成した自然光の輝度画像のデータとを、偏光画像生成部86に出力する。偏光画像生成部86は、それらのデータを用いて最終的に出力する各方位の偏光画像を生成する。
 具体的には、偏光子の配置に依存して離散的に求められている各方位の偏光成分の検出値を補間する。このとき、自然光の輝度画像の高周波成分を加算することにより、高周波成分が表す画像のディテールも復元する。偏光画像生成部86は、生成した偏光画像のデータを、撮像装置100に接続した記憶装置や画像処理装置に適宜出力する。
 図8は、欠陥検出部78および欠陥補正部76が行う、データの欠陥検出および補正の処理を説明するための図である。同図左は1単位の撮像素子に含まれるワイヤグリッド型偏光子層14の単位偏光子列102、同図右は偏光成分を検出する第2光検出層16の単位画素列104である。なお単位画素列104には後述する説明のために、その周辺の画素も点線で示している。
 ここで単位偏光子列102のうち、図の縦軸から45°の傾きを有する左上の偏光子による偏光成分を1チャンネル(1ch)、90°の傾きを有する右上の偏光子による偏光成分を2チャンネル(2ch)、135°の傾きを有する右下の偏光子による偏光成分を3チャンネル(3ch)、180°の傾きを有する左下の偏光子による偏光成分を4チャンネル(4ch)と呼ぶ。図示する単位画素列104の場合、各チャンネルに対し、2行2列の4つの画素で偏光成分を検出する。
 以後の説明では、各チャンネルの画素に対し、左上から時計回りに1、2、3、4と識別番号を与え、(チャンネル番号,識別番号)の表記により、単位画素列104に含まれる16個の画素を識別する。上述したように直交する偏光成分の和は元の自然光を表すことに着目すると、方位が直交する1チャンネルおよび3チャンネルの検出値の和は、2チャンネルと4チャンネルの検出値の和と同程度の値を示すことになる。そこで両者を比較し、差が大きければ欠陥があると判定する。
 まず各画素の偏光成分の検出値をS(チャンネル番号,識別番号)とし、各チャンネルの検出値の合計Ssum(チャンネル番号)を次のように算出する。
Ssum(1)=S(1,1)+S(1,2)+S(1,3)+S(1,4)
Ssum(2)=S(2,1)+S(2,2)+S(2,3)+S(2,4)
Ssum(3)=S(3,1)+S(3,2)+S(3,3)+S(3,4)
Ssum(4)=S(4,1)+S(4,2)+S(4,3)+S(4,4)
 そして同図実線矢印で示す、方位が直交するチャンネルの偏光成分の検出値の総和Ssum(1)+Ssum(3)と、Ssum(2)+Ssum(4)との差ΔSが所定のしきい値を超えた場合、欠陥検出部78はいずれかのチャンネルに欠陥があると判定する。自然光のデータの場合、偏光子から反射する偏光成分の全体に対する寄与が小さいため、チャンネル依存性は比較的少ないが、そもそも近接する位置では値が大きく変化しないことを考慮すれば、偏光成分の検出値と同様の計算により欠陥を判定できる。なお以後の説明では、自然光のデータについても各チャンネルに対応する領域を「チャンネル」と呼ぶ。
 各チャンネルに対応する画素ブロックの4つの画素における自然光の換算値の合計をOsum(チャンネル番号)としたとき、対角線上にある画素ブロックの自然光の換算値の総和Osum(1)+Osum(3)と、Osum(2)+Osum(4)との差ΔOが所定のしきい値を超えた場合、欠陥検出部78はいずれかのチャンネルに欠陥があると判定する。
 これに応じて欠陥補正部76は、Nをチャンネル番号としたとき、偏光成分の検出値のチャンネルごとの合計Ssum(N)と自然光の換算値のチャンネルごとの合計Osum(N)を確認し、欠陥有りと判定されたデータのうち欠陥のあるチャンネルを特定するとともに、それを補完する値を決定する。図9は、欠陥検出部78および欠陥補正部76が行う欠陥検出と補完の処理手順をより詳細に示すフローチャートである。同図の処理は、図8で示した単位画素列ごとに実行される。まず欠陥補正部76は、上述のΔSがしきい値Th1を越えているか否かを確認し、越えていなければ偏光成分について当該単位画素列に欠陥がないと判定する(S10のN、S16)。
 ΔSがしきい値を越えていても(S10のY)、当該単位画素列が画像としてエッジ部分を含む場合は欠陥がないと判定する(S12のY、S16)。被写体の像の輪郭などを表すエッジ部分は定性的に画素値が急激に変化するため、ΔSが部分的に大きくなることがあり得るためである。この判定のため、欠陥補正部76は、偏光成分の検出値の2次元配列に対し、一般的な手法によりエッジを検出する。ΔSがしきい値を越え(S10のY)、当該単位画素列がエッジ部分を含まない場合(S12のN)、欠陥検出部78は、偏光成分について単位画素列内に欠陥があると判定する(S14)。
 自然光の換算値についても同様の判定を行う。すなわち上述のΔOがしきい値Th1を越えているか否かを確認し、越えていなければ自然光について当該単位画素列に欠陥がないと判定する(S18のN、S24)。ΔOがしきい値を越えていても(S18のY)、当該単位画素列が画像としてエッジ部分を含む場合は欠陥がないと判定する(S20のY、S24)。この判定のため、欠陥補正部76は自然光の換算値の2次元配列に対してもエッジを検出する。ΔOがしきい値を越え(S18のY)、当該単位画素列がエッジ部分を含まない場合(S20のN)、欠陥検出部78は、自然光について単位画素列内に欠陥があると判定する(S22)。
 欠陥検出部78により、偏光成分および自然光のデータのどちらにも欠陥がないと判定されたら、欠陥補正部76は、当該単位画素列の値をそのまま自然光画像生成部84に出力する(S26のN)。偏光成分および自然光のデータの少なくともいずれかに欠陥があると判定されたら(S26のY)、欠陥補正部76は、偏光成分の検出値と自然光の換算値を、同じチャンネルごとに比較することにより、欠陥が生じているチャンネルを特定する(S28)。
 定性的には、偏光成分の検出値の合計Ssum(N)と、自然光の換算値の合計Osum(N)の差がしきい値Th2以上のチャンネルNに欠陥が含まれると判定する。そして欠陥補正部76は、偏光成分の検出値の合計Ssum(N)と自然光の換算値の合計Osum(N)の差の生じ方、および周辺の単位画素列における値などの状況を考慮し、欠陥が含まれるチャンネルNに適切な値を代入して補完する(S30)。そして補完後のデータを自然光画像生成部84に出力する。
 図10は、欠陥検出部78により偏光成分および自然光のデータの少なくともいずれかに欠陥があると判定された場合に、同じチャンネルで両者を比較したときの状況の類型と、推定される欠陥の原因を例示している。前提として偏光成分の検出値(「S」と表記)および自然光の換算値(「O」と表記)の少なくともどちらかに欠陥があり、チャンネルごとに光成分の検出値の合計と自然光の換算値の合計を比較した結果、あるチャンネルNでその差|Ssum(N)-Osum(N)|がしきい値Th2を超えていたため、当該チャンネルNに欠陥があると判定されている、とする。
 図中、各類型A1~Dの下の模式図は撮像素子の断面を示し、網掛けした矩形が偏光子、その上の点線が自然光を検出する面、下が偏光成分を検出する面、矢印が光の入射を表している。まず類型A1は、欠陥がSまたはOの少なくともどちらかであり、欠陥のあるチャンネルの自然光の換算値の合計Osum(N)が周囲の所定位置の自然光の換算値の合計Osum(N’)より小さく、欠陥のあるチャンネルの偏光成分の検出値の合計Ssum(N)が周囲の所定位置あるいは直近の同じチャンネルの検出値の合計Ssum(N’)より大きい場合である。
 この場合、偏光子の一部が正しく機能せず多くの成分が透過している「偏光度不良」が欠陥の原因であると推定される。類型A2は類型A1と同様であるが、Osum(N)がOsum(N’)より著しく小さく、Ssum(N)がSsum(N’)より著しく大きい場合である。この場合、偏光子が全く機能せず全偏光成分が透過している「全透過」が欠陥の原因であると推定される。なお類型A1とA2は実際には、Osum(N’)-Osum(N)とSsum(N)-Ssum(N’)にしきい値を設けるなどして区別する。
 類型Bは、欠陥がSにあり、Osum(N)は周囲のOsum(N’)と同程度である一方、Ssum(N)が0と見なせる値の場合である。この場合、偏光子において透過も反射もしていないか、偏光成分の検出機構が機能していないため、偏光成分(偏光画像)の「黒潰れ」が欠陥の原因であると推定される。類型Cは、欠陥がSまたはOの少なくともどちらかであり、Osum(N)は周囲のOsum(N’)より著しく大きく、Ssum(N)が0と見なせる値の場合である。この場合、入射光が偏光子により「全反射」していることが欠陥の原因であると推定される。
 類型Dは、欠陥がSまたはOの少なくともどちらかであり、欠陥のあるチャンネルとその周囲の自然光の換算値の合計Osum(N,N’)が全体的に、さらにその周囲の自然光の換算値の合計Osum(N”)より大きく、偏光成分の検出値の合計Ssum(N)が周囲あるいは直近の同じチャンネルの検出値の合計Ssum(N’)より小さい場合である。この場合、偏光子によって入射光が「拡散」していることが欠陥の原因と推定される。このように欠陥補正部76は、自然光のデータと偏光成分のデータを相互に参照し、かつ周囲の値との比較結果を考慮することで、欠陥の原因を推定し、それに応じた補完手法を適宜選択できる。
 補完にあたっては、同じ種類のデータのうち近傍の位置で得られた値を代入したり、推定原因によっては、欠陥が偏光成分であれば同じ位置の自然光の値を、自然光であれば同じ位置の偏光成分の値を、代入したりすることが考えられる。あるいはそれらを組み合わせて代入する値を決定してもよい。同じ種類のデータを用いる場合、次のような手法が考えられる。
 例えば偏光成分の1チャンネルに欠陥が検出された場合、上記の直交関係を利用して、当該チャンネルの検出値の合計の適正値Ssum’(1)を次のように求める。
 Ssum’(1)=Ssum(2)+Ssum(4)-Ssum(3)
そしてこのチャンネルに含まれる4つの画素に、Ssum’(1)/Ssum(1)を乗算することで、各画素の適正値を決定する。自然光の換算値の補完についても同様の計算式を用いることができる。
 なおチャンネルごとの適正値は、隣接する別の単位画素列におけるデータを利用して決定してもよい。例えば偏光成分の1チャンネルに欠陥が検出された場合、図8の点線で記載された、隣接する単位画素列の3チャンネルの偏光成分の検出値との和(図中、点線矢印)も、その近傍の2チャンネルおよび4チャンネルの偏光成分の検出値の和とほぼ等しくなる。すなわち次の式が成り立つ。
 Ssum(1)≒Ssum(2)+Ssum(4)-Ssum(3)
 Ssum(1)≒Ssum_l(2)+Ssum_u(4)-Ssum_ul(3)
 Ssum(1)≒Ssum(2)+Ssum_u(4)-Ssum_u(3)
 Ssum(1)≒Ssum_l(2)+Ssum(4)-Ssum_l(3)
 ここでSsum_ul(3)は対象単位画素列104の左上の単位画素列の3チャンネル、Ssum_u(3)、Ssum_u(4)はそれぞれ、対象単位画素列104の上の単位画素列の3チャンネル、4チャンネル、Ssum_l(2)、Ssum_l(3)はそれぞれ、対象単位画素列104の左の単位画素列の2チャンネル、3チャンネルの偏光成分の検出値の合計である。この関係を利用し、偏光成分の合計の適正値Ssum’(1)を、上記4式の右辺の合計を4で割った値としてもよい。他のチャンネルでも同様の計算で値を補うことができる。
 自然光画像生成部84は、必要に応じて上記のとおり補完されたデータを用いて自然光の輝度画像を生成する。この処理は、自然光の検出値と偏光成分の検出値の線形和を画素ごとに算出することを基本とする。すなわち輝度Y(x,y)を次のように算出する。
 Y(x,y)=k(x,y)×O(x,y)+S(x,y)
ここで係数k(x,y)は、感度差調整部75において自然光の換算値を求める際に用いた係数k(x,y)でよく、この場合、輝度Y(x,y)は次のように求められる。
 Y(x,y)=Ocon(x,y)+S(x,y)
 あるいは自然光画像生成部84は、輝度Y(x,y)を次のように算出してもよい。
 Y(x,y)=k(x,y)×O(x,y)
この場合、実際の自然光データの位置依存性を考慮し、画像ムラがなくなるように係数kを調整してもよい。図11は、自然光データの位置依存性を説明するための図である。第1光検出層12が検出する光にはワイヤグリッド型偏光子層14からの反射光成分が含まれる。この反射光は偏光子を透過しない成分、すなわち第2光検出層16の検出対象の偏光方位と直交する方位の偏光成分である。
 図11は、第1光検出層12が検出する光の強度分布110および第2光検出層16が検出する光の強度分布112を、偏光子の主軸角度を横軸として表している。なお強度分布110、112を表す正弦波は主軸角度を連続的に変化させたときの定性的な変化を表しており、実際には横軸に数字で表されるチャンネル番号に対応する値が離散的に得られる。第2光検出層16で検出される光の強度分布112は、偏光子の主軸角度に依存するため、撮像素子への入射光の強度が同じであっても上述のチャンネル1、2、3、4に対し図示するように変化する。
 当然、偏光子を透過せずに反射する残りの成分の強度分布も当該偏光子の主軸角度に依存する。その分を1/3程度含むことにより、第1光検出層12が検出する光の強度分布110には図示するような位置依存が生じる。偏光成分の検出値との線形和により輝度Yを算出する場合は、キャリブレーションにより係数k(x,y)を画素ごとに適切に設定することにより、このような位置依存性は原則的にはキャンセルされる。一方、偏光成分の検出値を加算しない場合は、実際のデータにおいて位置依存性の有無を確認し、それに応じてデータを調整する。
 例えば、自然光の換算値のうち、同じ単位画素列に含まれる4つのチャンネルの画素の換算値をそれぞれ平均し比較することにより、位置依存性の有無を確認する。そして必要に応じて自然光の換算値をさらに調整する。図12は、自然光画像生成部84が自然光のデータを調整する処理手順の例を示すフローチャートである。なお上述と同様、(チャンネル番号,チャンネル内での識別番号)の表記で単位画素列内の画素を識別する。まず、チャンネルごとに自然光の換算値の平均値Oave(チャンネル番号)を次のように求める。(S40)。
Figure JPOXMLDOC01-appb-M000001
 そして値に差が出やすい、方位が直交するチャンネル同士で平均値を比較する。すなわちOave(1)とOave(3)、Oave(2)とOave(4)をそれぞれ比較する(S42)。それらの差がどちらも所定のしきい値Th3を超えなければ(S42のN)、当該単位画素列については位置依存性がないと判定し、換算値Oconをそのまま輝度Yとして採用する(S46)。また、差がしきい値を超えていても、単位画素列がエッジ部分を含んでいれば、当該エッジに起因した差である可能性が高いため、換算値Oconをそのまま輝度Yとして採用する(S42のY、S44のY、S46)。
 単位画素列がエッジ部分を含むか否かの判定は、欠陥検出部78が欠陥を検出する際に求めた結果を流用してよい。どちらかの平均値の差がしきい値を超え(S42のY)、当該単位画素列がエッジ部分を含まない場合は(S44のN)、偏光子からの反射成分により位置依存性が生じている可能性が高いため、それを打ち消すように値を調整する(S48)。例えば1チャンネルおよび3チャンネルの平均値の差|Oave(1)-Oave(3)|がしきい値Th3を超えていたら、Oave(1)とOave(3)が両者を平均化した値となるようにする。
 具体的には1チャンネルおよび3チャンネルの自然光の各画素の換算値に、さらに次の調整係数kcrを乗算し輝度Yとする。
 kcr(1)=(Oave(1)+Oave(3))/Oave(1)
 kcr(3)=(Oave(1)+Oave(3))/Oave(3)
2チャンネルの平均値Oave(2)および4チャンネルの平均値Oave(4)の差がしきい値Th3を超えていても同様の式により調整係数kcr(2)、kcr(4)を求め、各画素の換算値に乗算し輝度Yとする。
 自然光画像生成部84はこのような位置依存性確認および必要に応じた調整処理を、単位画素列ごとに行う。なお撮像装置100で動画撮影を行う場合、位置依存性確認および必要に応じた調整処理はフレームレートより低い頻度で行い、一旦算出した調整係数kcrを複数のフレームにわたり流用するようにして処理の負荷を軽減させてもよい。自然光画像生成部84は、必要に応じて算出した調整係数kcrを乗算するか、あるいは自然光の換算値と、同じ位置の偏光成分の検出値との和をとることにより、最終的な輝度画像の画素値として出力する。
 一方、偏光画像生成部86は、偏光成分の検出値に基づき、4チャンネル分の偏光画像のデータを生成する。図13は、複数の単位画素列によって構成される、第2光検出層16の画素の2次元配列を示している。同図太線は単位画素列の境界であり、数字で示された1~4チャンネルにそれぞれ4つの画素を備える構成を有する。ここで1チャンネルの画素を例にとると、その画素ブロックは、網掛けで示したように他のチャンネルの画素ブロックを挟むように離散的な配置となる。その他のチャンネルも同様である。そこで偏光画像生成部86は画素値を補間し、各チャンネルについて隙間のない偏光画像のデータを作成する。
 補間処理には最近傍補間、バイリニア補間、バイキュービック補間など既存の補間技術を適宜応用する。ただしこのような補間をしたのみでは、単位画素列内のチャンネルの配置に依存して画素の位相がずれている。そこで偏光画像生成部86は、同一単位画素列内にある4チャンネル分の画素が、最終的な各チャンネルの偏光画像において同じ位置に表れるように画素の位置を調整する。具体的には、1チャンネルの画像を右方向に1画素分、下方向に1画素分ずらす。2チャンネルの画像を左方向に1画素分、下方向に1画素分ずらす。3チャンネルの画像を左方向に1画素分、上方向に1画素分ずらす。4チャンネルの画像を右方向に1画素分、上方向に1画素分ずらす。
 さらに上述のように、自然光画像生成部84が生成した輝度画像を用いて、エッジ部分などにおける細かい変化が表現されるようにする。このため偏光画像生成部86は、ハイパスフィルタにより当該輝度画像から高周波成分hf_Y(x,y)を抽出する。そしてエッジ部分を含む画素についてはhf_Y(x,y)を画素値に加算する処理を、上記のように得た4チャンネル分の偏光画像全てに施すことにより、最終的な偏光画像を生成し出力する。なおここでのエッジ部分の特定も、欠陥検出部78が欠陥を検出する際に求めた結果を流用してよい。
 これまで述べた例では白黒画像を基本としていたが、第2光検出層16の上層にカラーフィルタを設けるなどして複数色の偏光情報を取得してもよい。図14は、偏光画像をカラー画像として取得するときの撮像素子の構造例を断面図で表している。なお図4で示した撮像素子28と同じ構成には同じ符号を付している。撮像素子128は、図4で示した撮像素子28のワイヤグリッド型偏光子層14とその下の層間絶縁膜46の間にカラーフィルタ層130を設けた構造を有する。また同図の例では、主軸角度の異なる各チャンネルに対し第1光検出層12と第2光検出層16の画素が1つずつ対応する構成としている。カラーフィルタ層130は例えば、赤、青、緑のフィルタをベイヤ配列で配置した構成を有する。
 図15はこの場合の第1光検出層12および第2光検出層16の単位画素列と、ワイヤグリッド型偏光子層14における各チャンネルの偏光子の領域との関係を例示している。同図(a)は第1光検出層12の単位画素列、(b)はワイヤグリッド型偏光子層14における各主軸角度の偏光子の配列、(c)は第2光検出層16の単位画素列である。この例では上述のとおり、第1光検出層12および第2光検出層16の1つの画素が、各主軸角度の偏光子にそれぞれ対応している。そしてカラーフィルタ層130により、(c)に示した第2光検出層16の単位画素列のうち、左上の画素が赤(R)、右上と左下の画素が緑(G)、右下の画素が青(B)の偏光成分を検出する。
 図16は、偏光画像をカラー画像として取得するときの撮像素子の構造の別の例を断面図で表している。なお図14で示した撮像素子128と同じ構成には同じ符号を付している。撮像素子140は、第2光検出層16において各主軸角度の偏光子に対し2行2列の4つの画素を設けたものである。したがって断面図においては、2つの主軸角度の偏光子の領域に対し、第2光検出層16に光電変換素子54a、54b、54c、54dが2つずつ並んだ構成を有している。またこの例では、カラーフィルタ層144の上にチップ内マイクロレンズ142を設けることにより、ワイヤグリッド型偏光子層14を透過した光が第2光検出層16の各画素に集光するようにしている。
 図17はこの場合の第1光検出層12および第2光検出層16の単位画素列と、ワイヤグリッド型偏光子層14における各チャンネルの偏光子の領域との関係を例示している。同図(a)は第1光検出層12の単位画素列、(b)はワイヤグリッド型偏光子層14における各主軸角度の偏光子の配列、(c)は第2光検出層16の単位画素列である。図15で示した場合と比較し、上述のとおり第2光検出層の画素がそれぞれ2行2列に細分化され、各主軸角度の偏光子に対し4つの画素が設けられる。そしてカラーフィルタ層144により、当該4つの画素からなる画素ブロックのうち、左上の画素が赤(R)、右上と左下の画素が緑(G)、右下の画素が青(B)の偏光成分を検出する。
 図18は、偏光画像をカラー画像として取得するときの撮像素子の構造のさらに別の例を断面図で表している。なお図16で示した撮像素子140と同じ構成には同じ符号を付している。撮像素子150は、第1光検出層12および第2光検出層16の双方において、各主軸角度の偏光子に対し2行2列の4つの画素を設けたものである。したがって断面図においては、2つの主軸角度の偏光子の領域に対し、第1光検出層12の画素に対応する下部電極44が2つずつ並んだ構成を有している。第2光検出層16の光電変換素子54a、54b、54c、54dも同様である。
 図19はこの場合の第1光検出層12および第2光検出層16の単位画素列と、ワイヤグリッド型偏光子層14における各チャンネルの偏光子の領域との関係を例示している。同図(a)は第1光検出層12の単位画素列、(b)はワイヤグリッド型偏光子層14における各主軸角度の偏光子の配列、(c)は第2光検出層16の単位画素列である。図17で示した場合と比較し、上述のとおり第1光検出層の画素がそれぞれ2行2列に細分化され、各主軸角度の偏光子に対し4つの画素が設けられる。
 図14、16、18で示したように、第1光検出層12および第2光検出層16の1画素の領域は、下部電極44および光電変換素子54のサイズおよび個数によって様々に組み合わせることができる。例えば第1光検出層12の単位画素列を、図19で示したように4行4列の16画素とし、第2光検出層16の単位画素列を、図15で示したように2行2列の4画素とするなどでもよい。
 偏光をカラー情報として取得する場合、後述するように同じ色かつ同じ方位の偏光情報は画像平面において、より離散的になりやすいため、要求されるデータの取得精度や素子の製造しやすさなど多角的な観点から、各検出層の画素の単位を適切に決定する。なおこのような画素サイズのバリエーションは、上述した白黒画像を取得する態様にも同様に適用できる。
 また図16、18の撮像素子140、150では、チップ内マイクロレンズ142をカラーフィルタ層144の上に設ける構造としたが、画素領域のサイズなどによって、ワイヤグリッド型偏光子層14の上に設けてもよい。この場合、偏光子により反射された光を拡散させ、第1光検出層12で均一に検出することができる。このように偏光成分をカラー情報で取得すると、当該情報を用いて自然光のカラー画像も生成できる。図20は、偏光成分をカラー情報として取得するイメージセンサを含む撮像装置の機能ブロックを示している。
 なお図7で示した撮像装置100と同じ機能を有する機能ブロックについては同じ符号を付し適宜説明を省略する。撮像装置160は、イメージセンサ161、感度差調整部75、欠陥検出部78、欠陥補正部76、自然光の輝度画像を生成する輝度画像生成部164、自然光のカラー画像を生成するカラー画像生成部166、および、カラーの偏光成分画像を生成する偏光画像生成部168を含む。イメージセンサ161は図5で示したイメージセンサ70と同様の構造を有し、基本的には図7のイメージセンサ70と同様の機能を有する。
 ただし撮像素子は図14、16、18で示したようにカラーフィルタ層を含んでいるため、偏光データ取得部162から出力される偏光成分の検出値は、複数の方位の偏光情報と、赤、青、緑のカラー情報との組み合わせで構成される。感度差調整部75、欠陥検出部78、欠陥補正部76はそれぞれ、図7を参照して説明した対応する機能ブロックと同じ機能を有する。
 輝度画像生成部164は、図7の自然光画像生成部84と同様に、自然光の換算値と偏光成分の検出値などに基づき、最終的に出力すべき自然光の輝度画像を生成する。ただしこの場合、画素によって検出対象の色(波長帯)が異なるため、単純に自然光の換算値と偏光成分の検出値の和を画素ごとに求めると、ベイヤ配列状に輝度のムラが生じることが考えられる。そこで、4つの画素を仮想的に1つの画素として処理したビニング画像で和をとることにより、検出対象の色に依存しないムラのない輝度情報を得る。すなわち4画素ごとの輝度Y1/4(x,y)を次のように求める。
 Y1/4(i,j)=Ocon1/4(i,j)+S1/4(i,j)
 ここで(i,j)は、(x,y)で表される元の画像平面を1/4に縮小したときの位置座標、Ocon1/4(i,j)は、感度差調整部75が生成した、係数k(x,y)のデフォルト値が乗算された自然光の換算値Ocon(x,y)のビニング画像での画素値、S1/4(i,j)は偏光成分の検出値S(x,y)のビニング画像での画素値である。輝度画像生成部164は、このようにして得た輝度Y1/4(i,j)を元の解像度に戻す。具体的には、輝度Y1/4(i,j)の2次元配列を補間するなどして画素数を4倍にしたうえ、自然光の換算値Ocon(x,y)の2次元配列の高周波成分を加算することによりディテールを復元する。輝度画像生成部164は、生成した元の解像度の輝度画像を、撮像装置160に接続した記憶装置や画像処理装置に適宜出力する。
 カラー画像生成部166は、偏光成分の検出値をベースに自然光のカラー画像を生成する。図21は、カラー画像生成部166が自然光のカラー画像を生成する処理手順を示すフローチャートである。カラー画像生成部166はまず、偏光成分の検出値を色ごとに無偏光化する(S50)。無偏光化とは、偏光成分の検出値から偏光方位による位置依存性を解消することである。この処理には、図12で示した、自然光の位置依存性を解消するための調整処理を応用できる。
 すなわち色ごとに、偏光成分の検出値を、方位が直交するチャンネル同士で比較する(図12のS42)。このとき1つのチャンネルに同じ色の画素が複数含まれる場合は、その平均値を算出して比較する(図12のS40)。図19で示した単位画素列の場合、各チャンネルに、緑の画素が2つ含まれるため、緑については2つの画素の検出値の平均値で比較する。それらの差がどちらも所定のしきい値を超えないか(図12のS42のN)、越えてもエッジ部分を含む場合は(図12のS42のY、S44のY)、当該単位画素列の当該色については位置依存性がないと判定し、その変更成分の検出値をそのまま採用する(図12のS46)。
 どちらかの差がしきい値を超え、当該単位画素列がエッジ部分を含まない場合は(図12のS42のY、S44のN)、偏光方位の差による位置依存性が高いため、それを打ち消すように値を調整する(図12のS48)。具体的には偏光成分の検出値を両チャンネルで平均化する。1つのチャンネルに同色の画素が複数含まれ、平均値で比較した場合は、当該平均値を両チャンネルで平均化する。この場合、自然光の換算値の調整と同様、平均値の差が大きかった直交するチャンネルnとチャンネルn+2にそれぞれ含まれる複数の画素の検出値に次の調整係数kcr(n)、kcr(n+2)を乗算する。
 kcr(n)=(Save(n)+Save(n+2))/Save(n)
 kcr(n+2)=(Save(n)+Save(n+2))/Save(n+2)
 ここでSave(n)およびSave(n+2)はチャンネルnとチャンネルn+2にそれぞれ含まれる画素の検出値の平均値である。以上の位置依存性確認および必要に応じた調整処理を、色ごと、単位画素列ごとに行うことにより、各色の偏光成分の検出値を無偏光化できる。次にカラー画像生成部166は、ベイヤ配列で離散的に表されている各色の画素値を補間するデモザイク処理を行う。まずカラー画像生成部166は、画素数の多い緑の画素値を補間する(S52)。
 このとき、輝度画像生成部164が生成した輝度画像の高周波成分を加算することにより画像のディテールを復元する(S54)。S54の高周波成分の加算処理はS52の補間処理の一貫として行ってもよいし、補間処理の後に個別に行ってもよい。このようにして全画素に対する緑の画素値を求めたら、それを用いて赤および青のデモザイク処理を行う。この処理には、一般的な撮像装置で行われているデモザイク処理の手法を採用してよい。
 以上の処理により、偏光成分のカラー情報に基づきフルカラーの自然光画像を生成できる。カラー画像生成部154は、生成した画像のデータを、撮像装置160に接続した記憶装置や画像処理装置に適宜出力する。この画像は一般的なフルカラー画像と同等の画像のため、テレビなどの表示装置に出力し表示させてもよい。
 偏光画像生成部168は、偏光成分の検出値に基づき、4チャンネル分のカラー偏光画像のデータを生成する。図22は複数の単位画素列によって構成される、第2光検出層16の画素の2次元配列を示している。同図太線は単位画素列の境界であり、図19で示したように、1~4チャンネルにそれぞれ4つの画素を備える構成を有する。ただし図15、17で示したような画素配列でも偏光画像を生成する手順はほぼ同様である。偏光成分をカラー情報で取得した場合、同じチャンネルかつ同じ色の画素を抽出し、補間する必要がある。
 同図の網掛けで示した1チャンネルの画素を例にとると、1チャンネルの緑(G)の画素は、4行4列の単位画素列あたり2つ存在する一方、赤(R)および青(B)の画素は、単位画素列あたり1つのみ存在するため、緑と比較し間隔が広い。そこでまず各チャンネルの緑の画素値を抽出して補間し、それを用いて赤および青の画素値をデモザイク処理により求める。緑の補間処理には最近傍補間、バイリニア補間、バイキュービック補間など既存の補間技術を適宜応用する。
 補間した各チャンネルの緑の画素値に対し、輝度画像生成部164が生成した輝度画像を用いて、エッジ部分などにおける細かい変化が表現されるようにする。このため偏光画像生成部168は、ハイパスフィルタにより当該輝度画像から高周波成分hf_Y(x,y)を抽出し、エッジ部分を含む画素についてはhf_Y(x,y)を緑の画素値に加算する。このようにして得た各チャンネルの緑の画素値と、赤および青の偏光成分の離散的な検出値を用いて、各チャンネルの偏光成分の赤および青の画素値を決定する。
 この処理は、一般的なデモザイク処理を適宜応用できる。また、このようにして生成した各チャンネルの各色の画素値の配列は、単位画素列内のチャンネルの配置、および各チャンネル内の色の配置に依存して画素の位相がずれている。そこで同一単位画素列内にある各チャンネルの各色の画素が、最終的な各チャンネルの偏光画像において同じ位置の画素を表現するように画素の位置を調整する。具体的には、赤については右方向に0.5画素分、下方向に0.5画素分ずらす。
 青については左方向に0.5画素分、上方向に0.5画素分ずらす。緑については同じチャンネルに画素が2つあるため、左方向または右方向に0.5画素分、下方向または上方向に0.5画素分ずらす。偏光画像生成部168は、このようにして生成した、各チャンネルのカラー偏光画像を、撮像装置160に接続した記憶装置や画像処理装置に適宜出力する。
 次に、これまで述べた撮像装置を用いて被写体の情報を取得する技術について例示する。偏光子や偏光板を用いて被写体表面の法線を取得する技術は、例えば国際公開第2009/147814号などに開示されるように、従来、研究が進められている。すなわち、被写体の表面からの反射光を偏光カメラで取得し、最小輝度が観測されるときの偏光角に基づき物体表面の方位角を取得する。これを2つの視点から行うことにより、物体表面の法線を一意に決定できる。
 本実施の形態の撮像素子は、同じ視点の偏光情報と自然光の情報を、画素レベルで位置合わせした状態で取得できるため、これを利用して様々な情報を取得したり取得精度を高めたりできる。図23は本実施の形態の画像処理システムの構成例を示している。画像処理システム200は、ステレオカメラ210と画像処理装置220を含む。なおステレオカメラ210と画像処理装置220は図示するように別の個体とし有線または無線で通信を確立してデータの送受信を行ってもよいし、両者を一体的に含む情報処理装置などの形態とし内部のバスなどによってデータの送受信を行ってもよい。後述する図24、25の画像処理システムも同様である。ステレオカメラ210は、図20で示した撮像装置160と同じ構成の2つの撮像装置160a、160bを、既知の間隔を有するように左右に配置したカメラである。
 画像処理装置220は、ステレオカメラ210から画像のデータを取得する画像データ取得部222、取得した左右の画像データ間で感度差を調整する感度差調整部224、左右の偏光画像に基づき法線マップを生成する法線マップ生成部226、左右の自然光の画像および法線マップに基づきデプスマップを生成するデプスマップ生成部228、出力すべきデータを生成する出力データ生成部230を含む。
 画像データ取得部222は、ステレオカメラ210が備える撮像装置160a、160bからそれぞれ、自然光のカラー画像および偏光成分のカラー画像のデータを取得する。すなわち、左右の視点からの自然光のカラー画像と、左右の視点からの4チャンネル分のカラー偏光画像のデータが取得される。動画撮影時には、所定のフレームレートでデータを取得し続ける。取得したデータはフレームごとなど所定の単位で図示しないメモリに一時保存し、感度調整部224などが適当なタイミングで読み出せるようにする。感度差調整部224は、左右の視点からの自然光のカラー画像の対と、左右の視点からの各チャンネルの偏光画像の対で、それぞれ出力レベルを調整する。
 例えば、画像ごとに平均輝度値を計算し、それが同レベルになるように一方にゲインをかける。自然光のカラー画像でかけたゲインを、同じ視点からの偏光画像のゲインとしてもよい。法線マップ生成部226は、左右の4チャンネル分の偏光画像を用いて、被写体表面の法線ベクトルを求め、それを画像平面にマッピングした法線マップを生成する。この処理には、ステレオ偏光カメラを用いて被写体の法線情報を取得する上述のような従来技術を適用できる。デプスマップ生成部228はまず、レベル調整がなされた左右の自然光のカラー画像を用いてデプスマップを生成する。
 具体的には、左右のカラー画像から対応点を検出し、その視差から三角測量の原理で当該対応点の撮像面からの距離を算出して、画像平面にマッピングすることによりデプスマップを生成する。ステレオ画像を用いてデプスマップを生成する技術は、従来のステレオカメラにおいて実用化されている。しかしながら模様やしわなどの特徴点が少ない一様な表面の被写体などでは、特徴点が検出されにくく、結果として距離の算出に誤差を多く含んだり、算出不能となりデプスマップ上でデータの抜けが生じたりすることがあった。
 そこで本実施の形態のデプスマップ生成部228は、法線マップ生成部226が生成した法線マップを利用してデプスマップの精度を向上させる。具体的には、法線ベクトルの分布に基づき被写体の面の連続性を取得する。これにより、対応点検出により距離が得られた点が離散的であっても、その周囲の像が連続した同じ面を表すか否かが特定できるため、対応点が検出されない領域の距離値を法線ベクトルから算出できる。
 デプスマップ生成部228はさらに、対応点の検出自体に偏光画像を用い、偏光画像において表れる物体表面の細かい凹凸を特徴点として利用してもよい。本実施の形態では、自然光の画像と偏光画像における像の位置が、撮影段階で画素レベルで一致しているため、両者を後から位置合わせする必要がない。結果として、一見、特徴点の少ない被写体であっても精度よくデプスマップを取得できる。
 出力データ生成部230は、生成された法線マップ、デプスマップ、および画像データ取得部222が取得した自然光のカラー画像などのデータのうち、必要なデータを外部の出力装置に出力する。あるいは、それらのデータを用いて所定の情報処理を行った結果として表示画像や音声のデータを生成し出力してもよい。出力すべきデータやなすべき情報処理は、画像処理システム200の使用目的によって様々であってよい。
 例えば、精度よく得られたデプスマップを用いて被写体の実空間での位置を特定し、それに応じて自然光のカラー画像に加工を施したり被写体の動きに反応するゲーム画面を生成したりする。そのようにして生成された画像のデータを、出力装置であるディスプレイに適切なタイミングで出力すれば、被写体の動きに応じて変化する動画を表示できる。ただし上述のとおり出力態様はこれに限らない。
 図24は本実施の形態の画像処理システムの構成の別の例を示している。同図において図23で示したのと同じ機能を有するブロックには同じ符号を付し適宜説明を省略する。画像処理システム300は、ステレオカメラ310と画像処理装置320を含む。ステレオカメラ310は、図20で示した撮像装置160と、一般的なカラー画像の撮像装置312を、既知の間隔を有するように左右に配置したカメラである。
 画像処理装置320は、ステレオカメラ310から画像のデータを取得する画像データ取得部222、取得した左右の画像データ間で感度差を調整する感度差調整部224、デプスマップを生成するデプスマップ生成部228、左右の自然光の画像の輝度差を取得する輝度差取得部324、法線マップを生成する法線マップ生成部326、出力すべきデータを生成する出力データ生成部230を含む。
 画像取得部222は、図23の場合と同様、ステレオカメラ310から画像のデータを取得する。ただしこの場合、自然光のカラー画像は左右の視点からのデータを取得するが、カラー偏光画像は撮像装置160から得られる片側の視点からのデータのみとなる。感度差調整部224は、図23の場合と同様、左右の視点からの自然光のカラー画像の出力レベルを揃える調整を行う。デプスマップ生成部228も図23の場合と同様、左右の自然光の画像から対応点を抽出し、その視差により被写体の撮像面からの距離を算出して、デプスマップの初期データを生成する。
 輝度差取得部324は、デプスマップ生成部228が算出した左右の視差に基づき、左右の画像における対応する領域の輝度差を取得する。同じ被写体の像を表しているにも関わらず左右の画像で輝度の差が大きい場合、輝度の高い方において鏡面反射成分が支配的であると考えられる。図25は実際に撮影された左右の自然光の画像を比較している。同図において右側の画像の矢印で示した部分は、左側の画像の対応する部分と比較し、輝度が著しく高く、鏡面反射成分が支配的と考えられる。輝度差取得部324は、両画像の対応する画素または像の領域同士の輝度を比較し、その差を画素または像の領域ごとに表した輝度差画像を生成する。
 法線マップ生成部326は、輝度差取得部314が生成した輝度差画像に基づき、しきい値判定をするなどして、鏡面反射成分が支配的な領域とそれ以外の領域、すなわち拡散反射成分が支配的な領域を決定する。そして、それぞれに適した計算手法で被写体の方位角を推定する。一般に、鏡面反射成分が支配的な場合、その入射面(方位)は、偏光方位に対して輝度が最小値となる角度であり、拡散反射が支配的な場合、その入射面(方位)は、偏光方位に対して輝度が最大値となる角度であることが知られている。したがって法線マップ生成部326は、撮像装置160から得られた偏光画像に基づき、4チャンネルの変更方位を補間するような輝度の正弦波を近似したうえ、鏡面反射成分と拡散反射成分のどちらが支配的かに応じて、領域ごとに適した手法で被写体表面の方位角を求める。
 法線マップ生成部326はさらに、デプスマップ生成部228が生成したデプスマップの初期データを用いて被写体表面の法線ベクトルを求める。例えばデプスマップが表す、画像平面における距離値の分布を3次元空間に逆射影することにより、被写体表面の3次元空間での位置を点群として求める。そして、そのうち3点以上を頂点とする微小面積の法線ベクトルを計算することにより、被写体表面の法線ベクトルを当該微小面積単位で求めることができる。このような原理を用いた計算技術は、コンピュータビジョンの分野で広く知られ、例えばPCL(Point Cloud Library)などのライブラリが広く普及している。
 そして法線マップ生成部326は、デプスマップから生成した法線ベクトルと、偏光画像から取得した、表面の方位角とに基づき、最終的な法線マップを生成する。上述したようにデプスマップは被写体表面の状態などによって画像平面でデータに抜けが生じたり誤差が含まれていたりすることがある。そこで偏光画像から取得した被写体表面の方位角とデプスマップから生成した法線ベクトルを比較し、より精度の高い法線マップを生成する。例えば、偏光画像から得られた方位角と明らかに逸脱している法線ベクトルを結果から除外したり、抜けのある領域の法線ベクトルを方位角から推定して補間したりする。
 このように左右の自然光画像の輝度差およびデプスマップを利用することにより、偏光情報を取得する撮像装置がステレオカメラの片側のみであっても法線マップを精度よく生成できる。デプスマップ生成部228は図23の場合と同様、このようにして生成された法線マップを利用してデプスマップの初期データを補間し、最終的なデプスマップを生成する。なお図23の場合と同様、デプスマップ生成部228は対応点の検出自体に偏光画像を利用してもよい。出力データ生成部230は図23と同様に所定の出力データを生成し出力する。
 図26は本実施の形態の画像処理システムの構成のさらに別の例を示している。同図において図24で示したのと同じ機能を有するブロックには同じ符号を付し適宜説明を省略する。画像処理システム400は、3眼カメラ410と画像処理装置420を含む。3眼カメラ410は、一般的なカラー画像の撮像装置412a、図7で示した撮像装置100、一般的なカラー画像の撮像装置412bを、既知の間隔を有するように左、中間、右に配置したカメラである。
 画像処理装置420は、3眼カメラ410から画像のデータを取得する画像データ取得部222、取得した3視点の画像データ間で感度差を調整する感度差調整部224、デプスマップを生成するデプスマップ生成部228、左右の自然光の画像の輝度差を取得する輝度差取得部324、法線マップを生成する法線マップ生成部426、出力すべきデータを生成する出力データ生成部230を含む。
 画像取得部222は、図23、24の場合と同様、3眼カメラ410から画像のデータを取得する。ただしこの場合、撮像装置412a、412bからの左右の自然光のカラー画像のデータと、中間に位置する撮像装置100からの、自然光の輝度画像および4チャンネル分の白黒偏光画像のデータが得られる。感度差調整部224は、3視点からの自然光の画像の出力レベルを揃える調整を行う。デプスマップ生成部228は、撮像装置412a、412bから取得した左右の自然光のカラー画像から対応点を抽出し、その視差により被写体の撮像面からの距離を算出してデプスマップの初期データを生成する。
 輝度差取得部324は、図24の場合と同様、デプスマップ生成部228が算出した左右の自然光のカラー画像の視差に基づき、対応する領域の輝度差を取得する。法線マップ生成部426は、撮像装置100からの4チャンネル分の偏光画像において偏光輝度の振幅が所定のしきい値より大きい領域を検出する。偏光画像において偏光方位依存が大きい領域は鏡面反射が支配的と考えられる。そしてそのように検出した領域のうち、輝度差取得部324が生成した輝度差画像において輝度差が所定のしきい値を超える領域を抽出する。
 これにより、撮像装置412a、412bからの左右の自然光のカラー画像と、撮像装置100からの偏光画像とを利用して、より正確に鏡面反射が支配的な領域を特定できる。そして法線マップ生成部426は、図24の場合と同様、撮像装置100から得られた偏光画像に基づき、4チャンネルの変更方位を補間するような輝度の正弦波を近似したうえ、鏡面反射成分と拡散反射成分のどちらが支配的かに応じて、領域ごとに適した手法で被写体表面の方位角を求める。さらに、デプスマップ生成部228が生成したデプスマップの初期データを用いて求めた被写体表面の法線ベクトルと、当該方位角とを利用して、最終的な法線マップを生成する。
 デプスマップ生成部228は図24の場合と同様、このようにして生成された法線マップを利用してデプスマップの初期データを補間し、最終的なデプスマップを生成する。なおこの場合も、デプスマップ生成部228は対応点の検出自体に偏光画像を用いてもよい。出力データ生成部230は図24と同様に所定の出力データを生成し出力する。このような3眼カメラによれば、視差の大きい両端の撮像装置により、より正確にデプスマップを生成できるとともに、その視差の中間にある偏光画像を用いて法線マップを作成するため、3者の対応が取りやすく、さらに精度を向上させることができる。
 以上述べた本実施の形態によれば、撮像素子において光電変換素子層を導電性のワイヤグリッド偏光子の上層および下層に設ける。上層の光電変換素子層は光透過性を有する有機材料で形成するとともに、電圧印加および電荷読み出しのための電極も透過性を有する材料で形成する。これにより、上面から入射した光の一部とともに、ワイヤグリッド偏光子で反射した光も検出対象となる。ワイヤグリッド偏光子を透過した偏光成分は下層の光電変換素子層で検出するため、撮像素子全体として、入射光を無駄なく利用して自然光および偏光成分の情報を感度よく取得できる。また両者の信号の読み出しレートを独立に制御することにより、検出感度および読み出し速度の双方の観点で十分な性能を得られる。
 また、画素レベルで同じ位置で、自然光の情報と偏光成分の情報を同時に取得できるため、それらを用いて被写体の形状や位置を取得する際、両者の位置を合わせるための処理の必要がない。また特徴点の少ない被写体であっても、位置合わせに係る問題が生じない。さらに、同じ位置で複数種類の画像を取得するため、両者を相補完的に利用することにより最終的に出力する画像の詳細度や精度を高めることができる。具体的には、元の検出値の欠陥を補ったり、内部の処理上、失われた高周波成分を復元したりすることができる。
 また、一般的な自然光のステレオ画像を用いたデプスマップ生成においては、対応点が抽出できず距離値が算出されない部分が生じることがあるが、同じ位置の偏光画像を取得していることにより、詳細なデプスマップを生成できる。具体的には、物体表面の細かい凹凸も偏光情報として得られるため、それを特徴点として利用できる。またそのような特徴点を対応点として得られた距離値が離散的でも、法線マップから得られる面の連続性に鑑み、より詳細なデプス情報が得られる。また、一般的なカラー画像を撮影する撮像装置と組み合わせることにより、求められる精度、許容される処理の負荷、製造コストなどに鑑み、最適な画像処理システムを構築することができる。
 以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 例えば、本実施の形態では、第1光検出層12を、広い波長帯の光を検出する有機光電変換材料とすることにより、自然光の輝度画像を取得することを基本とした。一方、特定の波長帯の光を検出する有機光電変換材料を、電極を挟んで積層させることにより、各層から異なる色の情報を取得し、自然光のカラー画像としてもよい。同様に、第2光検出層16を、特定波長帯の光を検出する有機光電変換材料の積層構造とすることで、カラーフィルタ層を設けることなく偏光カラー画像を取得してもよい。この場合、同じ画素で赤、緑、青の情報が得られるため、ベイヤ配列をデモザイク処理する工程が必要なくなる。
 10 撮像素子、 12 第1光検出層、 14 ワイヤグリッド型偏光子層、 16 第2光検出層、 28 撮像素子、 36 上部電極、 38 有機光電変換膜、 44 下部電極、 48 偏光子、 54 光電変換素子、 70 イメージセンサ、 72 自然光データ取得部、 74 偏光データ取得部、 75 感度差調整部、 76 欠陥補正部、 78 欠陥検出部、 84 自然光画像生成部、 86 偏光画像生成部、 100 撮像装置、 160 撮像装置、 161 イメージセンサ、 162 偏光データ取得部、 164 輝度画像生成部、 166 カラー画像生成部、 168 偏光画像生成部。
 以上のように、本発明はカメラ、撮像装置、画像処理装置、情報処理装置、物体認識装置、画像解析装置や、それらを含むシステムなどに利用可能である。

Claims (11)

  1.  被写体表面の法線に係る情報を取得する法線情報取得部と、
     被写体の撮像面からの距離を画像平面にマッピングしたデプスマップを取得し、前記法線に係る情報に基づき対応する位置におけるデータを補間して最終的なデプスマップを生成するデプスマップ生成部と、
     少なくとも前記最終的なデプスマップを用いて所定の処理を行い出力用の画像データを生成する出力データ生成部と、
     を備えることを特徴とする画像処理装置。
  2.  前記デプスマップ生成部はさらに、同一空間を左右の視点から撮影した偏光成分のステレオ画像から検出した特徴点を利用して、自然光のステレオ画像における対応する点の視差を求めることにより、被写体の撮像面からの距離を求め、前記デプスマップを生成することを特徴とする請求項1に記載の画像処理装置。
  3.  前記法線情報取得部は、同一空間を左右の視点から撮影した偏光成分のステレオ画像に基づき被写体表面の法線ベクトルを求め、画像平面にマッピングした法線マップを生成することを特徴とする請求項1または2に記載の画像処理装置。
  4.  前記法線情報取得部は、前記デプスマップから生成した被写体表面の法線ベクトルのデータを、一の視点から撮影した偏光成分の画像から取得した被写体表面の方位に基づき補正して最終的な法線ベクトルを求め、画像平面にマッピングした法線マップを生成することを特徴とする請求項1または2に記載の画像処理装置。
  5.  前記デプスマップ生成部は、同一空間を左右の視点から撮影した自然光のステレオ画像に基づき前記デプスマップを生成し、
     前記法線情報取得部は、前記デプスマップから生成した被写体表面の法線ベクトルのデータを、一の視点から撮影した偏光成分の画像から取得した被写体表面の方位に基づき補正して最終的な法線ベクトルを求め、画像平面にマッピングした法線マップを生成することを特徴とする請求項1または2に記載の画像処理装置。
  6.  前記法線情報取得部は、同一空間を左右の視点から撮影した自然光の画像の対応する領域の輝度差に基づき鏡面反射成分が支配的な領域を抽出し、前記偏光成分の画像における当該領域とそれ以外の領域で、被写体表面の方位を求める手法を切り替えることを特徴とする請求項4または5に記載の画像処理装置。
  7.  多視点カメラと、その撮影画像のデータを取得し画像処理を行う画像処理装置を含む画像処理システムであって、
     前記多視点カメラは、
     同じ視野において撮影した自然光の画像と、複数方位の偏光成分の画像のデータを並行して出力する並列撮像装置を含む複数の撮像装置が既知の間隔で水平方向に配置され、
     前記画像処理装置は、
     前記多視点カメラから、少なくとも複数視点から撮影した自然光の画像と、一視点から撮影した偏光成分の画像のデータを取得する画像データ取得部と、
     少なくとも前記偏光成分の画像を利用して被写体表面の法線に係る情報を求める法線情報取得部と、
     前記複数視点から撮影した自然光の画像に基づき被写体の撮像面からの距離を求め、画像平面にマッピングしたデプスマップを生成するデプスマップ生成部と、
     少なくとも前記デプスマップを用いて所定の処理を行い出力用の画像データを生成する出力データ生成部と、
     を備え、
     前記デプスマップ生成部は、前記法線情報取得部が求めた対応する位置における法線に係る情報に基づき、前記デプスマップに表される距離を補間することを特徴とする画像処理システム。
  8.  同じ視野において撮影した自然光の画像と、複数方位の偏光成分の画像のデータを並行して出力する並列撮像装置を含む複数の撮像装置が既知の間隔で水平方向に配置されたことを特徴とする多視点カメラ。
  9.  被写体表面の法線に係る情報を取得するステップと、
     被写体の撮像面からの距離を画像平面にマッピングしたデプスマップを取得するステップと、
     前記法線に係る情報に基づき対応する位置におけるデータを補間して最終的なデプスマップを生成するステップと、
     少なくとも前記最終的なデプスマップを用いて所定の処理を行い出力用の画像データを生成し出力するステップと、
     を含むことを特徴とする画像処理装置による画像処理方法。
  10.  被写体表面の法線に係る情報を取得する機能と、
     被写体の撮像面からの距離を画像平面にマッピングしたデプスマップを取得する機能と、
     前記法線に係る情報に基づき対応する位置におけるデータを補間して最終的なデプスマップを生成する機能と、
     少なくとも前記最終的なデプスマップを用いて所定の処理を行い出力用の画像データを生成し出力する機能と、
     をコンピュータに実現させることを特徴とするコンピュータプログラム。
  11.  被写体表面の法線に係る情報を取得する機能と、
     被写体の撮像面からの距離を画像平面にマッピングしたデプスマップを取得する機能と、
     前記法線に係る情報に基づき対応する位置におけるデータを補間して最終的なデプスマップを生成する機能と、
     少なくとも前記最終的なデプスマップを用いて所定の処理を行い出力用の画像データを生成し出力する機能と、
     をコンピュータに実現させるコンピュータプログラムを記録したことを特徴とするコンピュータにて読み取り可能な記録媒体。
PCT/JP2016/068775 2015-07-01 2016-06-24 画像処理装置、画像処理システム、多視点カメラ、および画像処理方法 WO2017002716A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-133064 2015-07-01
JP2015133064A JP6488203B2 (ja) 2015-07-01 2015-07-01 画像処理装置、画像処理システム、多視点カメラ、および画像処理方法

Publications (1)

Publication Number Publication Date
WO2017002716A1 true WO2017002716A1 (ja) 2017-01-05

Family

ID=57608357

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/068775 WO2017002716A1 (ja) 2015-07-01 2016-06-24 画像処理装置、画像処理システム、多視点カメラ、および画像処理方法

Country Status (2)

Country Link
JP (1) JP6488203B2 (ja)
WO (1) WO2017002716A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230316A (zh) * 2018-01-08 2018-06-29 浙江大学 一种基于偏振差分放大图像处理的漂浮危化品检测方法
WO2018216341A1 (ja) * 2017-05-22 2018-11-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN112204364A (zh) * 2018-06-05 2021-01-08 索尼公司 信息生成装置、信息生成方法和程序

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018211654A1 (ja) * 2017-05-18 2018-11-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および法線情報取得方法
JP6951917B2 (ja) 2017-09-15 2021-10-20 株式会社ソニー・インタラクティブエンタテインメント 撮像装置
JP2019080223A (ja) 2017-10-26 2019-05-23 株式会社ソニー・インタラクティブエンタテインメント カメラシステム
WO2019116708A1 (ja) * 2017-12-12 2019-06-20 ソニー株式会社 画像処理装置と画像処理方法およびプログラムと情報処理システム
JP6580761B1 (ja) * 2018-07-11 2019-09-25 株式会社フォーディーアイズ 偏光ステレオカメラによる深度取得装置及びその方法
EP3617999B1 (en) * 2018-09-01 2023-04-19 Tata Consultancy Services Limited Systems and methods for dense surface reconstruction of an object using graph signal processing
WO2021192814A1 (ja) * 2020-03-27 2021-09-30 ソニーグループ株式会社 情報処理装置と情報処理方法および情報処理システム
JPWO2021193238A1 (ja) * 2020-03-27 2021-09-30

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009147814A1 (ja) * 2008-06-02 2009-12-10 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP2010256138A (ja) * 2009-04-23 2010-11-11 Canon Inc 撮像装置及びその制御方法
JP2015114307A (ja) * 2013-12-16 2015-06-22 ソニー株式会社 画像処理装置と画像処理方法および撮像装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5866577B2 (ja) * 2013-07-29 2016-02-17 パナソニックIpマネジメント株式会社 光学フィルタおよびそれを用いた偏光撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009147814A1 (ja) * 2008-06-02 2009-12-10 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP2010256138A (ja) * 2009-04-23 2010-11-11 Canon Inc 撮像装置及びその制御方法
JP2015114307A (ja) * 2013-12-16 2015-06-22 ソニー株式会社 画像処理装置と画像処理方法および撮像装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018216341A1 (ja) * 2017-05-22 2018-11-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11488354B2 (en) 2017-05-22 2022-11-01 Sony Corporation Information processing apparatus and information processing method
CN108230316A (zh) * 2018-01-08 2018-06-29 浙江大学 一种基于偏振差分放大图像处理的漂浮危化品检测方法
CN108230316B (zh) * 2018-01-08 2020-06-05 浙江大学 一种基于偏振差分放大图像处理的漂浮危化品检测方法
CN112204364A (zh) * 2018-06-05 2021-01-08 索尼公司 信息生成装置、信息生成方法和程序

Also Published As

Publication number Publication date
JP6488203B2 (ja) 2019-03-20
JP2017016431A (ja) 2017-01-19

Similar Documents

Publication Publication Date Title
JP6566749B2 (ja) 撮像素子、イメージセンサ、および情報処理装置
JP6488203B2 (ja) 画像処理装置、画像処理システム、多視点カメラ、および画像処理方法
WO2017002715A1 (ja) 撮像装置および情報処理装置
WO2017026385A1 (ja) 撮像素子、イメージセンサ、撮像装置、および情報処理装置
US10043290B2 (en) Image processing to enhance distance calculation accuracy
US9432568B2 (en) Pixel arrangements for image sensors with phase detection pixels
US9461083B2 (en) Solid-state image pickup element and image pickup apparatus
US7760256B2 (en) Image processing apparatus that obtains color and polarization information
JP6422924B2 (ja) 撮像装置および被写体情報取得方法
US20100053354A1 (en) Image pickup apparatus and image processing apparatus
JP5274299B2 (ja) 撮像装置
JP2012215785A (ja) 固体撮像素子及び撮像装置
JP7259757B2 (ja) 撮像装置、並びに、画像処理装置および方法
US8446513B2 (en) Imaging apparatus with light transmissive filter
JP6821028B2 (ja) 撮像装置および画像データ読み出し方法
JP2023041751A (ja) 撮像装置及び信号処理装置
US11223787B2 (en) Information processing apparatus, information processing method, and imaging apparatus
WO2019188396A1 (ja) 撮像装置および方法、画像処理装置および方法、並びに、撮像素子
JP2013090085A (ja) 撮像装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16817824

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16817824

Country of ref document: EP

Kind code of ref document: A1