WO2016181620A1 - 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 - Google Patents

画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 Download PDF

Info

Publication number
WO2016181620A1
WO2016181620A1 PCT/JP2016/002144 JP2016002144W WO2016181620A1 WO 2016181620 A1 WO2016181620 A1 WO 2016181620A1 JP 2016002144 W JP2016002144 W JP 2016002144W WO 2016181620 A1 WO2016181620 A1 WO 2016181620A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
parallax
image processing
photoelectric conversion
viewpoint
Prior art date
Application number
PCT/JP2016/002144
Other languages
English (en)
French (fr)
Inventor
福田 浩一
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016080328A external-priority patent/JP6746359B2/ja
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to EP16792350.7A priority Critical patent/EP3296789B1/en
Priority to CN202110790632.2A priority patent/CN113596431B/zh
Priority to CN201680026847.4A priority patent/CN107960120B/zh
Publication of WO2016181620A1 publication Critical patent/WO2016181620A1/ja
Priority to US15/724,471 priority patent/US10771762B2/en
Priority to US16/937,622 priority patent/US11388383B2/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/225Image signal generators using stereoscopic image cameras using a single 2D image sensor using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/68Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Definitions

  • the present invention relates to an image processing apparatus capable of correcting a parallax image.
  • Patent Document 1 discloses an imaging device using a two-dimensional imaging element in which one microlens and a plurality of divided photoelectric conversion units are formed for one pixel.
  • the divided photoelectric conversion unit is configured to receive a pupil partial region having a different exit pupil of the photographing lens through one microlens, and performs pupil division.
  • a plurality of parallax images corresponding to the divided pupil partial regions can be generated based on the light reception signals of the divided photoelectric conversion units.
  • Patent Document 2 discloses an imaging device that generates a captured image by adding all the received light signals of the divided photoelectric conversion units.
  • the present invention provides an image processing device, an imaging device, an image processing method, a program, and a storage medium that can generate a parallax image with improved image quality.
  • An image processing apparatus is a parallax image generated from a signal of one photoelectric conversion unit among a plurality of photoelectric conversion units that receive light beams passing through different pupil partial regions of an imaging optical system.
  • Acquisition means for acquiring a captured image generated by combining a plurality of signals of the plurality of photoelectric conversion units, and correction processing to reduce defects included in the parallax image based on the captured image Image processing means.
  • An imaging device includes an imaging device in which a plurality of pixels each including a plurality of photoelectric conversion units that receive light beams that pass through different pupil partial regions of the imaging optical system, and the plurality of the plurality of pixels.
  • An acquisition unit that acquires a parallax image generated from a signal of one photoelectric conversion unit among the photoelectric conversion units and acquires a captured image generated by combining a plurality of signals of the plurality of photoelectric conversion units; and the imaging Image processing means for performing a correction process so as to reduce defects included in the parallax image based on the image.
  • An image processing method provides a parallax generated from a signal of one photoelectric conversion unit among a plurality of photoelectric conversion units that receive light beams passing through different pupil partial regions of an imaging optical system. Acquiring an image and acquiring a captured image generated by synthesizing a plurality of signals of the plurality of photoelectric conversion units, and correction processing to reduce defects included in the parallax image based on the captured image The step of performing.
  • a program provides a parallax image generated from a signal of one photoelectric conversion unit among a plurality of photoelectric conversion units that receive light beams passing through different pupil partial regions of the imaging optical system. Acquiring a captured image generated by combining a plurality of signals of the plurality of photoelectric conversion units, and performing a correction process to reduce defects included in the parallax image based on the captured image And the step is executed by a computer.
  • a storage medium stores the program.
  • an image processing device an imaging device, an image processing method, a program, and a storage medium that can generate a parallax image with improved image quality.
  • FIG. 3 is a diagram illustrating a pixel array in Example 1.
  • 2 is a diagram illustrating a pixel structure in Embodiment 1.
  • FIG. 2 is a diagram illustrating a pixel structure in Embodiment 1.
  • FIG. It is explanatory drawing of the image pick-up element and pupil division function in each Example. It is explanatory drawing of the image pick-up element and pupil division function in each Example.
  • FIG. 6 is a relationship diagram between a defocus amount and an image shift amount in each embodiment. It is an arrangement
  • sequence diagram of the captured image in each Example. 6 is an example of a parallax image before correction processing in the first embodiment.
  • FIG. 6 is an example of a parallax image after correction processing according to the first embodiment. 6 is another example of a parallax image before correction processing in the first embodiment. 10 is another example of the parallax image after the correction processing in the first embodiment.
  • FIG. 6 is a diagram illustrating a pixel array in Example 2. 6 is a diagram illustrating a pixel structure in Embodiment 2. FIG. 6 is a diagram illustrating a pixel structure in Embodiment 2. FIG. It is a schematic explanatory drawing of the refocus process in each Example. In Example 3, it is explanatory drawing of the light intensity distribution when light injects into the microlens formed in each pixel.
  • Example 3 it is explanatory drawing of the light intensity distribution when light injects into the microlens formed in each pixel. In Example 3, it is a figure of the light reception rate distribution depending on the incident angle of light.
  • FIG. 10 is a schematic diagram illustrating a flow of correction processing in the third embodiment.
  • FIG. It is explanatory drawing of the shading in Example 3.
  • FIG. It is explanatory drawing of the shading in Example 3.
  • FIG. It is explanatory drawing of the projection signal of the captured image in Example 3.
  • FIG. It is explanatory drawing of the projection signal of the 1st viewpoint image in Example 3.
  • FIG. It is explanatory drawing of the shading function in Example 3.
  • FIG. 3 It is an example of the captured image (after demosaicing) in Example 3. It is an example of the 1st viewpoint image (after demosaicing) before the shading correction in Example 3. It is an example of the 1st viewpoint (1st correction) image (after demosaicing) after the shading correction in Example 3. It is an example of the 1st viewpoint (1st correction) image (after shading correction
  • FIG. It is an example of the 1st viewpoint (2nd correction) image (after shading correction
  • FIG. It is an example of the 2nd viewpoint image (after demosaicing) before the shading correction in Example 3.
  • FIG. 12 is an example of a modified second viewpoint image (after demosaicing) after shading correction in Example 3.
  • FIG. 1 is a block diagram of an imaging apparatus 100 (camera) in the present embodiment.
  • the imaging apparatus 100 is a digital camera system that includes a camera body and an interchangeable lens (imaging optical system or photographing optical system) that can be attached to and detached from the camera body.
  • an interchangeable lens imaging optical system or photographing optical system
  • the present embodiment is not limited to this, and can also be applied to an imaging apparatus in which a camera body and a lens are integrally configured.
  • the first lens group 101 is disposed in the forefront (subject side) of the plurality of lens groups constituting the photographing lens (imaging optical system), and can advance and retreat in the direction of the optical axis OA (optical axis direction).
  • the lens barrel is held in a state.
  • the aperture / shutter 102 adjusts the aperture to adjust the amount of light during shooting, and also functions as an exposure time adjustment shutter during still image shooting.
  • the second lens group 103 has a zoom function of moving forward and backward in the optical axis direction integrally with the diaphragm / shutter 102 and performing a zooming operation in conjunction with the forward / backward movement of the first lens group 101.
  • the third lens group 105 is a focus lens group that performs focus adjustment (focus operation) by moving back and forth in the optical axis direction.
  • the optical low-pass filter 106 is an optical element for reducing false colors and moire in the captured image.
  • the image sensor 107 performs photoelectric conversion of a subject image (optical image) via an imaging optical system, and includes, for example, a CMOS sensor or a CCD sensor and its peripheral circuits.
  • a CMOS sensor or a CCD sensor for example, a two-dimensional single-plate color sensor in which a Bayer array primary color mosaic filter is formed on-chip on a light receiving pixel having m pixels in the horizontal direction and n pixels in the vertical direction is used. It is done.
  • the zoom actuator 111 performs a zooming operation by moving the first lens group 101 and the second lens group 103 along the optical axis direction by rotating (driving) a cam cylinder (not shown).
  • the aperture shutter actuator 112 controls the aperture diameter of the aperture / shutter 102 to adjust the amount of light (photographing light amount), and also controls the exposure time during still image shooting.
  • the focus actuator 114 adjusts the focus by moving the third lens group 105 in the optical axis direction.
  • the electronic flash 115 is an illumination device used to illuminate a subject.
  • a flash illumination device including a xenon tube or an illumination device including an LED (light emitting diode) that continuously emits light is used.
  • the AF auxiliary light unit 116 projects an image of a mask having a predetermined opening pattern onto a subject via a light projection lens. As a result, the focus detection capability for a dark subject or a low-contrast subject can be improved.
  • the CPU 121 is a control device (control means) that performs various controls of the imaging device 100.
  • the CPU 121 includes a calculation unit, a ROM, a RAM, an A / D converter, a D / A converter, a communication interface circuit, and the like.
  • the CPU 121 reads and executes a predetermined program stored in the ROM, thereby driving various circuits of the imaging apparatus 100 and controlling a series of operations such as focus detection (AF), shooting, image processing, or recording. To do.
  • AF focus detection
  • the electronic flash control circuit 122 controls lighting of the electronic flash 115 in synchronization with the photographing operation.
  • the auxiliary light driving circuit 123 performs lighting control of the AF auxiliary light unit 116 in synchronization with the focus detection operation.
  • the image sensor driving circuit 124 controls the image capturing operation of the image sensor 107, A / D converts the acquired image signal, and transmits it to the CPU 121.
  • the image processing circuit 125 (image processing apparatus) performs processing such as ⁇ (gamma) conversion, color interpolation, or JPEG (Joint Photographic Experts Group) compression of the image data output from the image sensor 107.
  • the image processing circuit 125 includes an acquisition unit 125a and an image processing unit 125b (correction unit).
  • the acquisition unit 125a acquires an imaging pixel and at least one parallax image (viewpoint image) from the imaging element 107.
  • the imaging pixel has a plurality of signals (first signal and second signal) from a plurality of photoelectric conversion units (first subpixel and second subpixel) that receive light beams passing through different pupil partial regions of the imaging optical system.
  • the parallax image is an image generated from a signal of one photoelectric conversion unit (first subpixel or second subpixel) among a plurality of photoelectric conversion units.
  • the image processing unit 125b performs correction processing (defect correction) so as to reduce defects included in the parallax image based on the captured image.
  • the focus drive circuit 126 (focus drive means) drives the focus actuator 114 based on the focus detection result, and adjusts the focus by moving the third lens group 105 along the optical axis direction.
  • the aperture shutter drive circuit 128 drives the aperture shutter actuator 112 to control the aperture diameter of the aperture / shutter 102.
  • the zoom drive circuit 129 (zoom drive means) drives the zoom actuator 111 according to the zoom operation of the photographer.
  • the display 131 includes, for example, an LCD (Liquid Crystal Display).
  • the display 131 displays information related to the shooting mode of the imaging apparatus 100, a preview image before shooting, a confirmation image after shooting, a focus state display image at the time of focus detection, and the like.
  • the operation unit 132 (operation switch group) includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like.
  • the release switch has a two-stage switch in a half-pressed state (a state where SW1 is ON) and a full-pressed state (a state where SW2 is ON).
  • the recording medium 133 is, for example, a flash memory that can be attached to and detached from the imaging apparatus 100, and records captured images (image data).
  • FIG. 2 is a diagram illustrating a pixel array of the image sensor 107.
  • 3A and 3B are diagrams showing a pixel structure of the image sensor 107,
  • FIG. 3A is a plan view of the pixel 200G of the image sensor 107 (viewed from the + z direction), and
  • FIG. 3B is a line aa in FIG. 3A.
  • the cross-sectional views (viewed from the ⁇ y direction) are respectively shown.
  • FIG. 2 shows a pixel array (photographing pixel array) of the image sensor 107 (two-dimensional CMOS sensor) in a range of 4 columns ⁇ 4 rows.
  • each imaging pixel pixels 200R, 200G, and 200B
  • each imaging pixel includes two subpixels 201 and 202.
  • the arrangement of subpixels is shown in a range of 8 columns ⁇ 4 rows.
  • a pixel group 200 of 2 columns ⁇ 2 rows has pixels 200R, 200G, and 200B arranged in a Bayer array. That is, in the pixel group 200, a pixel 200R having a spectral sensitivity of R (red) is at the upper left, a pixel 200G having a spectral sensitivity of G (green) is at the upper right and a lower left, and a pixel 200B having a spectral sensitivity of B (blue). Are located at the bottom right.
  • Each of the pixels 200R, 200G, and 200B (each imaging pixel) includes subpixels 201 and 202 arranged in 2 columns ⁇ 1 row.
  • the sub-pixel 201 is a pixel that receives the light beam that has passed through the first pupil region of the imaging optical system.
  • the sub-pixel 202 is a pixel that receives the light beam that has passed through the second pupil region of the imaging optical system.
  • the image sensor 107 is configured by arranging a large number of 4 columns ⁇ 4 rows of imaging pixels (8 columns ⁇ 4 rows of subpixels) on the surface, and an imaging signal (subpixel signal). ) Is output.
  • the period P of pixels (imaging pixels) is 4 ⁇ m
  • the pixel 200G of this embodiment is provided with a microlens 305 for condensing incident light on the light receiving surface side of the pixel.
  • a plurality of microlenses 305 are two-dimensionally arranged, and are arranged at a position away from the light receiving surface by a predetermined distance in the z-axis direction (the direction of the optical axis OA).
  • N H divided in the x direction (divided into two), N V division (first division) by photoelectric conversion unit 301 and the photoelectric conversion portion 302 is formed in the y-direction.
  • the photoelectric conversion unit 301 and the photoelectric conversion unit 302 correspond to the subpixel 201 and the subpixel 202, respectively.
  • the photoelectric conversion unit 301 and the photoelectric conversion unit 302 are each configured as a photodiode having a pin structure in which an intrinsic layer is sandwiched between a p-type layer and an n-type layer. If necessary, the intrinsic layer may be omitted and a pn junction photodiode may be configured.
  • a color filter 306 is provided between the microlens 305, the photoelectric conversion unit 301, and the photoelectric conversion unit 302. If necessary, the spectral transmittance of the color filter 306 can be changed for each sub-pixel, or the color filter may be omitted.
  • the light incident on the pixel 200 ⁇ / b> G is collected by the microlens 305, dispersed by the color filter 306, and then received by the photoelectric conversion unit 301 and the photoelectric conversion unit 302.
  • the photoelectric conversion unit 301 and the photoelectric conversion unit 302 pairs of electrons and holes are generated according to the amount of received light, and after they are separated by the depletion layer, negatively charged electrons are accumulated in the n-type layer.
  • the holes are discharged to the outside of the image sensor 107 through a p-type layer connected to a constant voltage source (not shown).
  • the electrons accumulated in the n-type layers of the photoelectric conversion unit 301 and the photoelectric conversion unit 302 are transferred to the electrostatic capacitance unit (FD) through the transfer gate and converted into a voltage signal.
  • FD electrostatic capacitance unit
  • FIG. 4 is an explanatory diagram of the pupil division function of the image sensor 107 and shows a state of pupil division in one pixel unit.
  • FIG. 4 shows a cross-sectional view of the pixel structure shown in FIG. 3A as seen from the + y side, and an exit pupil plane of the imaging optical system.
  • the x-axis and y-axis of the cross-sectional view are inverted with respect to the x-axis and y-axis of FIGS. 3A and 3B, respectively.
  • the pupil partial region 501 (first pupil partial region) of the sub-pixel 201 (first sub-pixel) passes through the light receiving surface of the photoelectric conversion unit 301 whose center of gravity is decentered in the ⁇ x direction and the micro lens 305. It is almost conjugate. For this reason, the pupil partial area 501 represents a pupil area that can be received by the sub-pixel 201.
  • the center of gravity of the pupil partial area 501 of the sub-pixel 201 is eccentric to the + x side on the pupil plane.
  • the pupil partial region 502 (second pupil partial region) of the subpixel 202 (second subpixel) is substantially conjugated via the microlens 305 with the light receiving surface of the photoelectric conversion unit 302 whose center of gravity is decentered in the + x direction. It has become a relationship. Therefore, the pupil partial area 502 represents a pupil area that can be received by the sub-pixel 202. The center of gravity of the pupil partial area 502 of the sub-pixel 202 is eccentric to the ⁇ x side on the pupil plane.
  • the pupil region 500 is a pupil region that can receive light by the entire pixel 200G when all of the photoelectric conversion units 301 and 302 (subpixels 201 and 202) are combined.
  • Incident light is collected at the focal position by the microlens 305.
  • the light receiving surface size of the photoelectric conversion units 301 and 302 is about 1 to 2 ⁇ m, whereas the condensing spot of the microlens 305 is about 1 ⁇ m.
  • the pupil partial regions 501 and 502 in FIG. 4 which are in a conjugate relationship via the light receiving surfaces of the photoelectric conversion units 301 and 302 and the microlens 305 are not clearly divided into pupils due to diffraction blur, and the light receiving rate A distribution (pupil intensity distribution) is obtained.
  • FIG. 5 is an explanatory diagram of the image sensor 107 and the pupil division function.
  • Light beams that have passed through different pupil partial regions 501 and 502 in the pupil region of the imaging optical system are incident on the image pickup surface 600 of the image pickup device 107 at different angles from each pixel of the image pickup device 107 and are divided by 2 ⁇ 1.
  • the subpixels 201 and 202 receive the light.
  • the pupil region is divided into two pupils in the horizontal direction.
  • the present invention is not limited to this, and pupil division may be performed in the vertical direction as necessary. .
  • the image sensor 107 shares a single microlens and passes through different regions (first pupil partial region and second pupil partial region) among the pupils of the imaging optical system (photographing lens).
  • the image sensor 107 includes a first subpixel (a plurality of subpixels 201) and a second subpixel (a plurality of subpixels 202) as a plurality of subpixels.
  • the captured image is generated for each pixel by combining the light reception signals of a plurality of subpixels (subpixels 201 and 202 in this embodiment).
  • the light reception signals of the plurality of subpixels 201 are collected to generate the first parallax image. Further, the first parallax image is subtracted from the captured image to generate a second parallax image.
  • the present embodiment is not limited to this, and the second parallax image may be generated by collecting the light reception signals of the plurality of sub-pixels 202. In this way, the parallax image is generated based on the light reception signals of the plurality of subpixels for each different pupil partial region.
  • the first parallax image, the second parallax image, and the captured image are images with a Bayer array.
  • a demosaicing process may be performed on each of the first parallax image, the second parallax image, and the captured image as necessary.
  • FIG. 6 is a relationship diagram between the defocus amount and the image shift amount.
  • the image sensor 107 is disposed on the imaging surface 600, and a state in which the exit pupil of the imaging optical system is divided into two pupil partial areas 501 and 502 is shown as in FIGS. 4 and 5. ing.
  • the defocus amount d the distance from the imaging position of the subject to the imaging surface 600 is
  • the front pin state (d ⁇ 0) and the rear pin state (d> 0) are collectively referred to as a defocus state (
  • the luminous flux that has passed through the pupil partial area 501 (or the pupil partial area 502) out of the luminous flux from the subject 602 is condensed once. Thereafter, the light beam spreads over a width ⁇ 1 ( ⁇ 2) centered on the gravity center position G1 (G2) of the light beam, and becomes a blurred image on the imaging surface 600.
  • the blurred image is received by the sub-pixel 201 (sub-pixel 202) configuring each pixel arranged in the image sensor 107, and a first parallax image (second parallax image) is generated.
  • the first parallax image (second parallax image) is recorded as a subject image in which the subject 602 is blurred at the width ⁇ 1 ( ⁇ 2) at the center of gravity position G1 (G2) on the imaging surface 600.
  • the blur width ⁇ 1 ( ⁇ 2) of the subject image increases substantially proportionally as the defocus amount d magnitude
  • increases, it generally increases in proportion.
  • the rear pin state (d> 0), but the image shift direction of the subject image between the first parallax image and the second parallax image is opposite to the front pin state.
  • the magnitude of the defocus amount of the imaging signal obtained by adding the first parallax image and the second parallax image or the first parallax image and the second parallax image increases, The amount of image shift between the first parallax image and the second parallax image increases.
  • the image sensor 107 can output a captured image and at least one parallax image (at least one of a first parallax image and a second parallax image).
  • the image processing circuit 125 acquires the captured image and the parallax image output from the image sensor 107.
  • the image processing circuit 125 (image processing unit 125b) corrects (corrects) the parallax image based on the captured image.
  • the acquisition unit 125a is configured to store the acquired captured image and at least the parallax image in a storage unit such as the recording medium 133 or the storage unit 134, and acquire the stored captured image and parallax image as necessary. May be.
  • a flaw signal (defect signal) is generated in the parallax image (first parallax image or second parallax image).
  • defects such as point scratches and line scratches are included in the parallax image.
  • point scratch information and line scratch information (defect information) inspected in a mass production process or the like can be stored in advance in the storage means.
  • the image processing circuit 125 (image processing unit 125b) performs parallax image correction processing using the recorded defect information. Further, the image processing circuit 125 (inspection means) inspects the parallax image in real time (that is, while the user is using the imaging device 100) as necessary, and performs point scratch determination or line scratch determination (defect determination). May be performed.
  • FIG. 7A is an array diagram of a parallax image (first parallax image) in a Bayer array.
  • FIG. 7B is an array diagram of captured images of the Bayer array. 7A and 7B, the pixel value (pixel signal) of the first parallax image at the j-th position in the row direction and the i-th position (j, i) in the column direction is A (j, i), and the pixel value of the captured image (pixel signal). ) Is defined as I (j, i).
  • the image processing circuit 125 (image processing unit 125b) corrects the first parallax image (the pixel value at the correction target position of the first parallax image) based on the captured image. Note that the second parallax image can be similarly corrected as necessary.
  • the correction value (correction signal) of the first parallax image at the position (j, i) where the defect has occurred, that is, the correction target position (first position) is assumed to be Ac (j, i).
  • the image processing unit 125b calculates the correction value Ac (j, i) by the following equation (1), and uses the calculated correction value Ac (j, i) as the pixel value A (j, i, By using as i), the first parallax image is corrected.
  • the parameters A0 and I0 amplify noise by stabilizing the calculation value when the pixel value A of the first parallax image and the pixel value I of the captured image are low luminance (low luminance signal), respectively. It is a value for suppressing the above.
  • the image processing unit 125b performs the parallax image correction process based on the captured image (the pixel value A (j, i) of the parallax image at the correction target position is the correction value Ac (j, Replace with i)). Specifically, the image processing unit 125b determines the pixel value I (j, i) of the captured image and the pixel value of the captured image and the parallax image at the position (j2, i2) ⁇ (j, i) in the vicinity of the correction target position. The correction value Ac (j, i) of the parallax image is determined using I (j2, i2) and A (j2, i2).
  • specific values of the parameters A0 and I0 can be appropriately set as necessary.
  • the values of the parameters A0 and I0 may be changed according to the photographing conditions such as the position (j, i) that is the correction target position, the ISO sensitivity, the aperture value of the imaging optical system, and the exit pupil distance.
  • the values of the parameters A0 and I0 may be set based on the pixel value A of the first parallax image around the correction target position and the pixel value I of the captured image.
  • FIG. 8 shows an example of the first parallax image (after demosaicing) in the focused state before the correction processing in the present embodiment.
  • FIG. 9 shows an example of the first parallax image (after demosaicing) in the focused state after the correction processing in the present embodiment.
  • FIG. 10 shows an example of the first parallax image (after demosaicing) in the defocus state before the correction process.
  • FIG. 11 shows an example of the first parallax image (after demosaicing) in the defocused state after the correction processing. It can be seen that the defect in the parallax image is corrected by the correction processing in the present embodiment in both the focused state and the defocused state.
  • FIG. 14 shows the first signal (the light reception signal of the first subpixel that forms the first parallax image) and the second signal (the second subpixel that forms the second parallax image) acquired by the image sensor 107 of the present embodiment. It is explanatory drawing of the refocusing process of the one-dimensional direction (column direction, horizontal direction) by (light reception signal of).
  • the image processing circuit 125 image processing means 125b as refocus processing means
  • i is an integer
  • the first signal of the i-th pixel in the column direction of the image sensor 107 arranged on the imaging surface 600 is schematically represented as Ai and the second signal is represented as Bi.
  • the first signal Ai is a light reception signal of a light beam incident on the i-th pixel at the principal ray angle ⁇ a (corresponding to the pupil partial region 501 in FIG. 5).
  • the second signal Bi is a light reception signal of a light beam incident on the i-th pixel at the principal ray angle ⁇ b (corresponding to the pupil partial region 502 in FIG. 5).
  • the first signal Ai and the second signal Bi include not only light intensity distribution information but also incident angle information. For this reason, by translating the first signal Ai along the angle ⁇ a to the virtual imaging plane 610, translating the second signal Bi along the angle ⁇ b to the virtual imaging plane 610, and adding them, A refocus signal at the virtual imaging plane 610 can be generated.
  • Translating the first signal Ai along the angle ⁇ a to the virtual imaging plane 610 corresponds to a +0.5 pixel shift in the column direction
  • the second signal Bi along the angle ⁇ b to the virtual imaging plane 610 corresponds to a -0.5 pixel shift in the column direction.
  • the first signal Ai and the second signal Bi are relatively shifted by +1 pixel, and the first signal Ai and the second signal (Bi + 1) are added in correspondence with each other, so that the signal on the virtual imaging plane 610 can be regenerated.
  • a focus signal can be generated.
  • shifting the first signal Ai and the second signal Bi by an integer shift (shifting by an integer number of pixels) and adding them, a shift addition signal on each virtual imaging plane according to the integer shift amount ( Refocus signal).
  • the influence of the defect included in at least one parallax image is removed or reduced by the correction process. For this reason, the refocus processing based on the parallax image after the correction processing can be performed. Therefore, refocus processing using each signal (first signal and second signal) forming a parallax image can be performed with high accuracy.
  • Embodiment 2 of the present invention will be described with reference to FIGS. 12 and 13A and 13B.
  • the present embodiment is different from the first embodiment in which the captured image is generated from the first parallax image and the second parallax image in that the captured image is generated from the first to fourth parallax images as a plurality of parallax images.
  • FIG. 12 is a diagram illustrating a pixel array of the image sensor 107 in the present embodiment.
  • 13A and 13B are diagrams showing the pixel structure of the image sensor 107
  • FIG. 13A is a plan view of the pixel 200G of the image sensor 107 (viewed from the + z direction)
  • FIG. 13B is a line aa in FIG. 13A.
  • the cross-sectional views (viewed from the ⁇ y direction) are respectively shown.
  • FIG. 12 shows a pixel array (photographing pixel array) of the image sensor 107 (two-dimensional CMOS sensor) in a range of 4 columns ⁇ 4 rows.
  • each imaging pixel pixels 200R, 200G, and 200B
  • each imaging pixel includes four subpixels 201, 202, 203, and 204.
  • the arrangement of sub-pixels is shown in a range of 8 columns ⁇ 8 rows.
  • pixels 200R, 200G, and 200B are arranged in a Bayer array. That is, in the pixel group 200, a pixel 200R having a spectral sensitivity of R (red) is at the upper left, a pixel 200G having a spectral sensitivity of G (green) is at the upper right and a lower left, and a pixel 200B having a spectral sensitivity of B (blue). Are located at the bottom right.
  • Each of the pixels 200R, 200G, and 200B (each imaging pixel) includes subpixels 201, 202, 203, and 204 arranged in 2 columns ⁇ 2 rows.
  • the sub-pixel 201 is a pixel that receives the light beam that has passed through the first pupil region of the imaging optical system.
  • the sub-pixel 202 is a pixel that receives the light beam that has passed through the second pupil region of the imaging optical system.
  • the sub-pixel 203 is a pixel that receives the light beam that has passed through the third pupil region of the imaging optical system.
  • the sub-pixel 204 is a pixel that receives the light beam that has passed through the fourth pupil region of the imaging optical system.
  • the image sensor 107 is configured by arranging a large number of 4 columns ⁇ 4 rows of imaging pixels (8 columns ⁇ 8 rows of subpixels) on the surface, and an imaging signal (subpixel signal). ) Is output.
  • the period P of pixels (imaging pixels) is 4 ⁇ m
  • the pixel 200G of this embodiment is provided with a microlens 305 for condensing incident light on the light receiving surface side of the pixel.
  • the microlens 305 is disposed at a position away from the light receiving surface by a predetermined distance in the z-axis direction (the direction of the optical axis OA).
  • N H divided in the x direction (divided into two), N V division (2 divided) photoelectric conversion unit 301, 302, 303 and 304 are formed in the y-direction.
  • the photoelectric conversion units 301 to 304 correspond to the subpixels 201 to 204, respectively.
  • the image sensor 107 shares a single microlens and emits a plurality of light beams that pass through different regions (first to fourth pupil partial regions) of the pupil of the imaging optical system (photographing lens).
  • a plurality of sub-pixels for receiving light are provided.
  • the image sensor 107 includes a first subpixel (a plurality of subpixels 201), a second subpixel (a plurality of subpixels 202), a third subpixel (a plurality of subpixels 203), and a plurality of subpixels. 4 sub-pixels (a plurality of sub-pixels 204) are included.
  • signals of the sub-pixels 201, 202, 203, and 204 are added and read for each pixel of the image sensor 107, thereby generating a captured image having a resolution of N effective pixels.
  • the captured image is generated for each pixel by combining the light reception signals of a plurality of subpixels (subpixels 201 to 204 in this embodiment).
  • the light reception signals of the plurality of subpixels 201 are collected to generate the first parallax image.
  • the second parallax image is collected by collecting the light reception signals of the plurality of subpixels 202
  • the third parallax image is generated by collecting the light reception signals of the plurality of subpixels 203.
  • the fourth parallax image is generated by subtracting the first parallax image, the second parallax image, and the third parallax image from the captured image.
  • the present embodiment is not limited to this, and the fourth parallax image may be generated by collecting the light reception signals of the plurality of sub-pixels 204. In this way, the parallax image is generated based on the light reception signals of the plurality of subpixels for each different pupil partial region.
  • the captured image and the first to third parallax images (and the fourth parallax image) are images with a Bayer array. If necessary, a demosaicing process may be performed on each of the captured image and the first to third parallax images (and the fourth parallax image). Note that the parallax image correction processing (defect correction) in the present embodiment is the same as that in the first embodiment, and a description thereof will be omitted.
  • Embodiment 3 of the present invention is different from the first embodiment in that the image processing unit 125b performs a light amount correction process (shading correction) on the parallax image based on the captured image.
  • the parallax image correction process may be performed so as to reduce defects included in the parallax image based on the captured image, as in the first embodiment.
  • the microlens has an optically conjugate relationship.
  • the pupil area 500 is a sub-pixel 201, 202 capable of receiving light the pupil area in the entire pixel 200G tailored all (first subpixel, second N LF subpixel).
  • FIG. 15A and 15B are explanatory diagrams of the light intensity distribution when light is incident on the microlens formed in each pixel.
  • FIG. 15A shows the light intensity distribution in a cross section parallel to the optical axis of the microlens.
  • FIG. 15B shows the light intensity distribution in a cross section perpendicular to the optical axis of the microlens at the focal position of the microlens. Incident light is condensed at the focal position by the microlens. However, due to the influence of diffraction due to the wave nature of light, the diameter of the focused spot cannot be made smaller than the diffraction limit ⁇ , and has a finite size.
  • the size of the light receiving surface of the photoelectric conversion unit is about 1 to 2 ⁇ m, whereas the condensing spot of the microlens is about 1 ⁇ m. Therefore, the pupil partial regions 501 and 502 in FIG. 4 that are in a conjugate relationship with the light receiving surface of the photoelectric conversion unit via the microlens are not clearly divided into pupils due to diffraction blur, and depend on the incident angle of light. It becomes a light reception rate distribution (pupil intensity distribution).
  • FIG. 16 is a graph of the light reception rate distribution (pupil intensity distribution) depending on the incident angle of light, where the horizontal axis indicates the pupil coordinates and the vertical axis indicates the light reception rate.
  • a graph line L1 shown by a solid line in FIG. 16 represents a pupil intensity distribution along the x-axis of the pupil partial region 501 (first pupil partial region) in FIG.
  • the light reception rate indicated by the graph line L1 rises steeply from the left end and gradually decreases after reaching the peak, and then the rate of change becomes gentle and reaches the right end.
  • a graph line L2 indicated by a broken line in FIG. 16 represents the pupil intensity distribution along the x-axis of the pupil partial region 502 (second pupil partial region).
  • the light receiving rate indicated by the graph line L2 rises steeply from the right end, reaches a peak and then gradually decreases, and then the rate of change becomes moderate and reaches the left end. As shown in FIG. 16, it can be seen that gentle pupil division is performed.
  • the photoelectric conversion units 301 and 302 are respectively connected to subpixels 201 and 202 (first subpixel to NLF subpixel).
  • subpixels 201 and 202 first subpixel to NLF subpixel.
  • the pupil partial regions 501 and 502 first pupil A light beam that has passed through different partial pupil areas (partial areas to NLF pupil partial areas) is received.
  • LF data input image indicating the spatial distribution and angular distribution of light intensity is acquired from the signal received by each subpixel.
  • the LF data (input image), for each pixel, a specific sub-pixel from among the 2 ⁇ 1 divided subpixels 201 and 202 (Nx ⁇ Ny divided first subpixel, second N LF subpixels were) Select the signal.
  • a viewpoint image corresponding to a specific pupil partial region in the pupil partial regions 501 and 502 (first pupil partial region to NLF pupil partial region) of the imaging optical system.
  • a first viewpoint image (first parallax image) having a resolution of N pixels corresponding to the pupil partial region 501 of the imaging optical system is generated by selecting the signal of the sub-pixel 201 for each pixel. Can do. The same applies to other sub-pixels.
  • the imaging device of the present embodiment has a structure in which a plurality of pixels provided with a plurality of photoelectric conversion units that receive light beams passing through different pupil partial regions of the imaging optical system are arranged, and LF data (Input image) can be acquired.
  • image processing such as flaw correction and shading correction is performed on the first viewpoint image and the second viewpoint image (first viewpoint image to NLF viewpoint image) based on the captured image. To generate an output image.
  • 17 and 18 from the LF data (input image) acquired by the image sensor 107, the first viewpoint image and the second viewpoint image (first viewpoint image to N LF viewpoint image) based on the captured image.
  • An image processing method for generating an output image by performing a correction process on the above will be described.
  • 17 and 18 are schematic diagrams illustrating the flow of the correction process in the present embodiment. 17 and 18 are mainly executed by the image processing circuit 125 (acquisition means 125a and image processing means 125b) based on a command from the CPU 121.
  • the image processing circuit 125 performs at least one captured image based on LF data (input image) acquired by the image sensor 107.
  • One viewpoint image (parallax image) is generated (acquired).
  • the captured image is an image generated according to a pupil region obtained by combining different pupil partial regions of the imaging optical system.
  • the viewpoint image is an image generated for each different pupil partial region of the imaging optical system.
  • step S ⁇ b> 0 first, the image processing circuit 125 inputs LF data (input image) acquired by the image sensor 107.
  • the image processing circuit 125 may use LF data (input image) previously captured by the image sensor 107 and stored in a recording medium.
  • step S ⁇ b> 0 the image processing circuit 125 generates a captured image corresponding to a pupil region obtained by combining different pupil partial regions (first pupil partial region and second pupil partial region) of the imaging optical system.
  • LF LF data (input image).
  • the image processing circuit 125 corresponds to the pupil region obtained by combining different pupil partial regions of the imaging optical system, and the i-th captured image I (j, i) in the column direction, that is, the combined image, It produces
  • the electrostatic capacitance in the image sensor in order to maintain a good S / N ratio of the captured image I (j, i), before each sub-pixel signal is subjected to analog / digital conversion (A / D conversion), the electrostatic capacitance in the image sensor.
  • the capacitor section (FD) the subpixel signals of Expression (2) are combined.
  • the first sub-pixel, second N LF sub is 2 divided subpixels 201 and 202 (Nx ⁇ Ny divided in the X direction (Pixel) signals are combined.
  • Nx ⁇ Ny divided in the X direction (Pixel) signals are combined.
  • the captured image is used as a reference image for the correction standard in the viewpoint image correction processing of the present embodiment, shading (light amount) correction processing or point scratch correction processing for each of the captured images I (j, i), etc. I do. Other processing may be performed as necessary.
  • step S0 the image processing circuit 125 obtains the k-th viewpoint image I k (j, i) in the column direction i-th and row direction j corresponding to the k-th pupil partial region of the imaging optical system. It produces
  • the signal of the sub-pixel 201 divided into two in the x direction is selected for each pixel.
  • a first viewpoint image I 1 (j, i) which is an RGB signal with a Bayer array having resolution, is generated.
  • the image processing unit 125b is based on an input image acquired by an imaging element in which a plurality of pixels provided with a plurality of photoelectric conversion units that receive light beams that pass through different pupil partial regions of the imaging optical system are arranged. Then, a captured image corresponding to a pupil region obtained by combining different pupil partial regions is generated. Further, the image processing unit 125b generates at least one or more viewpoint images for each different pupil partial region.
  • a captured image I (j, i) that is an RGB signal in a Bayer array and a first viewpoint image I 1 that is an RGB signal in a Bayer array. (J, i) are generated and stored in the recording medium.
  • the second viewpoint image I 2 (j, i) is generated from the captured image I (j, i) and the first viewpoint image I 1 (j, i).
  • a first viewpoint image I 1 (j, i) and a second viewpoint image I 2 (j, i) are generated in order to equalize the processing for each viewpoint image as necessary, and the recording medium You may save it.
  • step S1 of FIG. 17 the image processing unit 125b performs shading correction processing for each RGB of the first viewpoint image I 1 (kth viewpoint image I k ) based on the captured image I (j, i) ( Light intensity correction process).
  • FIGS. 19A to 19C description will be given of shading due to pupil misalignment of the first viewpoint image and the second viewpoint image (first viewpoint image to NLF viewpoint image).
  • 19A to 19C are explanatory diagrams of shading.
  • the relationship of the exit pupil 400 of an optical system is shown.
  • symbol is attached
  • Photoelectric converters 301 and 302 correspond to subpixels 201 and 202 (first subpixel to NLF subpixel), respectively.
  • FIG. 19A shows a case where the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the image sensor 107 are the same.
  • the exit pupil 400 of the imaging optical system is substantially equally divided by the pupil partial areas 501 and 502.
  • FIG. 19B when the exit pupil distance Dl of the imaging optical system is shorter than the set pupil distance Ds of the image sensor 107, the imaging with the exit pupil 400 is performed at the peripheral image height of the image sensor 107. A pupil shift from the entrance pupil of the element 107 occurs. As a result, the exit pupil 400 is non-uniformly divided into pupils.
  • FIG. 19B shows a case where the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the image sensor 107 are the same.
  • the exit pupil 400 of the imaging optical system is substantially equally divided by the pupil partial areas 501 and 502.
  • FIG. 19B when the exit pupil distance Dl of the imaging optical system is shorter than the set pupil distance Ds of the image sensor 107, the imaging with the exit
  • the exit pupil 400 and the image sensor 107 are obtained at the peripheral image height of the image sensor 107.
  • a pupil shift from the entrance pupil occurs.
  • the exit pupil 400 is non-uniformly divided into pupils.
  • the intensity of the first viewpoint image and the second viewpoint image becomes nonuniform and the intensity of either the first viewpoint image or the second viewpoint image increases. , Shading with a smaller intensity occurs for each RGB (each color).
  • the image processing means 125b of the present embodiment uses the captured image I (j, i) as a reference image as a reference image in step S1 of FIG. Shading correction (light quantity correction) for each RGB of I 1 (kth viewpoint image I k ) is performed.
  • step S1 of FIG. 17 the image processing circuit 125 first has both the captured image I (j, i) and the first viewpoint image I 1 (j, i) being non-saturated and non-defect (non-scratched).
  • a certain effective pixel V 1 (j, i) is detected.
  • the captured image I having the Bayer array illustrated in FIG. 2 is defined as captured images RI, GrI, GbI, and BI for each of R, Gr, Gb, and B.
  • R captured image of RI (2j 2 -1,2i 2 -1) I (2j 2 -1,2i 2 -1)
  • the k-th viewpoint image I k in the Bayer array illustrated in FIG. 2 is set to RI k , GrI k , GbI k , and BI k for each of R, Gr, Gb, and B.
  • step S1 the image processing unit 125b then captured image RI (2j 2 -1,2i 2 -1) , GrI (2j 2 -1,2i 2), GbI (2j 2, 2i 2 -1), BI Projection processing of (2j 2 , 2i 2 ) is performed.
  • the captured image RI (2j 2 -1,2i 2 -1) , GrI (2j 2 -1,2i 2), GbI (2j 2, 2i 2 -1), BI (2j 2, 2i 2) With respect to the above, the projection processing is performed in the direction (y direction) orthogonal to the pupil division direction (x direction) by the equations (4A) to (4D).
  • the projection signals RP (2i 2 ⁇ 1), GrP (2i 2 ), GbP (2i 2 ⁇ 1), and BP (2i 2 ) of the captured image are generated.
  • the saturation signal value and the defect signal value do not include information for correctly detecting shading for each RGB of the captured image. Therefore, the product of the captured image and the effective pixel Vk is calculated, and the projection process is performed by excluding the saturation signal value and the defect signal value (from the upper stage of the formula (4A) to the upper stage of the formula (4D)). Normalization is performed with the number of effective pixels used (from the upper stage of equation (4A) to the upper denominator of equation (4D)).
  • the projection signal of the captured image is set to 0 according to the lower part of Expression (4A) to the lower part of Expression (4D). Further, when the projected signal of the captured image becomes a negative signal due to the influence of noise or the like, the projected signal of the captured image is set to 0.
  • the k viewpoint image RI k (2j 2 -1,2i 2 -1 ), GrI k (2j 2 -1,2i 2), GbI k (2j 2, 2i 2 -1), BI k (2j 2 2i 2 ) is projected in the direction (y direction) orthogonal to the pupil division direction (x direction) by the equations (4E) to (4H). Thereby, the projection signals RP k (2i 2 ⁇ 1), GrP k (2i 2 ), GbP k (2i 2 ⁇ 1), and BP k (2i 2 ) of the kth viewpoint image are generated.
  • the low-pass filter processing includes the projection signal RP (2i 2 ⁇ 1), GrP (2i 2 ), GbP (2i 2 ⁇ 1), BP (2i 2 ) of the captured image and the projection signal RP k (2i) of the kth viewpoint image. 2 -1), GrP k (2i 2), GbP k (2i 2 -1), are carried out in BP k (2i 2). Thereby, the projection signal of the captured image is smoothed. However, the low-pass filter process may be omitted.
  • FIG. 20A to 20C are explanatory diagrams of the projection signal of the captured image, the projection signal of the first viewpoint image, and the shading function, respectively.
  • FIG. 20A illustrates an example of the projection signals RP (R), GrP (G), GbP (G), and BP (B) of the captured image.
  • FIG. 20B shows an example of the projection signals RP 1 (R), GrP 1 (G), GbP 1 (G), and BP 1 (B) of the first viewpoint image.
  • Each projection signal has a plurality of peaks and valleys depending on the subject.
  • the shading for each RGB of the first viewpoint image I 1 (kth viewpoint image I k ) caused by pupil shift is performed. It is necessary to separate the component and the signal component for each RGB held by the subject.
  • step S1 the image processing means 125b obtains the shading signal RS k (2i 2 ⁇ 1) for each RGB of the k-th viewpoint image I k relative to the captured image by using the equations (5A) to (5D). , GrS k (2i 2 ), GbS k (2i 2 ⁇ 1), BS k (2i 2 ) are calculated.
  • the amount of light received by the pixel is larger than the amount of light received by the sub-pixel, and further, the amount of light received by the sub-pixel needs to be greater than zero in order to calculate the shading component. Therefore, when the conditional expression RP (2i 2 ⁇ 1)> RP k (2i 2 ⁇ 1)> 0 is satisfied, the projection signal RP k (2i 2 ⁇ 1) of the Rth kth viewpoint image is expressed by the expression (5A). , The ratio of the captured image of R to the projection signal RP (2i 2 ⁇ 1) is acquired. Then, an R shading signal RS k (2i 2 ⁇ 1) of the k-th viewpoint image I k is generated by multiplying the number of pupil divisions N LF for normalization.
  • the projection signal GrP k (2i 2 ) of the Gr k-th viewpoint image and the captured image of Gr are expressed by Expression (5B).
  • the ratio with the projection signal GrP (2i 2 ) is obtained.
  • the Gr shading signal GrS k (2i 2 ) of the k-th viewpoint image I k is generated by multiplying the number of pupil divisions N LF for normalization. Accordingly, the Gr signal component held by the subject can be canceled, and the Gr shading component of the k-th viewpoint image I k can be separated.
  • the Gr shading signal GrS k (2i 2 ) of the k-th viewpoint image I k is set to 0.
  • the projection signal GbP k (2i 2 ⁇ 1) of the kth viewpoint image of Gb is obtained by Expression (5C).
  • the projection signal GbP (2i 2 ⁇ 1) of the captured image of Gb is obtained by Expression (5C).
  • the Gb shading signal GbS k (2i 2 ⁇ 1) of the k-th viewpoint image I k is generated by multiplication by the pupil division number N LF for normalization.
  • the Gb shading signal GbS k (2i 2 ⁇ 1) of the kth viewpoint image I k is set to 0. To do.
  • the projection signal BP k (2i 2 ) of B's kth viewpoint image and the captured image of B are obtained by Expression (5D).
  • the ratio with the projection signal BP (2i 2 ) is obtained.
  • the B shading signal BS k (2i 2 ) of the k-th viewpoint image I k is generated by multiplication by the pupil division number N LF for normalization. Thereby, the B signal component held by the subject can be canceled, and the B shading component of the k-th viewpoint image I k can be separated.
  • the conditional expression BP (2i 2 )> BP k (2i 2 )> 0 is not satisfied, the B shading signal BS k (2i 2 ) of the k-th viewpoint image I k is set to 0.
  • step S1 the image processing means 125b next performs arithmetic processing represented by equations (6A) to (6D).
  • the shading function RSF k for each RGB of the k viewpoint image I k (2i 2 -1), GrSF k (2i 2), GbSF k (2i 2 -1), BSF k a (2i 2) pupil division a smooth N SF order polynomial function for the position variable direction (x-direction).
  • a valid shading signal satisfying> 0 is defined as a data point.
  • parameter fitting is performed by the least square method, and the coefficients RSC k ( ⁇ ), GrSC k ( ⁇ ), GbSC k ( ⁇ ), and BSC k ( ⁇ ) of the equations (6A) to (6D) are performed. Is calculated.
  • FIG. 20C shows examples of shading functions RSF 1 (R), GrSF 1 (G), GbSF 1 (G), and BSF 1 (B) for each RGB of the first viewpoint image I 1 relative to the captured image. Is shown.
  • RSF 1 R
  • GrSF 1 G
  • GbSF 1 G
  • BSF 1 B
  • step S1 in FIG. 17 the image processing unit 125b then performs shading on the k-th viewpoint image I k (j, i) using the shading function for each RGB according to equations (7A) to (7D). (Light intensity) correction processing is performed.
  • the k-th viewpoint (first modified) image M 1 I k (j, i) after shading correction is generated.
  • the k-th viewpoint (first correction) image M 1 I k in the Bayer array is expressed for each of R, Gr, Gb, and B as follows.
  • FIG. 21 shows an example of a captured image I (after demosaicing) of the present embodiment. It is an example of a captured image with good image quality.
  • FIG. 22 shows an example of the first viewpoint image I 1 (after demosaicing) before the shading correction of the present embodiment. Shading of each RGB occurs due to the pupil shift between the exit pupil of the imaging optical system and the entrance pupil of the image sensor. Therefore, on the right side of the first viewpoint image I 1 (j, i), the luminance is reduced and the RGB ratio is modulated. This is an example.
  • FIG. 21 shows an example of a captured image I (after demosaicing) of the present embodiment. It is an example of a captured image with good image quality.
  • FIG. 22 shows an example of the first viewpoint image I 1 (after demosaicing) before the shading correction of the present embodiment. Shading of each RGB occurs due to the pupil shift between the exit pupil of the imaging optical system and the entrance pupil of the image sensor. Therefore, on the right side of the first viewpoint image I 1
  • FIG. 23 shows an example of the first viewpoint (first corrected) image M 1 I 1 (after demosaicing) after the shading correction of the present embodiment.
  • the shading correction for each RGB based on the captured image the decrease in luminance and the modulation of the RGB ratio are corrected.
  • the first viewpoint (first corrected) image M 1 after the shading correction with good image quality. I 1 (j, i) is generated.
  • different pupil partial regions are extracted from an input image acquired by an imaging device in which a plurality of pixels provided with a plurality of photoelectric conversion units that receive light beams passing through different pupil partial regions of the imaging optical system are arranged.
  • a captured image corresponding to the combined pupil region is generated.
  • a plurality of viewpoint images are generated, image processing for correcting the viewpoint image based on the captured image is performed, and an output image is generated.
  • image processing for correcting the light amount (shading) for each color (RGB) of the viewpoint image based on the captured image is performed.
  • image processing for correcting the light amount of the viewpoint image is performed based on the projection signal of the captured image and the projection signal of the viewpoint image.
  • step S ⁇ b> 2 of FIG. 17 the image processing unit 125 b performs defect correction on the kth viewpoint (first corrected) image M 1 I k after shading correction based on the captured image I.
  • the picked-up image I is normal due to a short circuit of the transfer gate, etc., depending on the circuit configuration and driving method of the image pickup device, but on the other hand, only a small part of the k-th viewpoint image I k (first viewpoint image I 1 ). In some cases, a defect signal is generated, resulting in a point defect or a line defect. If necessary, point defect information and line defect information inspected in a mass production process or the like are recorded in advance in the image processing circuit 125 and the like, and the k-th viewpoint image I is recorded using the recorded point defect information and line defect information. Defect correction processing of k (first viewpoint image I 1 ) may be performed. Further, if necessary, the point defect determination and the line defect determination may be performed by inspecting the kth viewpoint image I k (first viewpoint image I 1 ) in real time.
  • the defect correction (step S2 in FIG. 17) of the present embodiment will be described.
  • the odd-numbered row 2j D ⁇ 1 or the even-numbered row 2j D of the k-th viewpoint image I k is determined to be a line defect in the horizontal direction (x direction), and the captured image
  • the odd-numbered row 2j D ⁇ 1 or even-numbered row 2j D of I is not determined to be a line defect will be described as an example.
  • the normal captured image I is used as a reference image, and the defect correction of the kth viewpoint (first modified) image M 1 I k is performed based on the captured image I.
  • the signal value of the kth viewpoint (first correction) image M 1 I k at a position not determined to be a defect the signal value of the captured image I at a position not determined to be a defect, To correct defects.
  • step S1 performs RGB each of the shading correction of the k-th viewpoint image (light intensity correction), and generates a k-th viewpoint (first modification) image M 1 I k, equivalent shading the captured image I To remove the influence of the shading component.
  • step S2 a highly accurate defect correction is performed on the kth viewpoint (first corrected) image M 1 I k subjected to the shading correction based on the captured image I.
  • step S2 of FIG. 17 the normal signal of the captured image I and the signal determined as a partial defect of the kth viewpoint (first corrected) image M 1 I k (j, i) after shading correction Then, defect correction processing is performed from the normal signal of the kth viewpoint (first correction) image M 1 Ik . Then, a k-th viewpoint (second modified) image M 2 I k (j, i) after defect correction is generated.
  • the k-th viewpoint (second modified) image M 2 I k in the Bayer array is expressed for each of R, Gr, Gb, and B as follows.
  • the k viewpoint (second modification) images of R RM 2 I k (2j 2 -1,2i 2 -1) M 2 I k (2j 2 -1,2i 2 -1), the k of Gr
  • the first position of the first k viewpoint (first modification) image M 1 I k of Gr (2j D -1,2i D) Consider the case where it is determined that the defect.
  • the captured image GrI (2j D ⁇ 1, 2i D ) at the first position the k-th viewpoint (first correction) image GbM 1 I k at the second position of Gb that has not been determined to be defective, and the second From the captured image GbI at the position, defect correction processing is performed according to the equation (8B).
  • the kth viewpoint (second modified) image GrM 2 I k (2j D ⁇ 1, 2i D ) after defect correction at the first position can be generated.
  • the kth viewpoint (second modified) image M 2 I k (j, i) is the kth viewpoint (first modified) image.
  • M 2 I k (j, i) M 1 I k (j, i).
  • the k-th viewpoint (second modified) image M 2 I k (j, i) after defect correction may be used as the output image.
  • FIG. 24 shows an example of a first viewpoint (first correction) image M 1 I 1 (after shading correction and after demosaicing) before defect correction of the present embodiment.
  • This is an example in which a line defect in the horizontal direction (x direction) is generated at the center of the first viewpoint (first correction) image M 1 I 1 (j, i).
  • FIG. 25 shows an example of the first viewpoint (second correction) image M 2 I 1 (after shading correction and after demosaicing) after defect correction of the present embodiment.
  • different pupil partial regions are extracted from an input image acquired by an imaging device in which a plurality of pixels provided with a plurality of photoelectric conversion units that receive light beams passing through different pupil partial regions of the imaging optical system are arranged.
  • a captured image corresponding to the combined pupil region is generated.
  • a plurality of viewpoint images are generated for each different pupil partial region, image processing for correcting the viewpoint image based on the captured image is performed, and an output image is generated.
  • image processing is performed so as to reduce defects included in the viewpoint image based on the captured image.
  • image processing for correcting the signal value of the viewpoint image at the first position determined to be a defect using the signal value of the captured image at the first position is performed.
  • the signal value of the captured image at the first position determined as a defect, the signal value of the viewpoint image at the second position not determined as a defect, and the signal value of the captured image at the second position Based on this, image processing for correcting the signal value of the viewpoint image at the first position is performed.
  • the image processing unit 125b performs correction processing (image processing) so as to reduce defects included in the viewpoint image based on the captured image after performing light amount correction processing of the viewpoint image based on the captured image. Do. With such a configuration, it is possible to generate a viewpoint image with good image quality.
  • step S2 of FIG. 17 the image processing means 125b then applies the following equations (9A) to (9A) to ( k ) for the k-th viewpoint (second modified) image M 2 I k (j, i) after defect correction. 9D), the shading process is performed. As a result, the k-th viewpoint (third modified) image M 3 I k (j, i) is generated.
  • the k-th viewpoint (third modified) image M 3 I k in the Bayer array is acquired for each of R, Gr, Gb, and B.
  • step S3 in FIG. 18 saturation signal processing is performed on the captured image I (j, i) and the kth viewpoint (third modified) image M 3 I k (j, i).
  • step S3 first, saturation signal processing is performed on the captured image I (j, i) with the maximum value of the captured image signal being Imax according to the following equation (10), and the modified captured image MI (j, i) is obtained. Generate.
  • step S3 the image processing circuit 125b then sets the Bayer array shading function to SF k (j, i) for the kth viewpoint (third modified) image M 3 I k (j, i), and Equation (11) is used to perform saturation signal processing in accordance with the shading state.
  • the k-th viewpoint (fourth modified) image M 4 I k (j, i) can be generated.
  • the shading function SF k (2i 2 ⁇ 1) generated for each of R, Gr, Gb, and B according to the equations (6A) to (6D) is represented by the shading function SF k (j, i) of the Bayer array.
  • step S4 of FIG. 18 the image processing means 125b obtains the corrected captured image MI (j, i) and the first viewpoint (fourth corrected) image M 4 I 1 (j, i) according to the equation (12).
  • the second viewpoint image I 2 (j, i) is generated.
  • the maximum signal value at the time of saturation of the first viewpoint (third modified) image M 3 I 1 (j, i) depends on the driving method of the image sensor 107 and the A / D conversion circuit configuration.
  • the maximum signal value Imax when I (j, i) is saturated may be the same maximum signal value. In that case, if the second viewpoint image is generated by subtracting the first viewpoint (third modified) image from the captured image without performing the saturation signal processing, as shown in Expression (12), the saturation signal is generated in the second viewpoint image. In some cases, the signal value may be an incorrect signal value 0.
  • step S3 the captured image I (j, i) and the kth viewpoint (third modified) image M 3 I k (j, i) are saturated in accordance with the shading state in advance. Perform signal processing. Then, a corrected captured image MI (j, i) and a first viewpoint (fourth corrected) image M 4 I 1 (j, i) after saturation signal processing are generated. Thereafter, in step S4, the equation (12), the second viewpoint image I 2 (j, i) by generating may generate the second viewpoint image I 2 corresponding to more accurate saturation signal value.
  • step S5 of FIG. 18 the image processing means 125b performs shading correction on the first viewpoint (fourth modified) image M 4 I 1 (j, i) and the second viewpoint image I 2 (j, i).
  • (Light intensity correction) is performed.
  • the shading functions RSF 1 , GrSF 1 , GbSF 1 generated by the equations (6A) to (6D)
  • BSF 1 shading correction (light quantity correction) is performed in the same manner as in equations (7A) to (7D).
  • the first viewpoint (fifth modified) image M 5 I 1 (j, i) is generated.
  • step S5 next, the image processing means 125b applies the corrected captured image MI (j, i) to the second viewpoint image I 2 (j, i) as in the equations (4A) to (7D). Based on this, shading correction (light quantity correction) is performed. Thereby, the second viewpoint (fifth modified) image M 5 I 2 (j, i) is generated.
  • step S6 of FIG. 18 finally, the image processing means 125b determines that the first viewpoint (fifth modified) image M 5 I 1 (j, i) and the second viewpoint (fifth modified) image M 5 I 2 ( For j, i), saturation signal processing is performed by the following equation (13). As a result, the modified first viewpoint image MI 1 (j, i) and the modified second viewpoint image MI 2 (j, i), which are output images, are generated.
  • FIG. 26 shows an example of the second viewpoint image I 2 (after demosaicing) before the shading correction of this embodiment.
  • Shading for each RGB occurs due to the pupil shift between the exit pupil of the imaging optical system and the entrance pupil of the image sensor. Therefore, on the left side of the second viewpoint image I 2 (j, i), the luminance is reduced and the RGB ratio is modulated.
  • FIG. 27 shows an example of the modified second viewpoint image MI 2 (after demosaicing) after the shading correction of the present embodiment.
  • the shading correction for each RGB based on the captured image corrects the decrease in luminance and the modulation of the RGB ratio. Similar to the captured image, the modified second viewpoint image MI 2 (j, i) after the shading correction with good image quality. Is generated.
  • the image processing apparatus of the present embodiment is an image processing apparatus having image processing means for performing the above-described image processing method.
  • the image pickup apparatus according to the present embodiment includes an image pickup element in which a plurality of pixels provided with a plurality of sub-pixels that receive light beams that pass through different pupil partial regions of the imaging optical system, and image processing that performs the image processing method described above.
  • An imaging device having means According to the configuration of the present embodiment, it is possible to generate a viewpoint image with good image quality.
  • a corrected first viewpoint image and a corrected second viewpoint image are generated from the corrected first viewpoint image and the corrected second viewpoint image (modified first viewpoint image to corrected NLF viewpoint image) generated in the third embodiment.
  • the image shift amount distribution is detected by the phase difference detection method on the basis of the correlation (the degree of coincidence of signals).
  • the first viewpoint luminance signal Y 1 generated by the equation (14) the pupil division direction ( A one-dimensional bandpass filter process is performed in the column direction to generate a first focus detection signal dYA.
  • the second viewpoint luminance signal Y 2 generated by the equation (14) from the modified second viewpoint image MI 2 is subjected to a one-dimensional bandpass filter process in the pupil division direction (column direction), and the second A focus detection signal dYB is generated.
  • the one-dimensional bandpass filter for example, a first-order differential filter [1, 5, 8, 8, 8, 8, 5, 1, -1, -5, -8, -8, -8, -8, -8, -5, -1] and the like can be used. If necessary, the passband of the one-dimensional bandpass filter may be adjusted.
  • the first focus detection signal dYA and the second focus detection signal dYB are relatively shifted in the pupil division direction (column direction), and the correlation amount indicating the degree of coincidence of the signals is obtained.
  • the image deviation amount distribution M DIS (j, i) is generated based on the correlation amount.
  • the one focus detection signal is dYA (j + j 2 , i + i 2 ), and the second focus detection signal is dYB (j + j 2 , i + i 2 ).
  • the correlation amount COR EVEN (j, i, s) at each position (j, i) is calculated by the following equation (15A)
  • the correlation amount COR ODD (j, i, s) is calculated by the following equation (15B).
  • Correlation amount COR ODD (j, i, s) shifts the shift amount of the first focus detection signal dYA and the second focus detection signal dYB by half phase minus one with respect to the correlation amount COR EVEN (j, i, s). The amount of correlation is shifted. From the correlation amount COR EVEN (j, i, s) and the correlation amount COR ODD (j, i, s), the average value is calculated by calculating the shift amount of the real value at which the correlation amount is the minimum value by sub-pixel calculation. And the image displacement amount distribution M DIS (j, i) is detected.
  • the correlation amount of the formula (15A) and the formula (15B) is evaluated, and based on the correlation (signal coincidence) between the first focus detection signal and the second focus detection signal, The amount of image shift is detected.
  • a first focus detection signal and a second focus detection signal are generated from the corrected first viewpoint image and the corrected second viewpoint image subjected to shading correction (light amount correction) for each RGB based on the captured image, respectively.
  • the correlation the degree of coincidence of signals
  • the aperture value F of the imaging lens imaging optical system
  • the exit and the image shift amount distribution M DIS (j, i)
  • a conversion coefficient K from an image shift amount to a defocus amount corresponding to lens information such as pupil distance is multiplied.
  • the defocus distribution M Def (j, i) can be detected.
  • this embodiment it is possible to generate a plurality of viewpoint images with good image quality. Further, by using a plurality of viewpoint images with good image quality, it is possible to improve the detection accuracy of the image shift amount.
  • the present embodiment differs from an input image (LF data) acquired by an imaging device in which a plurality of pixels provided with a plurality of photoelectric conversion units that receive light beams passing through different pupil partial regions of the imaging optical system are arranged. A captured image corresponding to the pupil region obtained by combining the pupil partial regions is generated. A plurality of viewpoint images are generated for each different pupil partial area.
  • the first viewpoint image to the fourth viewpoint image first viewpoint image to NLF viewpoint
  • Image processing such as scratch correction and shading correction is performed on the image, and an output image is generated.
  • the number of pupil divisions N LF becomes one extra for normalization of equations (5A) to (5D). Therefore, in the second shading correction in the y direction, multiplication of the pupil division number N LF for normalization is omitted in equations (5A) to (5D).
  • Step S5 and subsequent steps in FIG. 18 are the same as those in the third embodiment.
  • N LF 16, 16 divisions, etc.
  • the image processing apparatus includes the acquisition unit 125a and the image processing unit 125b (correction unit).
  • the acquisition unit 125a acquires a parallax image generated from a signal of one photoelectric conversion unit among a plurality of photoelectric conversion units that receive light beams passing through different pupil partial regions of the imaging optical system, and acquires a plurality of photoelectric conversion units.
  • a captured image generated by combining a plurality of signals of the conversion unit is acquired.
  • the image processing unit 125b performs correction processing so as to reduce defects (point scratches and line scratches) included in the parallax image based on the captured image.
  • the image processing unit 125b uses the pixel value (pixel signal) of the parallax image at the first position (correction target position) determined as a defect, and the pixel value (pixel signal) of the captured image at the first position. to correct. More preferably, the image processing unit 125b converts the pixel value I of the captured image at the first position, the pixel value of the parallax image at the second position not determined as a defect, and the pixel value of the captured image at the second position. Based on this, the pixel value of the parallax image at the first position is corrected.
  • the second position is a position of a pixel in the vicinity (periphery) of the first position (correction target position). More preferably, the second position is a position adjacent to the first position in a predetermined direction (vertical direction, horizontal direction, or diagonal direction of the pixel array).
  • the image processing unit 125b replaces the pixel value with a predetermined luminance value when the pixel value of the parallax image or the captured image at the second position is smaller than the predetermined luminance value (parameters A0 and I0). More preferably, the predetermined luminance value is set so as to change according to the number of pupil partial regions. Preferably, the predetermined luminance value is set so as to change according to the first position (correction target position). Preferably, the predetermined luminance value is set so as to change according to the photographing condition information.
  • the imaging condition information includes, for example, at least one of ISO sensitivity, the aperture value of the imaging optical system, and the exit pupil distance.
  • the image processing apparatus includes a storage unit (storage unit 134) that stores defect information regarding the first position, or an inspection unit that inspects defect information regarding the first position.
  • the image processing unit 125b performs correction processing based on the defect information stored in the storage unit or the defect information obtained as a result of the inspection by the inspection unit.
  • the parallax image includes a plurality of subpixels (a plurality of first subpixels, a plurality of second subpixels, and a plurality of second subpixels) included in one photoelectric conversion unit for each different pupil partial region of the imaging optical system.
  • 3 sub-pixels or a plurality of fourth sub-pixels) are collected and generated.
  • the captured image includes all subpixels (a plurality of first subpixels and a plurality of second subpixels, and a plurality of third subpixels and a plurality of fourth subpixels as necessary) included in the plurality of photoelectric conversion units.
  • the received light signals are collected and generated.
  • the parallax image includes a first parallax image and a second parallax image corresponding to each of light beams passing through different pupil region portions of the imaging optical system.
  • the acquisition means 125a acquires a captured image and the 1st parallax image among parallax images from the image pick-up element 107 provided with the some photoelectric conversion part.
  • the image processing unit 125b performs correction processing on the first parallax image among the parallax images. Then, the image processing unit 125b generates a second parallax image by subtracting the corrected first parallax image from the captured image.
  • the image processing unit 125b (refocusing unit) performs refocus processing of the captured image based on the parallax image after the correction processing.
  • the image processing means performs a light amount correction process (shading correction) of the parallax image based on the captured image. More preferably, the image processing means performs a light amount correction process of the parallax image for each color of the parallax image based on the captured image. Preferably, the image processing means performs a light amount correction process on the parallax image based on the projection signal of the captured image and the projection signal of the parallax image. Preferably, the image processing unit corrects the parallax image so as to reduce defects included in the parallax image after the light amount correction processing based on the captured image after performing the light amount correction processing of the parallax image.
  • a light amount correction process shading correction
  • the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program
  • This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
  • an image processing device an imaging device, an image processing method, a program, and a storage medium that can generate a parallax image with improved image quality.
  • Image processing circuit image processing device
  • acquisition means 125b image processing means

Abstract

【課題】画質の品位を向上させた視差画像を生成可能な画像処理装置を提供する。 【解決手段】画像処理装置は、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部のうち、一つの光電変換部の信号から生成される視差画像を取得し、複数の光電変換部の複数の信号を合成して生成される撮像画像を取得する取得手段125aと、撮像画像に基づいて視差画像を補正する画像処理手段125bとを有する。

Description

画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
本発明は、視差画像を補正可能な画像処理装置に関する。
従来から、撮影レンズの射出瞳を複数の領域に瞳分割し、分割された瞳領域に応じた複数の視差画像を同時に撮影可能な撮像装置が知られている。撮影された視差画像(視点画像)は、光強度の空間分布および角度分布に関する情報であるLF(Light Field)データと等価である。
特許文献1には、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部が形成されている2次元撮像素子を用いた撮像装置が開示されている。分割された光電変換部は、1つのマイクロレンズを介して撮影レンズの射出瞳の異なる瞳部分領域を受光するように構成され、瞳分割を行う。これらの分割された光電変換部のそれぞれの受光信号に基づいて、分割された瞳部分領域に応じた複数の視差画像を生成することができる。特許文献2には、分割された光電変換部のそれぞれの受光信号の全てを加算することにより撮像画像を生成する撮像装置が開示されている。
米国特許第4410804号 特開2001-083407号公報
しかしながら、特許文献1、2に開示されている撮像装置で得られた視差画像(視点画像)の一部において、点キズや線キズなどの欠陥(キズ信号)、瞳分割によるシェーディング、および、飽和信号などが生じ、視差画像の画質が低下する場合がある。
そこで本発明は、画質の品位を向上させた視差画像を生成可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供する。
本発明の一側面としての画像処理装置は、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部のうち、一つの光電変換部の信号から生成される視差画像を取得し、該複数の光電変換部の複数の信号を合成して生成される撮像画像を取得する取得手段と、前記撮像画像に基づいて前記視差画像に含まれる欠陥を低減するように補正処理を行う画像処理手段とを有する。
本発明の他の側面としての撮像装置は、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部から構成される画素を複数配列した撮像素子と、前記複数の光電変換部のうち一つの光電変換部の信号から生成される視差画像を取得し、該複数の光電変換部の複数の信号を合成して生成される撮像画像を取得する取得手段と、前記撮像画像に基づいて前記視差画像に含まれる欠陥を低減するように補正処理を行う画像処理手段とを有する。
本発明の他の側面としての画像処理方法は、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部のうち、一つの光電変換部の信号から生成される視差画像を取得し、該複数の光電変換部の複数の信号を合成して生成される撮像画像を取得するステップと、前記撮像画像に基づいて前記視差画像に含まれる欠陥を低減するように補正処理を行うステップとを有する。
本発明の他の側面としてのプログラムは、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部のうち、一つの光電変換部の信号から生成される視差画像を取得し、該複数の光電変換部の複数の信号を合成して生成される撮像画像を取得するステップと、前記撮像画像に基づいて前記視差画像に含まれる欠陥を低減するように補正処理を行うステップと、をコンピュータに実行させるように構成されている。
本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。
本発明の他の目的及び特徴は、以下の実施例において説明される。
本発明によれば、画質の品位を向上させた視差画像を生成可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。
各実施例における撮像装置のブロック図である。 実施例1における画素配列を示す図である。 実施例1における画素構造を示す図である。 実施例1における画素構造を示す図である。 各実施例における撮像素子および瞳分割機能の説明図である。 各実施例における撮像素子および瞳分割機能の説明図である。 各実施例におけるデフォーカス量と像ずれ量と関係図である。 各実施例における視差画像の配列図である。 各実施例における撮像画像の配列図である。 実施例1における補正処理前の視差画像の例である。 実施例1における補正処理後の視差画像の例である。 実施例1における補正処理前の視差画像の他の例である。 実施例1における補正処理後の視差画像の他の例である。 実施例2における画素配列を示す図である。 実施例2における画素構造を示す図である。 実施例2における画素構造を示す図である。 各実施例におけるリフォーカス処理の概略説明図である。 実施例3において、各画素に形成されたマイクロレンズに光が入射した場合の光強度分布の説明図である。 実施例3において、各画素に形成されたマイクロレンズに光が入射した場合の光強度分布の説明図である。 実施例3において、光の入射角に依存した受光率分布の図である。 実施例3における補正処理の流れを示す概略図である。 実施例3における補正処理の流れを示す概略図である。 実施例3におけるシェーディングの説明図である。 実施例3におけるシェーディングの説明図である。 実施例3におけるシェーディングの説明図である。 実施例3における撮像画像の射影信号の説明図である。 実施例3における第1視点画像の射影信号の説明図である。 実施例3におけるシェーディング関数の説明図である。 実施例3における撮像画像(デモザイキング後)の例である。 実施例3におけるシェーディング補正前の第1視点画像(デモザイキング後)の例である。 実施例3におけるシェーディング補正後の第1視点(第1修正)画像(デモザイキング後)の例である。 実施例3における欠陥補正前の第1視点(第1修正)画像(シェーディング補正後、デモザイキング後)の例である。 実施例3における欠陥補正後の第1視点(第2修正)画像(シェーディング補正後、デモザイキング後)の例である。 実施例3におけるシェーディング補正前の第2視点画像(デモザイキング後)の例である。 実施例3におけるシェーディング補正後の修正第2視点画像(デモザイキング後)の例である。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。
まず、図1を参照して、本発明の実施例1における撮像装置の概略構成について説明する。図1は、本実施例における撮像装置100(カメラ)のブロック図である。撮像装置100は、カメラ本体とカメラ本体に着脱可能な交換レンズ(結像光学系または撮影光学系)とを備えたデジタルカメラシステムである。ただし本実施例は、これに限定されるものではなく、カメラ本体とレンズとが一体的に構成された撮像装置にも適用可能である。
第1レンズ群101は、撮影レンズ(結像光学系)を構成する複数のレンズ群のうち最も前方(被写体側)に配置されており、光軸OAの方向(光軸方向)に進退可能な状態でレンズ鏡筒に保持される。絞り兼用シャッタ102(絞り)は、その開口径を調節することで撮影時の光量調節を行うとともに、静止画撮影時には露光時間調節用シャッタとして機能する。第2レンズ群103は、絞り兼用シャッタ102と一体的に光軸方向に進退し、第1レンズ群101の進退動作と連動して変倍動作を行うズーム機能を有する。第3レンズ群105は、光軸方向に進退することにより焦点調節(フォーカス動作)を行うフォーカスレンズ群である。光学的ローパスフィルタ106は、撮影画像の偽色やモアレを軽減するための光学素子である。
撮像素子107は、結像光学系を介して被写体像(光学像)の光電変換を行い、例えばCMOSセンサまたはCCDセンサ、および、その周辺回路により構成される。撮像素子107としては、例えば、横方向にm個の画素、縦方向にn個の画素を有する受光ピクセル上にベイヤー配列の原色カラーモザイクフィルタをオンチップで形成した2次元単板カラーセンサが用いられる。
ズームアクチュエータ111は、不図示のカム筒を回動(駆動)することで第1レンズ群101および第2レンズ群103を光軸方向に沿って移動させることにより、変倍動作を行う。絞りシャッタアクチュエータ112は、絞り兼用シャッタ102の開口径を制御して光量(撮影光量)を調節するとともに、静止画撮影時の露光時間を制御する。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に移動させて焦点調節を行う。
電子フラッシュ115は、被写体を照明するために用いられる照明装置である。電子フラッシュ115としては、キセノン管を備えた閃光照明装置または連続発光するLED(発光ダイオード)を備えた照明装置が用いられる。AF補助光手段116は、所定の開口パターンを有するマスクの像を、投光レンズを介して、被写体に投影する。これにより、暗い被写体や低コントラストの被写体に対する焦点検出能力を向上させることができる。
CPU121は、撮像装置100の種々の制御を司る制御装置(制御手段)である。CPU121は、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、および、通信インターフェイス回路などを有する。CPU121は、ROMに記憶された所定のプログラムを読み出して実行することにより、撮像装置100の各種回路を駆動し、焦点検出(AF)、撮影、画像処理、または、記録などの一連の動作を制御する。
電子フラッシュ制御回路122は、撮影動作に同期して電子フラッシュ115の点灯制御を行う。補助光駆動回路123は、焦点検出動作に同期してAF補助光手段116の点灯制御を行う。撮像素子駆動回路124は、撮像素子107の撮像動作を制御するとともに、取得した画像信号をA/D変換してCPU121に送信する。
画像処理回路125(画像処理装置)は、撮像素子107から出力された画像データのγ(ガンマ)変換、カラー補間、または、JPEG(Joint Photographic Experts Group)圧縮などの処理を行う。本実施例において、画像処理回路125は、取得手段125aおよび画像処理手段125b(補正手段)を有する。取得手段125aは、撮像素子107から、撮像画素および少なくとも一つの視差画像(視点画像)を取得する。撮像画素は、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部(第1副画素および第2副画素)の複数の信号(第1信号および第2信号)を合成して生成される画像である。視差画像(視点画像)は、複数の光電変換部のうち一つの光電変換部(第1副画素または第2副画素)の信号から生成される画像である。画像処理手段125bは、撮像画像に基づいて視差画像に含まれる欠陥を低減するように補正処理(欠陥補正)を行う。
フォーカス駆動回路126(フォーカス駆動手段)は、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動し、第3レンズ群105を光軸方向に沿って移動させることにより、焦点調節を行う。絞りシャッタ駆動回路128は、絞りシャッタアクチュエータ112を駆動して、絞り兼用シャッタ102の開口径を制御する。ズーム駆動回路129(ズーム駆動手段)は、撮影者のズーム操作に応じて、ズームアクチュエータ111を駆動する。
表示器131(表示手段)は、例えばLCD(液晶表示装置)を備えて構成される。表示器131は、撮像装置100の撮影モードに関する情報、撮影前のプレビュー画像、撮影後の確認用画像、または、焦点検出時の合焦状態表示画像などを表示する。操作部132(操作スイッチ群)は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、および、撮影モード選択スイッチなどを備えて構成される。レリーズスイッチは、半押し状態(SW1がONの状態)、および、全押し状態(SW2がONの状態)の2段階のスイッチを有する。記録媒体133は、例えば撮像装置100に着脱可能なフラッシュメモリであり、撮影画像(画像データ)を記録する。
続いて、図2および図3A、3Bを参照して、本実施例における撮像素子107の画素配列および画素構造について説明する。図2は、撮像素子107の画素配列を示す図である。図3A、3Bは、撮像素子107の画素構造を示す図であり、図3Aは撮像素子107の画素200Gの平面図(+z方向から見た図)、図3Bは図3A中の線a-aの断面図(-y方向から見た図)をそれぞれ示している。
図2は、撮像素子107(2次元CMOSセンサ)の画素配列(撮影画素の配列)を、4列×4行の範囲で示している。本実施例において、各々の撮像画素(画素200R、200G、200B)は、2つの副画素201、202により構成さている。このため、図2には、副画素の配列が、8列×4行の範囲で示されている。
図2に示されるように、2列×2行の画素群200は、画素200R、200G、200Bがベイヤー配列で配置されている。すなわち画素群200のうち、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下にそれぞれ配置されている。各画素200R、200G、200B(各撮像画素)は、2列×1行に配列された副画素201、202により構成されている。副画素201は、結像光学系の第1瞳領域を通過した光束を受光する画素である。副画素202は、結像光学系の第2瞳領域を通過した光束を受光する画素である。
図2に示されるように、撮像素子107は、4列×4行の撮像画素(8列×4行の副画素)を面上に多数配置して構成されており、撮像信号(副画素信号)を出力する。本実施例の撮像素子107は、画素(撮像画素)の周期Pが4μm、画素(撮像画素)の数Nが横5575列×縦3725行=約2075万画素である。また撮像素子107は、副画素の列方向の周期PSUBが2μm、副画素の数NSUBが横11150列×縦3725行=約4150万画素である。これに代えて、撮像素子107は、画素の周期Pが6μm、画素(撮像画素)の数Nが横6000列×縦4000行=2400万画素としてもよい。また撮像素子107は、副画素の列方向の周期PSUBが3μm、副画素の数数NSUBが横12000列×縦4000行=4800万画素としてもよい。
図3Bに示されるように、本実施例の画素200Gには、画素の受光面側に入射光を集光するためのマイクロレンズ305が設けられている。マイクロレンズ305は、2次元状に複数配列されており、受光面からz軸方向(光軸OAの方向)に所定の距離だけ離れた位置に配置されている。また画素200Gには、x方向にN分割(2分割)、y方向にN分割(1分割)された光電変換部301および光電変換部302が形成されている。光電変換部301および光電変換部302は、それぞれ、副画素201および副画素202に対応する。
光電変換部301および光電変換部302は、それぞれ、p型層とn型層との間にイントリンシック層を挟んだpin構造のフォトダイオードとして構成される。必要に応じて、イントリンシック層を省略し、pn接合のフォトダイオードとして構成してもよい。画素200G(各画素)には、マイクロレンズ305と、光電変換部301および光電変換部302との間に、カラーフィルタ306が設けられる。必要に応じて、副画素ごとにカラーフィルタ306の分光透過率を変えることができ、またはカラーフィルタを省略してもよい。
図3A、3Bに示されるように、画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルタ306で分光された後、光電変換部301および光電変換部302で受光される。光電変換部301および光電変換部302においては、受光量に応じて電子とホールとの対が生成され、それらが空乏層で分離された後、負電荷の電子はn型層に蓄積される。一方、ホールは定電圧源(不図示)に接続されたp型層を通じて、撮像素子107の外部へ排出される。光電変換部301および光電変換部302のn型層に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換される。
続いて、図4を参照して、撮像素子107の瞳分割機能について説明する。図4は、撮像素子107の瞳分割機能の説明図であり、1つの画素部における瞳分割の様子を示している。図4は、図3Aに示される画素構造のa-a断面を+y側から見た断面図、および、結像光学系の射出瞳面を示している。図4では、射出瞳面の座標軸と対応を取るため、断面図のx軸およびy軸を図3A、3Bのx軸およびy軸に対してそれぞれ反転させている。
図4において、副画素201(第1副画素)の瞳部分領域501(第1瞳部分領域)は、重心が-x方向に偏心している光電変換部301の受光面と、マイクロレンズ305を介して略共役関係になっている。このため瞳部分領域501は、副画素201で受光可能な瞳領域を表している。副画素201の瞳部分領域501の重心は、瞳面上で+x側に偏心している。また、副画素202(第2副画素)の瞳部分領域502(第2瞳部分領域)は、重心が+x方向に偏心している光電変換部302の受光面と、マイクロレンズ305を介して略共役関係になっている。このため瞳部分領域502は、副画素202で受光可能な瞳領域を表している。副画素202の瞳部分領域502の重心は、瞳面上で-x側に偏心している。瞳領域500は、光電変換部301、302(副画素201、202)を全て合わせた際の画素200G全体で受光可能な瞳領域である。
入射光は、マイクロレンズ305により、焦点位置に集光される。しかし、光の波動性による回折の影響により、集光スポットの直径は、回折限界Δよりも小さくすることができず、有限の大きさとなる。光電変換部301、302の受光面サイズが約1~2μm程度であるのに対し、マイクロレンズ305の集光スポットは約1μm程度である。このため、光電変換部301、302の受光面とマイクロレンズ305とを介して共役の関係にある図4の瞳部分領域501、502は、回折ボケのため、明瞭に瞳分割されず、受光率分布(瞳強度分布)が得られる。
図5は、撮像素子107と瞳分割機能の説明図である。結像光学系の瞳領域のうち互いに異なる瞳部分領域501、502を通過した光束は、撮像素子107の各画素に互いに異なる角度で撮像素子107の撮像面600に入射し、2×1分割された副画素201、202で受光される。本実施例では、瞳領域が水平方向に2つに瞳分割されている例について説明しているが、これに限定されるものではなく、必要に応じて垂直方向に瞳分割を行ってもよい。
本実施例において、撮像素子107は、1つのマイクロレンズを共有し、結像光学系(撮影レンズ)の瞳のうち互いに異なる領域(第1瞳部分領域、第2瞳部分領域)を通過する複数の光束を受光する複数の副画素を備えている。撮像素子107は、複数の副画素として、第1副画素(複数の副画素201)および第2副画素(複数の副画素202)を含む。
本実施例において、撮像素子107の画素ごとに副画素201、202の信号を加算して読み出すことにより、有効画素数Nの解像度を有する撮像画像を生成する。このように撮像画像は、画素ごとに、複数の副画素(本実施例では副画素201、202)の受光信号を合成して生成される。
また本実施例において、複数の副画素201の受光信号を集めて第1視差画像を生成する。また、撮像画像から第1視差画像を減算して第2視差画像を生成する。ただし本実施例は、これに限定されるものではなく、複数の副画素202の受光信号を集めて第2視差画像を生成してもよい。このように視差画像は、互いに異なる瞳部分領域ごとに、複数の副画素の受光信号に基づいて生成される。
本実施例において、第1視差画像、第2視差画像、および、撮像画像は、それぞれ、ベイヤー配列の画像である。必要に応じて、第1視差画像、第2視差画像、および、撮像画像のそれぞれに対して、デモザイキング処理を行ってもよい。
次に、図6を参照して、撮像素子107の副画素201から取得される第1視差画像および副画素202から取得される第2視差画像のデフォーカス量と像ずれ量との関係について説明する。図6は、デフォーカス量と像ずれ量との関係図である。図6において、撮像素子107は撮像面600に配置されており、図4および図5と同様に、結像光学系の射出瞳が瞳部分領域501、502に2分割されている様子が示されている。
デフォーカス量dは、被写体の結像位置から撮像面600までの距離を|d|、結像位置が撮像面600よりも被写体側にある前ピン状態を負符号(d<0)、結像位置が撮像面600よりも被写体の反対側にある後ピン状態を正符号(d>0)として定義される。被写体の結像位置が撮像面600(合焦位置)にある合焦状態において、デフォーカス量d=0が成立する。図6において、合焦状態(d=0)である被写体601、および、前ピン状態(d<0)である被写体602がそれぞれ示されている。前ピン状態(d<0)および後ピン状態(d>0)を併せて、デフォーカス状態(|d|>0)という。
前ピン状態(d<0)では、被写体602からの光束のうち、瞳部分領域501(または瞳部分領域502)を通過した光束は、一度、集光する。その後、光束は、光束の重心位置G1(G2)を中心とする幅Γ1(Γ2)に広がり、撮像面600でボケた像となる。ボケた像は、撮像素子107に配列された各画素を構成する副画素201(副画素202)により受光され、第1視差画像(第2視差画像)が生成される。このため、第1視差画像(第2視差画像)は、撮像面600上の重心位置G1(G2)に、被写体602が幅Γ1(Γ2)にボケた被写体像として記録される。被写体像のボケ幅Γ1(Γ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加する。同様に、第1視差画像と第2視差画像との間の被写体像の像ずれ量p(=光束の重心位置の差G1-G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加する。後ピン状態(d>0)に関しても同様であるが、第1視差画像と第2視差画像と間の被写体像の像ずれ方向が前ピン状態と反対となる。
このように本実施例において、第1視差画像と第2視差画像、または、第1視差画像と第2視差画像とを加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1視差画像と第2視差画像と間の像ずれ量の大きさは増加する。
次に、本実施例における視差画像の補正処理について説明する。本実施例において、撮像素子107は、撮像画像および少なくとも一つの視差画像(第1視差画像および第2視差画像の少なくとも一つ)を出力することができる。画像処理回路125(取得手段125a)は、撮像素子107から出力された撮像画像および視差画像を取得する。そして画像処理回路125(画像処理手段125b)は、撮像画像に基づいて視差画像を補正(修正)する。必要に応じて、取得手段125aは、取得された撮像画像および少なくとも視差画像を記録媒体133や記憶部134などの記憶手段に保存し、保存された撮像画像および視差画像を取得するように構成してもよい。
撮像素子107の回路構成や駆動方式により、転送ゲートの短絡などの影響で、撮像画像は正常であっても、視差画像(第1視差画像または第2視差画像)にキズ信号(欠陥信号)が生じ、視差画像中に点キズや線キズなどの欠陥が含まれる場合がある。必要に応じて、量産工程などで検査された点キズ情報や線キズ情報(欠陥情報)を、記憶手段に事前に記憶させることができる。この場合、画像処理回路125(画像処理手段125b)は、記録された欠陥情報を用いて視差画像の補正処理を行う。また画像処理回路125(検査手段)は、必要に応じて、視差画像をリアルタイムに(すなわちユーザが撮像装置100を使用している間に)検査し、点キズ判定や線キズ判定(欠陥判定)を行ってもよい。
続いて、図7A、7Bを参照して、本実施形態における視差画像の補正処理について説明する。図7Aは、ベイヤー配列の視差画像(第1視差画像)の配列図である。図7Bは、ベイヤー配列の撮像画像の配列図である。図7A、7Bにおいて、行方向j番目、列方向i番目の位置(j、i)における第1視差画像の画素値(画素信号)をA(j、i)、撮像画像の画素値(画素信号)をI(j、i)とそれぞれ定義する。
第1視差画像は第j行において欠陥(線キズ)が存在し、かつ撮像画像は第j行において正常である場合、第1視差画像の第j行を補正する必要がある。本実施例において、画像処理回路125(画像処理手段125b)は、撮像画像に基づいて、第1視差画像(第1視差画像の補正対象位置の画素値)を補正する。なお、必要に応じて、第2視差画像に関しても同様に補正可能である。
ここで、欠陥が生じている位置(j、i)、すなわち補正対象位置(第1位置)における第1視差画像の補正値(補正信号)をAc(j、i)とする。このとき画像処理手段125bは、以下の式(1)により補正値Ac(j、i)を算出し、算出された補正値Ac(j、i)を第1視差画像の画素値A(j、i)として用いることにより、第1視差画像を補正する。
Figure JPOXMLDOC01-appb-M000001
式(1)において、パラメータA0、I0は、それぞれ、第1視差画像の画素値A、撮像画像の画素値Iが低輝度(低輝度信号)である場合に演算値を安定させてノイズの増幅を抑制するための値である。
このように本実施例において、画像処理手段125bは、撮像画像に基づいて、視差画像の補正処理を行う(補正対象位置における視差画像の画素値A(j、i)を補正値Ac(j、i)で置き換える)。具体的には、画像処理手段125bは、撮像画像の画素値I(j、i)と補正対象位置の近傍の位置(j2、i2)≠(j、i)における撮像画像および視差画像の画素値I(j2、i2)、A(j2、i2)とを用いて、視差画像の補正値Ac(j、i)を決定する。
式(1)において、パラメータA0、I0の具体的な値は、必要に応じて適宜設定可能である。例えば、瞳分割数Np(=2)の場合、パラメータA0、I0を、A0=I0/Npと設定することができる。また、補正対象位置である位置(j、i)、ISO感度、結像光学系の絞り値、および、射出瞳距離などの撮影条件に応じて、パラメータA0、I0の値を変化させてもよい。また、補正対象位置の周辺の第1視差画像の画素値Aや撮像画像の画素値Iに基づいて、パラメータA0、I0の値を設定してもよい。
図8は、本実施例における補正処理前の合焦状態での第1視差画像(デモザイキング後)の例を示す。図9は、本実施例における補正処理後の合焦状態での第1視差画像(デモザイキング後)の例を示す。同様に、図10は、補正処理前のデフォーカス状態での第1視差画像(デモザイキング後)の例を示す。図11は、補正処理後のデフォーカス状態での第1視差画像(デモザイキング後)の例を示す。本実施例における補正処理により、合焦状態およびデフォーカス状態のいずれの場合でも、視差画像の欠陥が補正されていることがわかる。
続いて、図14を参照して、本実施例におけるリフォーカス処理について説明する。リフォーカス処理は、CPU121の指令に基づいて画像処理回路125(リフォーカス処理手段としての画像処理手段125b)により実行される。図14は、本実施例の撮像素子107により取得された第1信号(第1視差画像を形成する第1副画素の受光信号)および第2信号(第2視差画像を形成する第2副画素の受光信号)による1次元方向(列方向、水平方向)のリフォーカス処理の説明図である。図14において、iを整数として、撮像面600に配置された撮像素子107の列方向i番目の画素の第1信号をAi、第2信号をBiとして模式的に表している。第1信号Aiは、(図5の瞳部分領域501に対応する)主光線角度θaでi番目の画素に入射した光束の受光信号である。第2信号Biは、(図5の瞳部分領域502に対応する)主光線角度θbでi番目の画素に入射した光束の受光信号である。
第1信号Aiおよび第2信号Biは、光強度分布情報だけでなく、入射角度情報も含む。このため、第1信号Aiを角度θaに沿って仮想結像面610まで平行移動させ、第2信号Biを角度θbに沿って仮想結像面610まで平行移動させ、これらを加算することにより、仮想結像面610でのリフォーカス信号を生成できる。第1信号Aiを角度θaに沿って仮想結像面610まで平行移動させることは、列方向に+0.5画素シフトに対応し、第2信号Biを角度θbに沿って仮想結像面610まで平行移動させることは、列方向に-0.5画素シフトに対応する。したがって、第1信号Aiと第2信号Biとを相対的に+1画素シフトさせ、第1信号Aiと第2信号(Bi+1)とを対応させて加算することにより、仮想結像面610でのリフォーカス信号を生成できる。同様に、第1信号Aiと第2信号Biとを整数シフトさせて(画素整数個分だけシフトさせて)加算することにより、整数シフト量に応じた各仮想結像面でのシフト加算信号(リフォーカス信号)を生成できる。
本実施例では、少なくとも一つの視差画像(第1視差画像および第2視差画像の少なくとも一つ)に含まれる欠陥の影響を補正処理により除去または低減している。このため、補正処理後の視差画像に基づくリフォーカス処理が可能となる。したがって、視差画像を形成する各信号(第1信号および第2信号)を用いたリフォーカス処理を高精度に行うことができる。
次に、図12および図13A、13Bを参照して、本発明の実施例2における撮像装置について説明する。本実施例は、複数の視差画像として、第1~第4視差画像から撮影画像を生成する点で、第1視差画像および第2視差画像から撮影画像を生成する実施例1とは異なる。
図12は、本実施例における撮像素子107の画素配列を示す図である。図13A、13Bは、撮像素子107の画素構造を示す図であり、図13Aは撮像素子107の画素200Gの平面図(+z方向から見た図)、図13Bは図13A中の線a-aの断面図(-y方向から見た図)をそれぞれ示している。
図12は、撮像素子107(2次元CMOSセンサ)の画素配列(撮影画素の配列)を、4列×4行の範囲で示している。本実施例において、各々の撮像画素(画素200R、200G、200B)は、4つの副画素201、202、203、204により構成さている。このため、図12には、副画素の配列が、8列×8行の範囲で示されている。
図12に示されるように、2列×2行の画素群200は、画素200R、200G、200Bがベイヤー配列で配置されている。すなわち画素群200のうち、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下にそれぞれ配置されている。各画素200R、200G、200B(各撮像画素)は、2列×2行に配列された副画素201、202、203、204により構成されている。副画素201は、結像光学系の第1瞳領域を通過した光束を受光する画素である。副画素202は、結像光学系の第2瞳領域を通過した光束を受光する画素である。副画素203は、結像光学系の第3瞳領域を通過した光束を受光する画素である。副画素204は、結像光学系の第4瞳領域を通過した光束を受光する画素である。
図12に示されるように、撮像素子107は、4列×4行の撮像画素(8列×8行の副画素)を面上に多数配置して構成されており、撮像信号(副画素信号)を出力する。本実施例の撮像素子107は、画素(撮像画素)の周期Pが4μm、画素(撮像画素)の数Nが横5575列×縦3725行=約2075万画素である。また撮像素子107は、副画素の列方向の周期PSUBが2μm、副画素の数NSUBが横11150列×縦7450行=約8300万画素である。これに代えて、撮像素子107は、画素(撮像画素)の周期Pが6μm、画素(撮像画素)の数Nが横6000列×縦4000行=2400万画素としてもよい。また、副画素の列方向の周期PSUBが3μm、副画素の数NSUBが横12000列×縦4000行=4800万画素としてもよい。
図13Bに示されるように、本実施例の画素200Gには、画素の受光面側に入射光を集光するためのマイクロレンズ305が設けられている。マイクロレンズ305は、受光面からz軸方向(光軸OAの方向)に所定の距離だけ離れた位置に配置されている。また画素200Gには、x方向にN分割(2分割)、y方向にN分割(2分割)された光電変換部301、302、303、304が形成されている。光電変換部301~304は、副画素201~204にそれぞれ対応する。
本実施例において、撮像素子107は、1つのマイクロレンズを共有し、結像光学系(撮影レンズ)の瞳のうち互いに異なる領域(第1~第4瞳部分領域)を通過する複数の光束を受光する複数の副画素を備えている。撮像素子107は、複数の副画素として、第1副画素(複数の副画素201)、第2副画素(複数の副画素202)、第3副画素(複数の副画素203)、および、第4副画素(複数の副画素204)を含む。
本実施例において、撮像素子107の画素ごとに副画素201、202、203、204の信号を加算して読み出すことにより、有効画素数Nの解像度を有する撮像画像を生成する。このように撮像画像は、画素ごとに、複数の副画素(本実施例では副画素201~204)の受光信号を合成して生成される。
また本実施例において、複数の副画素201の受光信号を集めて第1視差画像を生成する。同様に、複数の副画素202の受光信号を集めて第2視差画像、複数の副画素203の受光信号を集めて第3視差画像をそれぞれ生成する。また本実施例において、撮像画像から、第1視差画像、第2視差画像、および、第3視差画像を減算して、第4視差画像を生成する。ただし本実施例はこれに限定されるものではなく、複数の副画素204の受光信号を集めて第4視差画像を生成してもよい。このように視差画像は、互いに異なる瞳部分領域ごとに、複数の副画素の受光信号に基づいて生成される。
また本実施例において、撮像画像および第1~第3視差画像(および第4視差画像)は、それぞれ、ベイヤー配列の画像である。必要に応じて、撮像画像および第1~第3視差画像(および第4視差画像)のそれぞれに対して、デモザイキング処理を行ってもよい。なお、本実施例における視差画像の補正処理(欠陥補正)については実施例1と同様であるため、その説明は省略する。
次に、本発明の実施例3について説明する。本実施例は、画像処理手段125bが撮像画像に基づいて視差画像の光量補正処理(シェーディング補正)を行う点で、実施例1とは異なる。なお、本実施例の光量補正処理に加えて、実施例1と同様に、撮像画像に基づいて視差画像に含まれる欠陥を低減するように視差画像の補正処理を行ってもよい。
図4に示される瞳領域500は、2×1分割された光電変換部301、302(Nx×Ny分割された第1光電変換部~第NLF光電変換部)を全て合わせた受光面に関して、マイクロレンズによって概ね光学的に共役な関係になっている。また瞳領域500は、副画素201、202(第1副画素~第NLF副画素)を全て合わせた画素200G全体での受光可能な瞳領域である。
図15A、15Bは、各画素に形成されたマイクロレンズに光が入射した場合の光強度分布の説明図である。図15Aは、マイクロレンズの光軸に平行な断面での光強度分布を示す。図15Bは、マイクロレンズの焦点位置において、マイクロレンズの光軸に垂直な断面での光強度分布を示す。入射光は、マイクロレンズにより、焦点位置に集光される。しかし、光の波動性による回折の影響のため、集光スポットの直径は回折限界Δより小さくすることはできず、有限の大きさとなる。光電変換部の受光面サイズは約1~2μm程度であり、これに対してマイクロレンズの集光スポットが約1μm程度である。そのため、光電変換部の受光面とマイクロレンズを介して共役の関係にある、図4の瞳部分領域501、502は、回折ボケのため、明瞭に瞳分割されず、光の入射角に依存した受光率分布(瞳強度分布)となる。
図16は、光の入射角に依存した受光率分布(瞳強度分布)の図であり、横軸は瞳座標、縦軸は受光率をそれぞれ示す。図16に実線で示さえるグラフ線L1は、図4の瞳部分領域501(第1瞳部分領域)のx軸に沿った瞳強度分布を表す。グラフ線L1で示される受光率は、左端から急峻に上昇してピークに到達した後で徐々に低下してから変化率が緩やかになって右端へと至る。また、図16に破線で示されるグラフ線L2は、瞳部分領域502(第2瞳部分領域)のx軸に沿った瞳強度分布を表す。グラフ線L2で示される受光率は、グラフ線L1とは反対に、右端から急峻に上昇してピークに到達した後で徐々に低下してから変化率が緩やかになって左端へと至る。図16に示されるように、緩やかな瞳分割が行われることがわかる。
図5に示されるように、光電変換部301、302(第1光電変換部~第NLF光電変換部)は、それぞれ、副画素201、202(第1副画素~第NLF副画素)に対応する。撮像素子の各画素において、2×1分割された副画素201、202(Nx×Ny分割された第1副画素~第NLF副画素)は、それぞれ、瞳部分領域501、502(第1瞳部分領域~第NLF瞳部分領域)の異なる瞳部分領域を通過した光束を受光する。各副画素で受光された信号から、光強度の空間分布および角度分布を示すLFデータ(入力画像)が取得される。
LFデータ(入力画像)から、画素ごとに、2×1分割された副画素201、202(Nx×Ny分割された第1副画素~第NLF副画素)の信号を全て合成することにより、画素数Nの解像度を有する撮像画像を生成することができる。
また、LFデータ(入力画像)から、画素ごとに、2×1分割された副画素201、202(Nx×Ny分割された第1副画素~第NLF副画素)の中から特定の副画素の信号を選択する。これにより、結像光学系の瞳部分領域501、502(第1瞳部分領域~第NLF瞳部分領域)の中の特定の瞳部分領域に対応した視点画像を生成することができる。例えば、画素ごとに、副画素201の信号を選択することにより、結像光学系の瞳部分領域501に対応する画素数Nの解像度を有する第1視点画像(第1視差画像)を生成することができる。他の副画素に関しても同様である。
以上のように本実施例の撮像素子は、結像光学系の異なる瞳部分領域を通過する光束を受光する複数の光電変換部が設けられた画素が複数配列された構造を有し、LFデータ(入力画像)を取得することができる。本実施例では、撮像画像に基づいて、第1視点画像および第2視点画像(第1視点画像~第NLF視点画像)に対して、キズ補正やシェーディング補正などの画像処理(補正処理)を行い、出力画像を生成する。
図17および図18を参照して、撮像素子107により取得されたLFデータ(入力画像)から、撮影画像に基づいて第1視点画像と第2視点画像(第1視点画像~第NLF視点画像)に対して補正処理を行い、出力画像を生成する画像処理方法について説明する。図17および図18は、本実施例における補正処理の流れを示す概略図である。図17および図18の処理は、主に、CPU121の指令に基づいて画像処理回路125(取得手段125a、画像処理手段125b)により実行される。
まず、図17のステップS1の前段(不図示のステップS0)において、画像処理回路125(取得手段125a)は、撮像素子107により取得されたLFデータ(入力画像)に基づいて撮像画像および少なくとも一つの視点画像(視差画像)を生成(取得)する。撮像画像は、結像光学系の異なる瞳部分領域を合成した瞳領域に応じて生成される画像である。視点画像は、結像光学系の異なる瞳部分領域ごとに生成される画像である。
ステップS0において、まず、画像処理回路125は、撮像素子107により取得されたLFデータ(入力画像)を入力する。または、画像処理回路125は、予め撮像素子107により撮影され、記録媒体に保存されているLFデータ(入力画像)を用いてもよい。
ステップS0において、次に、画像処理回路125は、結像光学系の異なる瞳部分領域(第1瞳部分領域と第2瞳部分領域)を合成した瞳領域に応じた撮像画像を生成する。LFデータ(入力画像)をLFとする。また、LFの各画素信号内での列方向i(1≦i≦Nx)番目、行方向j(1≦j≦Ny)番目の副画素信号を、k=Nx(j-1)+i(1≦k≦NLF)として、第k副画素信号とする。画像処理回路125は、結像光学系の異なる瞳部分領域を合成した瞳領域に対応した、列方向にi番目、行方向にj番目の撮像画像I(j、i)、すなわち合成画像を、以下の式(2)で表されるように生成する。
Figure JPOXMLDOC01-appb-M000002
本実施例では、撮像画像I(j、i)のS/Nを良好に保持するため、各副画素信号がアナログ/デジタル変換(A/D変換)される前に、撮像素子内の静電容量部(FD)において、式(2)の各副画素信号の合成を行う。必要に応じて、各副画素信号がアナログ/デジタル変換(A/D変換)される前に、撮像素子内の静電容量部(FD)に蓄積された電荷を電圧信号に変換する際に、式(2)の各副画素信号の合成を行ってもよい。必要に応じて、各副画素信号がアナログ/デジタル変換(A/D変換)された後に、式(2)の各副画素信号の合成を行ってもよい。
本実施例は、Nx=2、Ny=1、NLF=2のX方向に2分割する例である。図2に例示した画素配列に対応した入力画像(LFデータ)から、画素ごとに、X方向に2分割された副画素201、202(Nx×Ny分割された第1副画素~第NLF副画素)の信号を全て合成する。これにより、画素数N(=水平画素数N×垂直画素数N)の解像度を有するベイヤー配列のRGB信号である撮像画像を生成することができる。本実施例の視点画像の補正処理において、撮像画像を補正基準の参照画像として用いるため、撮像画像I(j、i)に対して、RGBごとのシェーディング(光量)補正処理や点キズ補正処理などを行う。必要に応じて、その他の処理を行ってもよい。
ステップS0において、次に、画像処理回路125は、結像光学系の第k瞳部分領域に対応した、列方向i番目、行方向j番目の第k視点画像I(j、i)を、以下の式(3)で表されるように生成する。
Figure JPOXMLDOC01-appb-M000003
本実施例は、Nx=2、Ny=1、NLF=2のx方向に2分割し、k=1の例である。図2に例示した画素配列に対応したLFデータ(入力画像)から、画素ごとに、x方向に2分割された副画素201の信号を選択する。そして、瞳部分領域501、502(第1瞳部分領域~第NLF瞳部分領域)から、瞳部分領域501に対応した、画素数N(=水平画素数N×垂直画素数N)の解像度を有するベイヤー配列のRGB信号である第1視点画像I(j、i)を生成する。必要に応じて、k=2を選択し、結像光学系の瞳部分領域502に対応した第2視点画像I(j、i)を生成してもよい。
以上のように、画像処理手段125bは、結像光学系の異なる瞳部分領域を通過する光束を受光する複数の光電変換部が設けられた画素を複数配列した撮像素子により取得される入力画像から、異なる瞳部分領域を合成した瞳領域に応じた撮像画像を生成する。また画像処理手段125bは、異なる瞳部分領域ごとに、少なくとも一つ以上の複数の視点画像を生成する。
本実施例では、撮像素子107により取得されたLFデータ(入力画像)から、ベイヤー配列のRGB信号である撮像画像I(j、i)と、ベイヤー配列のRGB信号である第1視点画像I(j、i)と、を生成し、記録媒体へ保存を行う。また本実施例では、撮像画像I(j、i)と、第1視点画像I(j、i)とから、第2視点画像I(j、i)を生成する。これにより、本実施例の撮像画像I(j、i)に対しては、各画素の光電変換部が分割されていない従来の撮像素子で取得される撮像画像と同様の画像処理を行うことができる。必要に応じて、各視点画像への処理を同等にするために、第1視点画像I(j、i)と、第2視点画像I(j、i)と、を生成し、記録媒体へ保存してもよい。
続いて、図17のステップS1において、画像処理手段125bは、撮像画像I(j、i)に基づいて、第1視点画像I(第k視点画像I)のRGBごとのシェーディング補正処理(光量補正処理)を行う。
ここで、図19A~図19Cを参照して、第1視点画像および第2視点画像(第1視点画像~第NLF視点画像)の瞳ずれによるシェーディングについて説明する。図19A~図19Cは、シェーディングの説明図であり、撮像素子107の周辺像高における光電変換部301が受光する瞳部分領域501、光電変換部302が受光する瞳部分領域502、および、結像光学系の射出瞳400の関係を示す。なお、図4と同じ部分については、同じ符号を付している。光電変換部301、302(第1光電変換部~第NLF光電変換部)は、それぞれ、副画素201、202(第1副画素~第NLF副画素)に対応する。
図19Aは、結像光学系の射出瞳距離Dlと撮像素子107の設定瞳距離Dsとが同じ場合を示す。この場合、瞳部分領域501、502により、結像光学系の射出瞳400は、概ね均等に瞳分割される。これに対して、図19Bに示されるように、結像光学系の射出瞳距離Dlが撮像素子107の設定瞳距離Dsよりも短い場合、撮像素子107の周辺像高では、射出瞳400と撮像素子107の入射瞳との瞳ずれが生じる。その結果、射出瞳400は、不均一に瞳分割される。同様に、図19Cに示されるように、結像光学系の射出瞳距離Dlが撮像素子107の設定瞳距離Dsよりも長い場合、撮像素子107の周辺像高では、射出瞳400と撮像素子107の入射瞳との瞳ずれが生じる。その結果、射出瞳400は、不均一に瞳分割される。周辺像高で瞳分割が不均一になるのに伴い、第1視点画像と第2視点画像の強度も不均一になり、第1視点画像と第2視点画像のいずれか一方の強度が大きくなり、他方の強度が小さくなるシェーディングが、RGBごと(色ごと)に生じる。
本実施例の画像処理手段125bは、良好な画質品位の各視点画像を生成するため、図17のステップS1にて、撮像画像I(j、i)を基準の参照画像として、第1視点画像I(第k視点画像I)のRGBごとのシェーディング補正(光量補正)を行う。
図17のステップS1において、画像処理回路125は、まず、撮像画像I(j、i)と第1視点画像I(j、i)のいずれもが、非飽和かつ非欠陥(非キズ)である有効画素V(j、i)を検出する。撮像画像I(j、i)と第1視点画像I(j、i)のいずれもが、非飽和かつ非欠陥である有効画素は、V(j、i)=1とする。一方、撮像画像I(j、i)と第1視点画像I(j、i)のいずれかが、飽和もしくは欠陥と検出された非有効画素は、V(j、i)=0とする。第k視点画像Iのシェーディング(光量)補正の場合は、同様に、撮像画像I(j、i)と第k視点画像I(j、i)のいずれもが、非飽和かつ非欠陥である有効画素をV(j、i)とする。
整数j(1≦j≦N/2)、i(1≦i≦N/2)とする。図2に例示したベイヤー配列の撮像画像Iを、R、Gr、Gb、Bごとに、撮像画像RI、GrI、GbI、BIとする。Rの撮像画像はRI(2j-1、2i-1)=I(2j-1、2i-1)、Grの撮像画像はGrI(2j-1、2i)=I(2j-1、2i)とそれぞれ表される。また、Gbの撮像画像はGbI(2j、2i-1)=I(2j、2i-1)、Bの撮像画像はBI(2j、2i)=I(2j、2i)とそれぞれ表される。同様に、図2に例示したベイヤー配列の第k視点画像Iを、R、Gr、Gb、Bごとに、RI、GrI、GbI、BIとする。Rの撮像画像はRI(2j-1、2i-1)=I(2j-1、2i-1)、Grの撮像画像はGrI(2j-1、2i)=I(2j-1、2i)とそれぞれ表される。また、Gbの撮像画像はGbI(2j、2i-1)=I(2j、2i-1)、Bの撮像画像はBI(2j、2i)=I(2j、2i)とそれぞれ表される。
ステップS1において、次に画像処理手段125bは、撮像画像RI(2j-1、2i-1)、GrI(2j-1、2i)、GbI(2j、2i-1)、BI(2j、2i)の射影処理を行う。具体的には、撮像画像RI(2j-1、2i-1)、GrI(2j-1、2i)、GbI(2j、2i-1)、BI(2j、2i)に関して、式(4A)~(4D)により、瞳分割方向(x方向)と直交する方向(y方向)に射影処理を行う。これにより、撮像画像の射影信号RP(2i-1)、GrP(2i)、GbP(2i-1)、BP(2i)が生成される。飽和信号値や欠陥信号値には、撮像画像のRGBごとのシェーディングを正しく検出するための情報が含まれていない。そのため、撮像画像と有効画素Vとの積を取り、飽和信号値や欠陥信号値を除外して、射影処理を行い(式(4A)上段から式(4D)上段の分子)、射影処理に用いられた有効画素数で規格化(式(4A)上段から式(4D)上段の分母)を行う。射影処理に用いられた有効画素数が0の場合、式(4A)下段~式(4D)下段により、撮像画像の射影信号を0に設定する。さらに、撮像画像の射影信号が、ノイズの影響などで負信号となった場合、撮像画像の射影信号を0に設定する。同様に、第k視点画像RI(2j-1、2i-1)、GrI(2j-1、2i)、GbI(2j、2i-1)、BI(2j、2i)を、式(4E)~(4H)により、瞳分割方向(x方向)と直交する方向(y方向)に射影処理を行う。これにより、第k視点画像の射影信号RP(2i-1)、GrP(2i)、GbP(2i-1)、BP(2i)を生成する。
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000011
式(4A)~(4H)の射影処理後、ローパスフィルタ処理を行う。ローパスフィルタ処理は、撮影画像の射影信号RP(2i-1)、GrP(2i)、GbP(2i-1)、BP(2i)と、第k視点画像の射影信号RP(2i-1)、GrP(2i)、GbP(2i-1)、BP(2i)に行われる。これにより、撮影画像の射影信号の平滑化が行われる。ただし、ローパスフィルタ処理を省略してもよい。
図20A~図20Cは、それぞれ、撮像画像の射影信号、第1視点画像の射影信号、および、シェーディング関数の説明図である。図20Aは、撮像画像の射影信号RP(R)、GrP(G)、GbP(G)、BP(B)の例を示している。図20Bは、第1視点画像の射影信号RP(R)、GrP(G)、GbP(G)、BP(B)の例を示している。各射影信号には、被写体に依存した複数の山谷の起伏が生じる。第1視点画像I(第k視点画像I)のシェーディング補正を高精度に行うには、瞳ずれにより生じている第1視点画像I(第k視点画像I)のRGBごとのシェーディング成分と、被写体が保有しているRGB毎の信号成分とを分離する必要がある。
ステップS1にて、画像処理手段125bは、式(5A)~(5D)により、撮像画像を基準とした相対的な第k視点画像IのRGBごとのシェーディング信号RS(2i-1)、GrS(2i)、GbS(2i-1)、BS(2i)を算出する。
Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000013
Figure JPOXMLDOC01-appb-M000014
Figure JPOXMLDOC01-appb-M000015
画素の受光量は、副画素の受光量より大きく、さらに、シェーディング成分の算出には、副画素の受光量が0より大きい必要がある。そのため、条件式RP(2i-1)>RP(2i-1)>0を満たす場合、式(5A)により、Rの第k視点画像の射影信号RP(2i-1)と、Rの撮像画像の射影信号RP(2i-1)との比を取得する。そして、規格化のため瞳分割数NLFを乗算して、第k視点画像IのRのシェーディング信号RS(2i-1)を生成する。これにより、被写体が保有しているRの信号成分を相殺し、第k視点画像IのRのシェーディング成分を分離することができる。一方、条件式RP(2i-1)>RP(2i-1)>0を満たさない場合、第k視点画像IのRのシェーディング信号RS(2i-1)を0に設定する。
同様に、条件式GrP(2i)>GrP(2i)>0を満たす場合、式(5B)により、Grの第k視点画像の射影信号GrP(2i)と、Grの撮像画像の射影信号GrP(2i)との比を取得する。そして、規格化のため瞳分割数NLFを乗算して、第k視点画像IのGrのシェーディング信号GrS(2i)を生成する。これにより、被写体が保有しているGrの信号成分を相殺し、第k視点画像IのGrのシェーディング成分を分離することができる。一方、条件式GrP(2i)>GrP(2i)>0を満たさない場合、第k視点画像IのGrのシェーディング信号GrS(2i)を0に設定する。
同様に、条件式GbP(2i-1)>GbP(2i-1)>0を満たす場合、式(5C)により、Gbの第k視点画像の射影信号GbP(2i-1)と、Gbの撮像画像の射影信号GbP(2i-1)との比を取得する。そして、規格化のため瞳分割数NLFを乗算して、第k視点画像IのGbのシェーディング信号GbS(2i-1)を生成する。これにより、被写体が保有しているGbの信号成分を相殺し、第k視点画像IのGbのシェーディング成分を分離することができる。一方、条件式GbP(2i-1)>GbP(2i-1)>0を満たさない場合、第k視点画像IのGbのシェーディング信号GbS(2i-1)を0に設定する。
同様に、条件式BP(2i)>BP(2i)>0を満たす場合、式(5D)により、Bの第k視点画像の射影信号BP(2i)と、Bの撮像画像の射影信号BP(2i)との比を取得する。そして、規格化のため瞳分割数NLFを乗算して、第k視点画像IのBのシェーディング信号BS(2i)を生成する。これにより、被写体が保有しているBの信号成分を相殺し、第k視点画像IのBのシェーディング成分を分離することができる。一方、条件式BP(2i)>BP(2i)>0を満たさない場合、第k視点画像IのBのシェーディング信号BS(2i)を0に設定する。
シェーディング補正精度を高精度に行うため、RS(2i-1)>0、GrS(2i)>0、GbS(2i-1)>0、BS(2i)>0を満たす有効なシェーディング信号数が所定値以上である場合に、シェーディング補正を行うことが望ましい。
ステップS1において、次に画像処理手段125bは、式(6A)~(6D)で表されるような演算処理を行う。これにより、第k視点画像IのRGB毎のシェーディング関数RSF(2i-1)、GrSF(2i)、GbSF(2i-1)、BSF(2i)を、瞳分割方向(x方向)の位置変数に対する滑らかなNSF次の多項式関数とする。また、式(5A)~(5D)により生成され、RS(2i-1)>0、GrS(2i)>0、GbS(2i-1)>0、BS(2i)>0を満たす有効なシェーディング信号をデータ点とする。これらデータ点を用いて、最小二乗法によるパラメーターフィッティングを行い、式(6A)~(6D)の各係数RSC(μ)、GrSC(μ)、GbSC(μ)、BSC(μ)を算出する。
Figure JPOXMLDOC01-appb-M000016
Figure JPOXMLDOC01-appb-M000017
Figure JPOXMLDOC01-appb-M000018
Figure JPOXMLDOC01-appb-M000019
以上により、撮像画像を基準とした相対的な第k視点画像IのRGB毎のシェーディング関数RSF(2i-1)、GrSF(2i)、GbSF(2i-1)、BSF(2i)を生成する。
図20Cは、撮像画像を基準とした相対的な第1視点画像IのRGB毎のシェーディング関数RSF(R)、GrSF(G)、GbSF(G)、BSF(B)の例を示している。図20Bの第1視点画像の射影信号と、図20Aの撮影画像の射影信号では、被写体に依存した山谷の起伏が存在する。これに対して、第1視点画像の射影信号と撮影画像の射影信号の比を得ることにより、被写体に依存した山谷の起伏(被写体が保有しているRGB毎の信号値)を相殺し、滑らかな第1視点画像IのRGB毎のシェーディング関数を分離して生成することができる。なお本実施例では、シェーディング関数として、多項式関数を用いたが、これに限定されるものではなく、必要に応じて、シェーディング形状に合わせて、より一般的な関数を用いてもよい。
図17のステップS1において、次に画像処理手段125bは、第k視点画像I(j、i)に対して、式(7A)~(7D)により、RGB毎のシェーディング関数を用いて、シェーディング(光量)補正処理を行う。これにより、シェーディング補正後の第k視点(第1修正)画像M(j、i)が生成される。ここで、ベイヤー配列の第k視点(第1修正)画像Mを、R、Gr、Gb、Bごとに、以下のように表す。すなわち、Rの第k視点(第1修正)画像をRM(2j-1、2i-1)=M(2j-1、2i-1)、Grの第k視点(第1修正)画像をGrM(2j-1、2i)=M(2j-1、2i)とする。また、Gbの第k視点(第1修正)画像をGbM(2j、2i-1)=M(2j、2i-1)、Bの第k視点(第1修正)画像をBM(2j、2i)=M(2j、2i)とする。必要に応じて、シェーディング補正後の第k視点(第1修正)画像M(j、i)を出力画像としてもよい。
Figure JPOXMLDOC01-appb-M000020
Figure JPOXMLDOC01-appb-M000021
Figure JPOXMLDOC01-appb-M000022
Figure JPOXMLDOC01-appb-M000023
次に、図21乃至図23を参照して、図17のステップS1に示される第1視点画像I(j、i)のRGBごとのシェーディング補正処理(光量補正処理)の効果について説明する。図21は、本実施例の撮像画像I(デモザイキング後)の例を示す。画質品位が良好な撮像画像の例である。図22は、本実施例のシェーディング補正前の第1視点画像I(デモザイキング後)の例を示す。結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれにより、RGB毎のシェーディングが生じ、そのため、第1視点画像I(j、i)の右側において、輝度の低下とRGB比の変調が生じている例である。図23は、本実施例のシェーディング補正後の第1視点(第1修正)画像M(デモザイキング後)の例を示す。撮像画像に基づいたRGB毎のシェーディング補正により、輝度の低下とRGB比の変調が修正され、撮像画像と同様に、画質品位が良好なシェーディング補正後の第1視点(第1修正)画像M(j、i)が生成される。
本実施例では、結像光学系の異なる瞳部分領域を通過する光束を受光する複数の光電変換部が設けられた画素を複数配列した撮像素子により取得される入力画像から、異なる瞳部分領域を合成した瞳領域に応じた撮像画像を生成する。そして、異なる瞳部分領域ごとに、複数の視点画像を生成し、撮像画像に基づいて視点画像を補正する画像処理を行い、出力画像を生成する。本実施例では、撮像画像に基づいて視点画像の色(RGB)ごとの光量(シェーディング)を補正する画像処理を行う。本実施例では、撮像画像の射影信号と視点画像の射影信号とに基づいて、視点画像の光量補正を行う画像処理を行う。本実施例の構成により、良好な画質品位の視点画像を生成することができる。
続いて、図17のステップS2において、画像処理手段125bは、撮像画像Iに基づいて、シェーディング補正後の第k視点(第1修正)画像Mの欠陥補正を行う。なお本実施例は、k=1の例を示すが、これに限定されるものではない。
本実施例では、撮像素子の回路構成や駆動方式により、転送ゲートの短絡などで、撮像画像Iは正常であるが、一方、第k視点画像I(第1視点画像I)のごく一部分に欠陥信号が生じ、点欠陥や線欠陥となる場合がある。必要に応じて、量産工程等で検査された点欠陥情報や線欠陥情報を、画像処理回路125などに事前に記録し、記録された点欠陥情報や線欠陥情報を用いて第k視点画像I(第1視点画像I)の欠陥補正処理を行ってもよい。また、必要に応じて、第k視点画像I(第1視点画像I)をリアルタイムに検査して点欠陥判定や線欠陥判定を行ってもよい。
ここで、本実施例の欠陥補正(図17のステップS2)について説明する。本実施例では、第k視点画像Iの奇数行2j-1または偶数行2jが、水平方向(x方向)のライン状の線欠陥であると判定された場合であって、撮像画像Iの奇数行2j-1または偶数行2jは、線欠陥と判定されていない場合を例として説明する。
本実施例のステップS2の欠陥補正では、正常な撮像画像Iを参照画像として、撮像画像Iに基づいて、第k視点(第1修正)画像Mの欠陥補正を行う。本実施例の欠陥補正では、欠陥と判定されていない位置の第k視点(第1修正)画像Mの信号値と、欠陥と判定されていない位置の撮像画像Iの信号値と、を比較して欠陥補正を行う。この比較を行う際に、瞳ずれにより生じている第k視点画像IのRGB毎のシェーディング成分の影響を取り除き、第k視点画像Iと撮像画像Iとで、被写体が保有しているRGBごとの信号成分を、正確に比較することが、高精度な欠陥補正のために必要である。そのため、予め、ステップS1において、第k視点画像のRGB毎のシェーディング補正(光量補正)を行い、第k視点(第1修正)画像Mを生成して、撮像画像Iと同等のシェーディング状態とし、シェーディング成分の影響を取り除く。その後、ステップS2において、シェーディング補正された第k視点(第1修正)画像Mに対して、撮像画像Iに基づき、高精度な欠陥補正を行う。
図17のステップS2において、シェーディング補正後の第k視点(第1修正)画像M(j、i)の一部の欠陥と判定された信号に対して、撮像画像Iの正常信号と、第k視点(第1修正)画像Mの正常信号とから、欠陥補正処理を行う。そして、欠陥補正後の第k視点(第2修正)画像M(j、i)を生成する。ここで、ベイヤー配列の第k視点(第2修正)画像Mを、R、Gr、Gb、Bごとに以下のように表す。すなわち、Rの第k視点(第2修正)画像をRM(2j-1、2i-1)=M(2j-1、2i-1)、Grの第k視点(第2修正)画像をGrM(2j-1、2i)=M(2j-1、2i)とする。また、Gbの第k視点(第2修正)画像をGbM(2j、2i-1)=M(2j、2i-1)、Bの第k視点(第2修正)画像をBM(2j、2i)=M(2j、2i)とする。
ステップS2において、第k視点(第1修正)画像MのRの第1位置(2j-1、2i-1)が欠陥と判定された場合を考える。このとき、第1位置の撮像画像RI(2j-1、2i-1)と、欠陥と判定されていないRの第2位置の第k視点(第1修正)画像RMと、第2位置の撮像画像RIとから、以下の式(8A)により、欠陥補正処理を行う。これにより、第1位置における欠陥補正後の第k視点(第2修正)画像RM(2j-1、2i-1)が生成される。
第k視点(第1修正)画像MのGrの第1位置(2j-1、2i)が欠陥と判定された場合を考える。このとき、第1位置の撮像画像GrI(2j-1、2i)と、欠陥と判定されていないGbの第2位置の第k視点(第1修正)画像GbMと、第2位置の撮像画像GbIとから、式(8B)により、欠陥補正処理を行う。これにより、第1位置における欠陥補正後の第k視点(第2修正)画像GrM(2j-1、2i)を生成することができる。
第k視点(第1修正)画像MのGbの第1位置(2j、2i-1)が欠陥と判定された場合を考える。このとき、第1位置の撮像画像GbI(2j、2i-1)と、欠陥と判定されていないGrの第2位置の第k視点(第1修正)画像GrMと、第2位置の撮像画像GrIとから、式(8C)により、欠陥補正処理を行う。これにより、第1位置における欠陥補正後の第k視点(第2修正)画像GbM(2j、2i-1)を生成することができる。
第k視点(第1修正)画像MのBの第1位置(2j、2i)が欠陥と判定された場合を考える。このとき、第1位置の撮像画像BI(2j、2i)と、欠陥と判定されていないBの第2位置の第k視点(第1修正)画像BMと、第2位置の撮像画像BIとから、式(8D)により、欠陥補正処理を行を行う。これにより、第1位置における欠陥補正後の第k視点(第2修正)画像BM(2j、2i)を生成することができる。
Figure JPOXMLDOC01-appb-M000024
Figure JPOXMLDOC01-appb-M000025
Figure JPOXMLDOC01-appb-M000026
Figure JPOXMLDOC01-appb-M000027
上記以外の欠陥と判定されていない大部分の位置(j、i)においては、第k視点(第2修正)画像M(j、i)は、第k視点(第1修正)画像M(j、i)と同じ信号値で、M(j、i)=M(j、i)である。必要に応じて、欠陥補正後の第k視点(第2修正)画像M(j、i)を出力画像としてもよい。
次に、図24および図25を参照して、本実施例の図17のステップS2に示される第1視点(第1修正)画像Mの正常な撮像画像Iに基づく欠陥補正の効果について説明する。図24は、本実施例の欠陥補正前の第1視点(第1修正)画像M(シェーディング補正後、デモザイキング後)の例を示す。第1視点(第1修正)画像M(j、i)の中央部に、水平方向(x方向)のライン状の線欠陥が生じている例である。図25は、本実施例の欠陥補正後の第1視点(第2修正)画像M(シェーディング補正後、デモザイキング後)の例を示す。正常な撮像画像Iに基づいた欠陥補正により、水平方向(x方向)のライン状の線欠陥が修正され、撮像画像と同様に、画質品位が良好な欠陥補正後の第1視点(第2修正)画像M(j、i)が生成される。
本実施例では、結像光学系の異なる瞳部分領域を通過する光束を受光する複数の光電変換部が設けられた画素を複数配列した撮像素子により取得される入力画像から、異なる瞳部分領域を合成した瞳領域に応じた撮像画像を生成する。また、異なる瞳部分領域ごとに、複数の視点画像を生成し、撮像画像に基づいて視点画像を補正する画像処理を行い、出力画像を生成する。本実施例では、撮像画像に基づいて視点画像に含まれる欠陥を低減するように補正する画像処理を行う。本実施例では、欠陥と判定された第1位置における視点画像の信号値を、第1位置における撮像画像の信号値を用いて補正する画像処理を行う。本実施例では、欠陥と判定された第1位置における撮像画像の信号値と、欠陥と判定されていない第2位置における視点画像の信号値と、第2位置における撮像画像の信号値と、に基づいて、第1位置における視点画像の信号値を補正する画像処理を行う。
本実施例において、画像処理手段125bは、撮像画像に基づいて視点画像の光量補正処理を行った後、撮像画像に基づいて視点画像に含まれる欠陥を低減するように補正処理(画像処理)を行う。このような構成により、良好な画質品位の視点画像を生成することができる。
図17のステップS2において、次に、画像処理手段125bは、欠陥補正後の第k視点(第2修正)画像M(j、i)に対して、以下の式(9A)~(9D)により、シェーディング処理を行う。これにより、第k視点(第3修正)画像M(j、i)が生成される。
Figure JPOXMLDOC01-appb-M000028
Figure JPOXMLDOC01-appb-M000029
Figure JPOXMLDOC01-appb-M000030
Figure JPOXMLDOC01-appb-M000031
ここで、ベイヤー配列の第k視点(第3修正)画像Mを、R、Gr、Gb、Bごとに取得する。Rの第k視点(第3修正)画像をRM(2j-1、2i-1)=M(2j-1、2i-1)、Grの第k視点(第3修正)画像をGrM(2j-1、2i)=M(2j-1、2i)とする。また、Gbの第k視点(第3修正)画像をGbM(2j、2i-1)=M(2j、2i-1)、Bの第k視点(第3修正)画像をBM(2j、2i)=M(2j、2i)とする。
図18のステップS3において、撮像画像I(j、i)と、第k視点(第3修正)画像M(j、i)とに対して、飽和信号処理を行う。本実施例は、k=1、NLF=2の例である。
ステップS3において、まず、撮像画像I(j、i)に対して、撮像信号の最大値をImaxとして、以下の式(10)に従って飽和信号処理を行い、修正撮像画像MI(j、i)を生成する。
Figure JPOXMLDOC01-appb-M000032
ステップS3において、次に画像処理回路125bは、第k視点(第3修正)画像M(j、i)に対して、ベイヤー配列のシェーディング関数をSF(j、i)として、以下の式(11)により、シェーディング状態に合わせた飽和信号処理を行う。これにより、第k視点(第4修正)画像M(j、i)を生成することができる。ここで、ベイヤー配列のシェーディング関数SF(j、i)を、式(6A)~(6D)により、R、Gr、Gb、Bごとに生成されたシェーディング関数RSF(2i-1)、GrSF(2i)、GbSF(2i-1)、BSF(2i)から求める。すなわち、SF(2j-1、2i-1)=RSF(2i-1)、SF(2j-1、2i)=GrSF(2i)、SF(2j、2i-1)=GbSF(2i-1)、SF(2j、2i)=BSF(2i)とする。
Figure JPOXMLDOC01-appb-M000033
図18のステップS4において、画像処理手段125bは、修正撮像画像MI(j、i)と、第1視点(第4修正)画像M(j、i)とから、式(12)により、第2視点画像I(j、i)を生成する。
Figure JPOXMLDOC01-appb-M000034
本実施例では、撮像素子107の駆動方式やA/D変換の回路構成により、第1視点(第3修正)画像M(j、i)の飽和時の最大信号値が、撮像画像I(j、i)の飽和時の最大信号値Imaxと、同一の最大信号値となる場合がある。その場合、飽和信号処理を行わずに、式(12)のように、撮像画像から第1視点(第3修正)画像を減算して第2視点画像を生成すると、第2視点画像において飽和信号値となるべき場合に、誤った信号値0となる場合がある。したがって、これを防止するため、ステップS3において、予め、撮像画像I(j、i)と第k視点(第3修正)画像M(j、i)に対してシェーディング状態に合わせた飽和信号処理を行う。そして、飽和信号処理後の修正撮像画像MI(j、i)と第1視点(第4修正)画像M(j、i)を生成する。その後、ステップS4において、式(12)により、第2視点画像I(j、i)を生成することにより、より正しい飽和信号値に対応した第2視点画像Iを生成することができる。
図18のステップS5において、画像処理手段125bは、第1視点(第4修正)画像M(j、i)と、第2視点画像I(j、i)に対して、シェーディング補正(光量補正)を行う。具体的には、第1視点(第4修正)画像M(j、i)に対して、式(6A)~(6D)で生成済みのシェーディング関数RSF、GrSF、GbSF、BSFを用いて、式(7A)~(7D)と同様に、シェーディング補正(光量補正)を行う。これにより、第1視点(第5修正)画像M(j、i)が生成される。ステップS5において、次に、画像処理手段125bは、第2視点画像I(j、i)に対して、式(4A)~(7D)と同様に、修正撮像画像MI(j、i)に基づいて、シェーディング補正(光量補正)を行う。これにより、第2視点(第5修正)画像M(j、i)が生成される。
図18のステップS6において、最後に、画像処理手段125bは、第1視点(第5修正)画像M(j、i)と、第2視点(第5修正)画像M(j、i)に対して、以下の式(13)により飽和信号処理を行う。これにより、出力画像である修正第1視点画像MI(j、i)と修正第2視点画像MI(j、i)とが生成される。
Figure JPOXMLDOC01-appb-M000035
次に、図26および図27を参照して、図17のステップS5に示される、第2視点画像I(j、i)のRGBごとのシェーディング補正処理(光量補正処理)の効果について説明する。図26は、本実施例のシェーディング補正前の第2視点画像I(デモザイキング後)の例を示す。結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれにより、RGB毎のシェーディングが生じ、そのため、第2視点画像I(j、i)の左側において、輝度の低下とRGB比の変調が生じている例である。図27は、本実施例のシェーディング補正後の修正第2視点画像MI(デモザイキング後)の例を示す。撮像画像に基づくRGBごとのシェーディング補正により、輝度の低下とRGB比の変調が修正され、撮像画像と同様に、画質品位が良好なシェーディング補正後の修正第2視点画像MI(j、i)が生成される。
本実施例の画像処理装置は、上記の画像処理方法を行う画像処理手段を有する画像処理装置である。本実施例の撮像装置は、結像光学系の異なる瞳部分領域を通過する光束を受光する複数の副画素が設けられた画素を複数配列した撮像素子と、上記の画像処理方法を行う画像処理手段を有する撮像装置である。本実施例の構成によれば、良好な画質品位の視点画像を生成することができる。
次に、本発明の実施例4について説明する。本実施例では、実施例3で生成された修正第1視点画像および修正第2視点画像(修正第1視点画像~修正第NLF視点画像)から、修正第1視点画像と修正第2視点画像との相関(信号の一致度)に基づいて、位相差検出方式により像ずれ量分布を検出する。
像ずれ量分布の生成において、まず、ベイヤー配列のRGB信号である修正第k視点画像MIk(k=1~NLF)から、位置(j,i)ごとに、各色RGBの色重心を一致させる。そして、第k視点輝度信号Ykを、以下の式(14)により生成する。
Figure JPOXMLDOC01-appb-M000036
像ずれ量分布の生成において、次に、ベイヤー配列のRGB信号である修正第1視点画像MIから、式(14)により生成された第1視点輝度信号Yに対して、瞳分割方向(列方向)に1次元バンドパスフィルタ処理を行い、第1焦点検出信号dYAを生成する。また、修正第2視点画像MIから、式(14)により生成された第2視点輝度信号Yに対して、瞳分割方向(列方向)に、1次元バンドパスフィルタ処理を行い、第2焦点検出信号dYBを生成する。1次元バンドパスフィルタとしては、例えば、1次微分型フィルター[1、5、8、8、8、8、5、1、-1、-5、-8、-8、-8、-8、-5、-1]などを用いることができる。必要に応じて、1次元バンドパスフィルタの通過帯域を調整してもよい。
像ずれ量分布の生成において、次に、第1焦点検出信号dYAと第2焦点検出信号dYBを、相対的に瞳分割方向(列方向)にシフトさせて、信号の一致度を表す相関量を算出し、相関量に基づいて像ずれ量分布MDIS(j,i)を生成する。位置(j,i)を中心として、行方向j(-n≦j≦n)番目、瞳分割方向である列方向i(-m≦i≦m)番目の第1焦点検出信号をdYA(j+j、i+i)、第2焦点検出信号をdYB(j+j、i+i)とする。シフト量をs(-n≦s≦n)として、各位置(j,i)での相関量COREVEN(j,i、s)を、以下の式(15A)により算出し、相関量CORODD(j,i、s)を、以下の式(15B)により算出する。
Figure JPOXMLDOC01-appb-M000037
Figure JPOXMLDOC01-appb-M000038
相関量CORODD(j,i、s)は、相関量COREVEN(j,i、s)に対して、第1焦点検出信号dYAと第2焦点検出信号dYBのシフト量を半位相-1シフトずらした相関量である。相関量COREVEN(j,i、s)と相関量CORODD(j,i、s)から、それぞれ、サブピクセル演算により、相関量が最小値となる実数値のシフト量を算出して平均値を算出し、像ずれ量分布MDIS(j,i)を検出する。
位相差方式の像ずれ量の検出では、式(15A)および式(15B)の相関量を評価し、第1焦点検出信号と第2焦点検出信号の相関(信号の一致度)に基づいて、像ずれ量の検出を行う。本実施例では、撮像画像に基づくRGBごとのシェーディング補正(光量補正)が施された修正第1視点画像と修正第2視点画像から、それぞれ、第1焦点検出信号と第2焦点検出信号を生成する。そのため、第1焦点検出信号と第2焦点検出信号の相関(信号の一致度)が改善され、像ずれ量を高精度に検出することができる。
自動焦点検出により検出されたデフォーカス量に応じて合焦位置にレンズを駆動する場合、像ずれ量分布MDIS(j,i)に、撮像レンズ(結像光学系)の絞り値F、射出瞳距離などのレンズ情報に応じた像ずれ量からデフォーカス量への変換係数Kを乗算する。これにより、デフォーカス分布MDef(j,i)を検出することができる。また、上記演算は焦点検出領域の像高位置ごとに行うことが好ましい。
本実施例によれば、良好な画質品位の複数の視点画像を生成することができる。また、良好な画質品位の複数の視点画像を用いることにより、像ずれ量の検出精度を改善することができる。
次に、本発明の実施例5について説明する。本実施例は、Nx=2、Ny=2、NLF=4の4分割の例である。本実施例では、図12に例示した画素配列に対応した入力画像(LFデータ)から、式(2)により、画素ごとに、4分割された副画素201~204(Nx×Ny分割された第1副画素~第NLF副画素)の信号を全て合成する。そして、画素数N(=水平画素数N×垂直画素数N)の解像度を有するベイヤー配列のRGB信号である撮像画像を生成する。
また、本実施例は、Nx=2、Ny=2、NLF=4の4分割で、k=1~3の例である。図12に例示した画素配列に対応したLFデータ(入力画像)から、式(3)により、画素ごとに、4分割された副画素201~204の中から副画素201(第1副画素)の信号を選択する。そして、結像光学系の瞳部分領域501に対応した、画素数Nの解像度を有するベイヤー配列のRGB信号である第1視点画像I(j、i)を生成する。また、LFデータから、式(3)により、画素ごとに、4分割された副画素201~204の中から副画素202(第2副画素)の信号を選択する。そして、結像光学系の瞳部分領域502に対応した、画素数Nの解像度を有するベイヤー配列のRGB信号である第2視点画像I(j、i)を生成する。また、LFデータから、式(3)により、画素ごとに、4分割された副画素201~204の中から副画素203(第3副画素)の信号を選択する。そして、結像光学系の瞳部分領域503に対応した、画素数Nの解像度を有するベイヤー配列のRGB信号である第3視点画像I(j、i)を生成する。
本実施例では、結像光学系の異なる瞳部分領域を通過する光束を受光する複数の光電変換部が設けられた画素を複数配列した撮像素子により取得される入力画像(LFデータ)から、異なる瞳部分領域を合成した瞳領域に応じた撮像画像を生成する。また、異なる瞳部分領域ごとに複数の視点画像を生成する。本実施例では、良好な画質品位の各視点画像を生成するため、実施例3と同様に、撮像画像に基づいて、第1視点画像から第4視点画像(第1視点画像~第NLF視点画像)に対して、キズ補正やシェーディング補正等の画像処理を行い、出力画像を生成する。
図17のステップS1において、撮像画像I(j、i)を基準の参照画像として、第1視点画像Iから第3視点画像I(第k視点画像I:k=1~NLF-1)のRGBごとのシェーディング補正(光量補正)を行う。本実施例は、Nx=2、Ny=2、NLF=4の4分割で、k=1~3の例である。
ステップS1において、まず、第k視点画像I(k=1~NLF-1)に対して、式(4A)~(7D)により、x方向にシェーディング補正処理(光量補正処理)を行う。次に、式(4A)~(7D)において、x方向とy方向を入れ換え、y方向にシェーディング(光量)補正処理を行い、第k視点(第1修正)画像M(k=1~NLF-1)を生成する。x方向へのシェーディング(光量)補正と、y方向へのシェーディング補正とを2段階に行う場合、式(5A)~(5D)の規格化のため瞳分割数NLFが1回余分となる。そのため、2回目のy方向のシェーディング補正では、式(5A)~(5D)において、規格化のための瞳分割数NLFの乗算は省略する。
式(8A)~(10)により、第k視点(第4修正)画像M(k=1~NLF-1)を生成するまでは、実施例3と同様である。図18のステップS4において、修正撮像画像MI(j、i)と、第k視点(第4修正)画像M(k=1~NLF-1)から、以下の式(16)により、第NLF視点画像INLF(j、i)を生成する。本実施例は、Nx=2、Ny=2、NLF=4の4分割の例である。
Figure JPOXMLDOC01-appb-M000039
図18のステップS5以降は、実施例3と同様である。
本実施例によれば、良好な画質品位の視点画像を生成することができる。なお、撮像素子の各画素部における光電変換部については、分割数をさらに多くした実施形態(例えば、Nx=3、Ny=3、NLF=9の9分割や、Nx=4、Ny=4、NLF=16の16分割など)が可能である。
このように各実施例において、画像処理装置(画像処理回路125)は、取得手段125aおよび画像処理手段125b(補正手段)を有する。取得手段125aは、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部のうち、一つの光電変換部の信号から生成される視差画像を取得し、複数の光電変換部の複数の信号を合成して生成される撮像画像を取得する。画像処理手段125bは、撮像画像に基づいて視差画像に含まれる欠陥(点キズや線キズ)を低減するように補正処理を行う。
好ましくは、画像処理手段125bは、欠陥と判定された第1位置(補正対象位置)における視差画像の画素値(画素信号)を、第1位置における撮像画像の画素値(画素信号)を用いて補正する。より好ましくは、画像処理手段125bは、第1位置における撮像画像の画素値Iと、欠陥と判定されていない第2位置における視差画像の画素値と、第2位置における撮像画像の画素値とに基づいて、第1位置における視差画像の画素値を補正する。ここで第2位置は、第1位置(補正対象位置)の近傍(周辺)にある画素の位置である。より好ましくは、第2位置は、所定の方向(画素配列の縦方向、横方向、または、斜め方向)において第1位置に隣接する位置である。
好ましくは、画像処理手段125bは、第2位置における視差画像または撮像画像の画素値が所定の輝度値(パラメータA0、I0)よりも小さい場合、画素値を所定の輝度値に置き換える。より好ましくは、所定の輝度値は、瞳部分領域の数に応じて変化するように設定される。また好ましくは、所定の輝度値は、第1位置(補正対象位置)に応じて変化するように設定される。また好ましくは、所定の輝度値は、撮影条件情報に応じて変化するように設定される。撮影条件情報は、例えば、ISO感度、結像光学系の絞り値、および、射出瞳距離の少なくとも一つを含む。
好ましくは、画像処理装置は、第1位置に関する欠陥情報を記憶する記憶手段(記憶部134)、または、第1位置に関する欠陥情報を検査する検査手段を有する。画像処理手段125bは、記憶手段に記憶された欠陥情報または検査手段の検査の結果得られた欠陥情報に基づいて補正処理を行う。
好ましくは、視差画像は、結像光学系の互いに異なる瞳部分領域ごとに、一つの光電変換部に含まれる複数の副画素(複数の第1副画素、複数の第2副画素、複数の第3副画素、または、複数の第4副画素)の受光信号を集めて生成される。撮像画像は、複数の光電変換部に含まれる全ての副画素(複数の第1副画素および複数の第2副画素、必要に応じて更に複数の第3副画素および複数の第4副画素)の受光信号を集めて生成される。
好ましくは、視差画像は、結像光学系の互いに異なる瞳領域部分を通過する光束のそれぞれに対応する第1視差画像および第2視差画像を含む。そして取得手段125aは、複数の光電変換部を備えた撮像素子107から、撮像画像と、視差画像のうち第1視差画像とを取得する。画像処理手段125bは、視差画像のうち第1視差画像に対して補正処理を行う。そして画像処理手段125bは、撮像画像から、補正処理後の第1視差画像を減算することにより、第2の視差画像を生成する。また好ましくは、画像処理手段125b(リフォーカス手段)は、補正処理後の視差画像に基づいて撮像画像のリフォーカス処理を行う。
好ましくは、画像処理手段は、撮像画像に基づいて視差画像の光量補正処理(シェーディング補正)を行う。より好ましくは、画像処理手段は、撮像画像に基づいて視差画像の色ごとに視差画像の光量補正処理を行う。また好ましくは、画像処理手段は、撮像画像の射影信号と視差画像の射影信号とに基づいて、視差画像の光量補正処理を行う。また好ましくは、画像処理手段は、視差画像の光量補正処理を行った後、撮像画像に基づいて光量補正処理後の視差画像に含まれる欠陥を低減するように視差画像を補正する。
その他の実施例
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、画質の品位を向上させた視差画像を生成可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
125  画像処理回路(画像処理装置)
125a 取得手段
125b 画像処理手段

Claims (24)

  1.  結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部のうち、一つの光電変換部の信号から生成される視差画像を取得し、該複数の光電変換部の複数の信号を合成して生成される撮像画像を取得する取得手段と、
     前記撮像画像に基づいて前記視差画像を補正する画像処理手段と、を有することを特徴とする画像処理装置。
  2.  前記画像処理手段は、前記撮像画像に基づいて前記視差画像に含まれる欠陥を低減するように該視差画像を補正することを特徴とする請求項1に記載の画像処理装置。
  3.  前記画像処理手段は、前記欠陥と判定された第1位置における前記視差画像の画素値を、該第1位置における前記撮像画像の画素値を用いて補正することを特徴とする請求項2に記載の画像処理装置。
  4.  前記画像処理手段は、前記第1位置における前記撮像画像の前記画素値と、前記欠陥と判定されていない第2位置における前記視差画像の画素値と、該第2位置における該撮像画像の画素値とに基づいて、該第1位置における該視差画像の前記画素値を補正することを特徴とする請求項3に記載の画像処理装置。
  5.  前記第2位置は、所定の方向において前記第1位置に隣接する位置であることを特徴とする請求項4に記載の画像処理装置。
  6.  前記画像処理手段は、前記第2位置における前記視差画像または前記撮像画像の前記画素値が所定の輝度値よりも小さい場合、該画素値を該所定の輝度値に置き換えることを特徴とする請求項4または5に記載の画像処理装置。
  7.  前記所定の輝度値は、前記瞳部分領域の数に応じて変化するように設定されることを特徴とする請求項6に記載の画像処理装置。
  8.  前記所定の輝度値は、前記第1位置に応じて変化するように設定されることを特徴とする請求項6または7に記載の画像処理装置。
  9.  前記所定の輝度値は、撮影条件情報に応じて変化するように設定されることを特徴とする請求項6乃至8のいずれか1項に記載の画像処理装置。
  10.  前記撮影条件情報は、ISO感度、前記結像光学系の絞り値、および、射出瞳距離の少なくとも一つを含むことを特徴とする請求項9に記載の画像処理装置。
  11.  前記第1位置に関する欠陥情報を記憶する記憶手段を更に有し、
     前記画像処理手段は、前記欠陥情報に基づいて前記視差画像を補正することを特徴とする請求項3乃至10のいずれか1項に記載の画像処理装置。
  12.  前記第1位置に関する欠陥情報を検査する検査手段を更に有し、
     前記画像処理手段は、前記欠陥情報に基づいて前記視差画像を補正することを特徴とする請求項3乃至10のいずれか1項に記載の画像処理装置。
  13.  前記視差画像は、前記結像光学系の互いに異なる瞳部分領域ごとに、前記一つの光電変換部に含まれる複数の副画素の受光信号を集めて生成され、
     前記撮像画像は、前記複数の光電変換部に含まれる全ての副画素の受光信号を集めて生成される、ことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14.  前記視差画像は、前記結像光学系の互いに異なる瞳領域部分を通過する光束のそれぞれに対応する第1視差画像および第2視差画像を含み、
     前記取得手段は、前記複数の光電変換部を備えた撮像素子から、前記撮像画像と、前記視差画像のうち前記第1視差画像とを取得し、
     前記画像処理手段は、
     前記視差画像のうち前記第1視差画像を補正し、
     前記撮像画像から、補正処理後の第1視差画像を減算することにより、前記第2の視差画像を生成する、ことを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15.  前記画像処理手段は、補正後の前記視差画像に基づいて前記撮像画像のリフォーカス処理を行うことを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。
  16.  前記画像処理手段は、前記撮像画像に基づいて前記視差画像の光量補正処理を行うことを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。
  17.  前記画像処理手段は、前記撮像画像に基づいて前記視差画像の色ごとに該視差画像の前記光量補正処理を行うことを特徴とする請求項16に記載の画像処理装置。
  18.  前記画像処理手段は、前記撮像画像の射影信号と前記視差画像の射影信号とに基づいて、該視差画像の前記光量補正処理を行うことを特徴とする請求項16または17に記載の画像処理装置。
  19.  前記画像処理手段は、前記視差画像の前記光量補正処理を行った後、前記撮像画像に基づいて光量補正処理後の前記視差画像に含まれる欠陥を低減するように該視差画像を補正することを特徴とする請求項16乃至18のいずれか1項に記載の画像処理装置。
  20.  結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部から構成される画素を複数配列した撮像素子と、
     前記複数の光電変換部のうち一つの光電変換部の信号から生成される視差画像を取得し、該複数の光電変換部の複数の信号を合成して生成される撮像画像を取得する取得手段と、
     前記撮像画像に基づいて前記視差画像を補正する画像処理手段と、を有することを特徴とする撮像装置。
  21.  前記撮像素子は、1つのマイクロレンズに対して前記複数の光電変換部を有し、該マイクロレンズが2次元状に配列されていることを特徴とする請求項20に記載の撮像装置。
  22.  結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部のうち、一つの光電変換部の信号から生成される視差画像を取得し、該複数の光電変換部の複数の信号を合成して生成される撮像画像を取得するステップと、
     前記撮像画像に基づいて前記視差画像を補正するステップと、を有することを特徴とする画像処理方法。
  23.  結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部のうち、一つの光電変換部の信号から生成される視差画像を取得し、該複数の光電変換部の複数の信号を合成して生成される撮像画像を取得するステップと、
     前記撮像画像に基づいて前記視差画像を補正するステップと、をコンピュータに実行させるように構成されていることを特徴とするプログラム。
  24.  請求項23に記載のプログラムを記憶していることを特徴とする記憶媒体。
PCT/JP2016/002144 2015-05-08 2016-04-21 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 WO2016181620A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP16792350.7A EP3296789B1 (en) 2015-05-08 2016-04-21 Image processing device, imaging device, image processing method, program, and storage medium
CN202110790632.2A CN113596431B (zh) 2015-05-08 2016-04-21 图像处理设备、摄像设备、图像处理方法和存储介质
CN201680026847.4A CN107960120B (zh) 2015-05-08 2016-04-21 图像处理设备、摄像设备、图像处理方法和存储介质
US15/724,471 US10771762B2 (en) 2015-05-08 2017-10-04 Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium that correct a parallax image based on a correction value calculated using a captured image
US16/937,622 US11388383B2 (en) 2015-05-08 2020-07-24 Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015-095348 2015-05-08
JP2015095348 2015-05-08
JP2016-080328 2016-04-13
JP2016080328A JP6746359B2 (ja) 2015-05-08 2016-04-13 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/724,471 Continuation US10771762B2 (en) 2015-05-08 2017-10-04 Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium that correct a parallax image based on a correction value calculated using a captured image

Publications (1)

Publication Number Publication Date
WO2016181620A1 true WO2016181620A1 (ja) 2016-11-17

Family

ID=57248930

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/002144 WO2016181620A1 (ja) 2015-05-08 2016-04-21 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Country Status (2)

Country Link
CN (1) CN113596431B (ja)
WO (1) WO2016181620A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117769841A (zh) * 2022-07-21 2024-03-26 北京小米移动软件有限公司 拍摄装置以及控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07135600A (ja) * 1993-11-11 1995-05-23 Sony Corp シェーディング補正回路
JP2014033415A (ja) * 2012-08-06 2014-02-20 Canon Inc 画像処理装置及び方法、及び、撮像装置
JP2014086863A (ja) * 2012-10-23 2014-05-12 Sony Corp 撮像装置、および画像処理方法、並びにプログラム
JP2015002400A (ja) * 2013-06-14 2015-01-05 キヤノン株式会社 シェーディング補正装置、焦点検出装置、撮像装置、シェーディング補正方法、プログラム、記憶媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI248297B (en) * 2003-01-17 2006-01-21 Fuji Photo Film Co Ltd Method and imaging apparatus for correcting defective pixel of solid-state image sensor, and method for creating pixel information
JP4794978B2 (ja) * 2005-10-25 2011-10-19 キヤノン株式会社 画像処理装置、制御方法、及びプログラム
TWI437878B (zh) * 2007-11-20 2014-05-11 Quanta Comp Inc 用以校正影像訊號中壞點之方法及電路
JP2012105023A (ja) * 2010-11-09 2012-05-31 Canon Inc 画像処理装置、撮像装置、及び画像処理方法
EP2760209B1 (en) * 2011-09-21 2017-07-12 FUJIFILM Corporation Image processing device, method, program and recording medium, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device
WO2013069445A1 (ja) * 2011-11-11 2013-05-16 富士フイルム株式会社 立体撮像装置及び画像処理方法
CN104221370B (zh) * 2012-03-29 2016-01-20 富士胶片株式会社 图像处理装置、摄像装置以及图像处理方法
JP6253272B2 (ja) * 2013-06-18 2017-12-27 キヤノン株式会社 撮像装置、撮像システム、信号処理方法、プログラム、および、記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07135600A (ja) * 1993-11-11 1995-05-23 Sony Corp シェーディング補正回路
JP2014033415A (ja) * 2012-08-06 2014-02-20 Canon Inc 画像処理装置及び方法、及び、撮像装置
JP2014086863A (ja) * 2012-10-23 2014-05-12 Sony Corp 撮像装置、および画像処理方法、並びにプログラム
JP2015002400A (ja) * 2013-06-14 2015-01-05 キヤノン株式会社 シェーディング補正装置、焦点検出装置、撮像装置、シェーディング補正方法、プログラム、記憶媒体

Also Published As

Publication number Publication date
CN113596431A (zh) 2021-11-02
CN113596431B (zh) 2023-11-17

Similar Documents

Publication Publication Date Title
EP3261328B1 (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP7057397B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP6362060B2 (ja) 撮像装置及びその制御方法ならびにプログラム
JP6239857B2 (ja) 撮像装置およびその制御方法
JP6239855B2 (ja) 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置
JP6381266B2 (ja) 撮像装置、制御装置、制御方法、プログラム、および、記憶媒体
JP6700986B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6486149B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
WO2018150925A1 (ja) 焦点検出装置、焦点検出方法、および焦点検出プログラム
JP6254843B2 (ja) 画像処理装置およびその制御方法
JP6285683B2 (ja) 撮像装置及びその制御方法
JP6862102B2 (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
JP2015210285A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP7150785B2 (ja) 画像処理装置、撮像装置、画像処理方法、および、記憶媒体
WO2016181620A1 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP2015145970A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP6789810B2 (ja) 画像処理方法、画像処理装置、および、撮像装置
JP2015225310A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2015225311A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP6735621B2 (ja) 画像処理装置及びその制御方法、プログラム並びに撮像装置
JP6765829B2 (ja) 画像処理装置、画像処理装置の制御方法、撮像装置
JP2015215395A (ja) 撮像装置、制御装置、制御方法、プログラム、および、記憶媒体
JP2019219499A (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
JP2019092215A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP2017097142A (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16792350

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2016792350

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE