WO2014024500A1 - 画像処理方法、画像処理装置、撮像装置および画像処理プログラム - Google Patents

画像処理方法、画像処理装置、撮像装置および画像処理プログラム Download PDF

Info

Publication number
WO2014024500A1
WO2014024500A1 PCT/JP2013/004798 JP2013004798W WO2014024500A1 WO 2014024500 A1 WO2014024500 A1 WO 2014024500A1 JP 2013004798 W JP2013004798 W JP 2013004798W WO 2014024500 A1 WO2014024500 A1 WO 2014024500A1
Authority
WO
WIPO (PCT)
Prior art keywords
parallax
image
pixel
image data
viewpoint
Prior art date
Application number
PCT/JP2013/004798
Other languages
English (en)
French (fr)
Inventor
石賀 健一
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to CN201380036470.7A priority Critical patent/CN104429056B/zh
Priority to JP2014529320A priority patent/JP5904281B2/ja
Publication of WO2014024500A1 publication Critical patent/WO2014024500A1/ja
Priority to US14/618,247 priority patent/US9509978B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Definitions

  • the present invention relates to an image processing method, an image processing device, an imaging device, and an image processing program.
  • Patent Literature Japanese Patent Application Laid-Open No. 2003-7994
  • Patent Document 1 does not disclose a specific method for actually generating a high-definition stereoscopic color image from imaging data when a new stereoscopic imaging method using a single camera is employed.
  • 2D color image generation when 2D imaging is performed with one camera, a technique is known in which high-definition 2D images are obtained by performing color interpolation and then performing noise removal and edge enhancement.
  • the new 3D imaging method it is unknown what procedure can be used to finally obtain a high-definition stereoscopic image.
  • a higher-resolution parallax image may be generated using the generated parallax image.
  • filtering processing such as edge enhancement and noise removal is individually performed on the plurality of generated parallax images, moiré / false in each parallax image instead due to insufficient sampling density of each parallax pixel. May cause resolution.
  • An image processing method includes a non-parallax pixel including an aperture mask that generates a viewpoint in a reference direction, which includes a plurality of pixels having one aperture mask in one pixel, and a reference direction.
  • An imaging device comprising a pixel array in which at least three types of pixels are arranged: a left parallax pixel having an aperture mask that generates a parallax in the left direction and a right parallax pixel having an aperture mask that generates a parallax in the right direction relative to the reference direction
  • a first image obtained by capturing a subject image through a single optical system in a different pixel at the same time, a viewpoint in the reference direction, a viewpoint in the left direction, and a viewpoint in the right direction, and an image related to the viewpoint in the left direction;
  • An image processing method for converting to an image related to a right-direction viewpoint, wherein a procedure for generating a temporary left viewpoint image for each pixel using a pixel value of a left parallax pixel of the first image, A procedure for generating a temporary right viewpoint image for each pixel using the pixel value of the parallax pixel, and a procedure for generating a reference viewpoint image for each pixel using
  • An image processing method includes a non-parallax pixel including an aperture mask that generates a viewpoint in a reference direction, the pixel including a plurality of pixels each having one aperture mask per pixel, and the reference direction.
  • An imaging device comprising a pixel array in which at least three types of pixels are arranged: a left parallax pixel having an aperture mask that generates a parallax in the left direction and a right parallax pixel having an aperture mask that generates a parallax in the right direction with respect to a reference direction
  • a first image obtained by capturing a subject image through a single optical system in a different pixel at the same time, a viewpoint in the reference direction, a viewpoint in the left direction, and a viewpoint in the right direction, and an image related to the viewpoint in the left direction;
  • An image processing method for converting to an image related to a right-direction viewpoint, wherein a procedure for generating a temporary left viewpoint image for each pixel using a pixel value of a left parallax pixel of the first image, A procedure for generating a temporary right viewpoint image for each pixel using the pixel value of the parallax pixel, a procedure for generating a reference viewpoint image for each pixel
  • the image processing apparatus includes first parallax image data corresponding to a viewpoint shifted in the first direction with respect to the reference direction, and a second direction opposite to the first direction with respect to the reference direction.
  • a parallax image data acquisition unit that acquires the second parallax image data corresponding to the viewpoint shifted to, and the resolution corresponding to the reference direction and higher than the spatial frequency resolution of the first parallax image data and the second parallax image data
  • a reference image data acquisition unit that acquires the reference image data, a filter processing unit that performs filtering processing of at least one of edge adjustment and noise removal on the reference image data, reference image data subjected to filtering processing, Using the first parallax image data and the second parallax image data, the third parallax image data corresponding to the viewpoint shifted in the first direction and the first parallax corresponding to the viewpoint shifted in the second direction.
  • a parallax image data generating unit that generates the parallax image data.
  • An imaging device includes an imaging device that outputs at least one of first parallax image data and second parallax image data, and the above-described image processing device.
  • An image processing program includes: first parallax image data corresponding to a viewpoint shifted in the first direction with respect to the reference direction; and a second direction opposite to the first direction with respect to the reference direction.
  • a reference image data step for obtaining reference image data a filter processing step for performing filtering processing of at least one of edge adjustment and noise removal on the reference image data, reference image data subjected to filtering processing, and first parallax Using the image data and the second parallax image data, the third parallax image data corresponding to the viewpoint shifted in the first direction and the second parallax image data shifted in the second direction.
  • the parallax image data generating step of generating a fourth parallax image data corresponding to the point on the computer To perform the parallax image data generating step of generating a fourth parallax image data corresponding to the point on the computer.
  • FIG. 1 is a diagram illustrating a configuration of a digital camera 10.
  • FIG. 2 is a diagram illustrating a cross-sectional configuration of an image sensor 100.
  • FIG. It is a figure explaining the concept of defocus in a pixel without parallax. It is a figure explaining the concept of defocus in a parallax pixel. It is a figure which shows the light intensity distribution of a parallax pixel and a parallax pixel. It is a figure explaining the opening shape of the opening part 104 in case there are two types of parallax pixels. It is a figure which shows the resolution in the frequency space of a Bayer type
  • the digital camera according to the present embodiment which is a form of the image processing apparatus and the imaging apparatus, is configured to be able to generate a left viewpoint image and a right viewpoint image for one scene by one shooting. Each image having a different viewpoint is called a parallax image.
  • FIG. 1 is a diagram for explaining the configuration of the digital camera 10.
  • the digital camera 10 includes a photographic lens 20 as a photographic optical system, and guides a subject light beam incident along the optical axis 21 to the image sensor 100.
  • the photographing lens 20 may be an interchangeable lens that can be attached to and detached from the digital camera 10.
  • the digital camera 10 includes an image sensor 100, a control unit 201, an A / D conversion circuit 202, a memory 203, a drive unit 204, an image processing unit 205, a memory card IF 207, an operation unit 208, a display unit 209, an LCD drive circuit 210, and an AF.
  • a sensor 211 is provided.
  • the direction parallel to the optical axis 21 toward the image sensor 100 is defined as the + Z-axis direction
  • the direction toward the back of the sheet on the plane orthogonal to the Z-axis is defined as the + X-axis direction and the upward direction on the sheet + Y-axis.
  • the X axis is the horizontal direction
  • the Y axis is the vertical direction.
  • the photographing lens 20 is composed of a plurality of optical lens groups, and forms an image of a subject light flux from the scene in the vicinity of its focal plane.
  • the photographic lens 20 is represented by a single virtual lens arranged in the vicinity of the pupil.
  • the image sensor 100 is disposed near the focal plane of the photographic lens 20.
  • the image sensor 100 is an image sensor such as a CCD or CMOS sensor in which a plurality of photoelectric conversion elements are two-dimensionally arranged.
  • the image sensor 100 is controlled in timing by the drive unit 204, converts the subject image formed on the light receiving surface into an image signal, and outputs the image signal to the A / D conversion circuit 202.
  • the A / D conversion circuit 202 converts the image signal output from the image sensor 100 into a digital image signal and outputs the digital image signal to the memory 203.
  • the image processing unit 205 performs various image processing using the memory 203 as a work space, and generates image data.
  • the image processing unit 205 includes an interpolation processing unit 231, a reference image data generation unit 232, a filter processing unit 233, and a parallax image data generation unit 234.
  • the interpolation processing unit 231 generates left parallax image data for the left viewpoint and right parallax image data for the right viewpoint based on the output of the image sensor 100.
  • the left parallax image data and the right parallax image data generated by the interpolation processing unit 231 are data used for processing of the reference image data generation unit 232 and the parallax image data generation unit 234. Since the left parallax image data and the right parallax image data themselves generated by the interpolation processing unit 231 are not output as final left parallax image data and right parallax image data, the left parallax image data and the right parallax image are not output.
  • the data can be said to be temporary parallax image data for generating final parallax image data.
  • the spatial frequency resolution of the left parallax image data and right parallax image data generated by the interpolation processing unit 231 is lower than the spatial frequency resolution of the left parallax image data and right parallax image data generated by the parallax image data generation unit 234.
  • the reference image data generation unit 232 generates reference image data using the pixel values of the left parallax image data and the right parallax image data generated by the interpolation processing unit 231. Details of the reference image data will be described later.
  • the spatial frequency resolution of the reference image data is higher than the spatial frequency resolution of the left parallax image data and the right parallax image data generated by the interpolation processing unit 231.
  • the filter processing unit 233 performs at least one filtering process of edge adjustment and noise removal on the reference image data generated by the reference image data generation unit 232.
  • edge enhancement will be mainly described as an example of edge adjustment.
  • the parallax image data generation unit 234 uses the left parallax image data and the right parallax image data generated by the interpolation processing unit 231, and the reference image data subjected to the filtering process by the filter processing unit 233 to use the parallax image data generation unit Higher-resolution left-parallax image data and higher-resolution right-parallax image data than the left-parallax image data and right-parallax image data generated by H.234 are generated.
  • the image processing unit 205 also has general image processing functions such as adjusting image data according to the selected image format.
  • the generated image data is converted into a display signal by the LCD drive circuit 210 and displayed on the display unit 209.
  • the data is recorded on the memory card 220 attached to the memory card IF 207.
  • the AF sensor 211 is a phase difference sensor in which a plurality of distance measuring points are set with respect to the subject space, and detects the defocus amount of the subject image at each distance measuring point.
  • a series of shooting sequences is started when the operation unit 208 receives a user operation and outputs an operation signal to the control unit 201.
  • Various operations such as AF and AE accompanying the imaging sequence are executed under the control of the control unit 201.
  • the control unit 201 analyzes the detection signal of the AF sensor 211 and executes focus control for moving a focus lens that constitutes a part of the photographing lens 20.
  • FIG. 2 is a schematic diagram illustrating a cross section of the image sensor 100.
  • the imaging element 100 is configured by arranging a micro lens 101, a color filter 102, an aperture mask 103, a wiring layer 105, and a photoelectric conversion element 108 in order from the subject side.
  • the photoelectric conversion element 108 is configured by a photodiode that converts incident light into an electrical signal.
  • a plurality of photoelectric conversion elements 108 are two-dimensionally arranged on the surface of the substrate 109.
  • the image signal converted by the photoelectric conversion element 108, the control signal for controlling the photoelectric conversion element 108, and the like are transmitted / received via the wiring 106 provided in the wiring layer 105.
  • an opening mask 103 having openings 104 arranged in a one-to-one correspondence with each photoelectric conversion element 108 and repeatedly arranged two-dimensionally is provided in contact with the wiring layer.
  • the opening 104 is shifted for each corresponding photoelectric conversion element 108 so that the relative position is precisely determined.
  • parallax occurs in the subject light beam received by the photoelectric conversion element 108 by the action of the opening mask 103 including the opening 104.
  • the aperture mask 103 does not exist on the photoelectric conversion element 108 that does not generate parallax.
  • an aperture mask 103 having an aperture 104 that does not limit the subject luminous flux incident on the corresponding photoelectric conversion element 108, that is, allows the entire incident luminous flux to pass therethrough is provided.
  • the aperture 107 formed by the wiring 106 defines the incident light flux that is incident, so the wiring 106 is regarded as an aperture mask that allows the entire incident light flux that does not cause parallax to pass.
  • the opening mask 103 may be arranged separately and independently corresponding to each photoelectric conversion element 108, or may be formed collectively for a plurality of photoelectric conversion elements 108 in the same manner as the manufacturing process of the color filter 102. .
  • the color filter 102 is provided on the opening mask 103.
  • the color filter 102 is a filter provided in a one-to-one correspondence with each photoelectric conversion element 108, which is colored so as to transmit a specific wavelength band to each photoelectric conversion element 108.
  • a green filter (G filter) that transmits the green wavelength band
  • a blue filter (B filter) that transmits the blue wavelength band may be arranged in a grid pattern.
  • the color filter may be not only a combination of primary colors RGB but also a combination of YCM complementary color filters.
  • the microlens 101 is provided on the color filter 102.
  • the microlens 101 is a condensing lens for guiding more incident subject light flux to the photoelectric conversion element 108.
  • the microlenses 101 are provided in a one-to-one correspondence with the photoelectric conversion elements 108.
  • the optical axis of the microlens 101 is shifted so that more subject light flux is guided to the photoelectric conversion element 108. It is preferable.
  • the arrangement position may be adjusted so that more specific subject light beam, which will be described later, is incident along with the position of the opening 104 of the opening mask 103.
  • one unit of the aperture mask 103, the color filter 102, and the microlens 101 provided on a one-to-one basis corresponding to each photoelectric conversion element 108 is referred to as a pixel.
  • a pixel provided with the opening mask 103 that generates parallax is referred to as a parallax pixel
  • a pixel that is not provided with the opening mask 103 that generates parallax is referred to as a non-parallax pixel.
  • the effective pixel area of the image sensor 100 is about 24 mm ⁇ 16 mm, the number of pixels reaches about 12 million.
  • the microlens 101 may not be provided.
  • the wiring layer 105 is provided on the side opposite to the photoelectric conversion element 108.
  • the opening 104 of the opening mask 103 has a color component, the color filter 102 and the opening mask 103 can be formed integrally. Note that the color filter 102 is not provided when a monochrome image signal may be output.
  • the opening mask 103 and the wiring 106 are provided as separate bodies, but the wiring 106 may be responsible for the function of the opening mask 103 in the parallax pixels. That is, a prescribed opening shape is formed by the wiring 106, and the incident light beam is limited by the opening shape to guide only a specific partial light beam to the photoelectric conversion element 108. In this case, the wiring 106 that forms the opening shape is preferably closest to the photoelectric conversion element 108 in the wiring layer 105.
  • the opening mask 103 may be formed by a permeation blocking film provided to overlap the photoelectric conversion element 108.
  • the opening mask 103 is formed, for example, by sequentially laminating a SiN film and a SiO 2 film to form a permeation blocking film and removing a region corresponding to the opening 104 by etching.
  • FIG. 3 is a diagram for explaining the concept of defocus in a pixel without parallax.
  • FIG. 3A when an object point that is a subject exists at the focal position, the subject luminous flux that reaches the image sensor light receiving surface through the lens pupil is steep with the pixel at the corresponding image point as the center. The light intensity distribution is shown.
  • the subject luminous flux exhibits a gentle light intensity distribution on the light receiving surface of the image sensor as compared with the case where the object point exists at the focal position. . That is, the output value at the pixel of the corresponding image point is lowered, and a distribution having output values up to the peripheral pixels is shown.
  • the subject luminous flux when the object point further deviates from the focal position, the subject luminous flux exhibits a gentler light intensity distribution on the image sensor light receiving surface.
  • the output value at the pixel of the corresponding image point further decreases, and a distribution having output values up to the surrounding pixels is shown.
  • FIG. 4 is a diagram for explaining the concept of defocusing in a parallax pixel.
  • the parallax Lt pixel and the parallax Rt pixel receive the subject luminous flux that arrives from one of the two parallax virtual pupils set as the optical axis target as a partial region of the lens pupil.
  • a method of capturing a parallax image by receiving subject light fluxes that arrive from different virtual pupils in a single lens pupil is referred to as a monocular pupil division imaging method.
  • the peak of the light intensity distribution indicated by the parallax Lt pixel corresponds to the image point as compared to the case where the object point exists at the focal position. Appearing at a position away from the pixel in one direction, and its output value decreases. In addition, the width of the pixel having the output value is increased. The peak of the light intensity distribution indicated by the parallax Rt pixel appears at a position away from the pixel corresponding to the image point in the opposite direction to the one direction in the parallax Lt pixel and at an equal distance, and the output value similarly decreases. Similarly, the width of the pixel having the output value is increased.
  • the same light intensity distribution that is gentler than that in the case where the object point exists at the focal position appears at an equal distance from each other. Further, as shown in FIG. 4C, when the object point further deviates from the focal position, the same light intensity distribution that is more gentle than the state of FIG. . That is, it can be said that the amount of blur and the amount of parallax increase as the object point deviates from the focal position.
  • FIG. 5 is a graph showing the change in the light intensity distribution explained in FIG. 3 and the change in the light intensity distribution explained in FIG.
  • the horizontal axis represents the pixel position, and the center position is the pixel position corresponding to the image point.
  • the vertical axis represents the output value of each pixel. Since this output value is substantially proportional to the light intensity, it is shown as the light intensity in the figure.
  • FIG. 5A is a graph showing changes in the light intensity distribution described in FIG.
  • a distribution curve 1801 represents the light intensity distribution corresponding to FIG. 3A and shows the steepest state.
  • the distribution curve 1802 represents the light intensity distribution corresponding to FIG. 3B, and the distribution curve 1803 represents the light intensity distribution corresponding to FIG.
  • the peak value gradually decreases and has a broadening.
  • FIG. 5B is a graph showing changes in the light intensity distribution described in FIG.
  • a distribution curve 1804 and a distribution curve 1805 represent the light intensity distribution of the parallax Lt pixel and the light intensity distribution of the parallax Rt pixel in FIG. 4B, respectively. As can be seen from the figure, these distributions have a line-symmetric shape with respect to the center position. Further, a combined distribution curve 1806 obtained by adding them shows a similar shape to the distribution curve 1802 of FIG. 3B which is in a defocus state equivalent to that of FIG.
  • the distribution curve 1807 and the distribution curve 1808 respectively represent the light intensity distribution of the parallax Lt pixel and the light intensity distribution of the parallax Rt pixel in FIG. As can be seen from the figure, these distributions are also symmetrical with respect to the center position. Further, a combined distribution curve 1809 obtained by adding them shows a similar shape to the distribution curve 1803 in FIG. 3C which is in a defocus state equivalent to that in FIG.
  • FIG. 6 is a diagram illustrating the opening shape of the opening 104 when there are two types of parallax pixels.
  • the shape of the opening 104l of the parallax Lt pixel and the shape of the opening 104r of the parallax Rt pixel are respectively obtained by dividing the shape of the opening 104n of the non-parallax pixel by the center line 322. The example which is the same is shown. That is, in FIG. 6A, the area of the opening 104n of the non-parallax pixel is the sum of the area of the opening 104l of the parallax Lt pixel and the area of the opening 104r of the parallax Rt pixel.
  • the opening 104n of the non-parallax pixel is referred to as a full-opening opening, and the opening 104l and the opening 104r are referred to as half-opening openings.
  • the opening is directed to the reference direction.
  • the opening 104l of the parallax Lt pixel and the opening 104r of the parallax Rt pixel are displaced in opposite directions with respect to a virtual center line 322 passing through the center (pixel center) of the corresponding photoelectric conversion element 108. Yes.
  • the opening 104l of the parallax Lt pixel and the opening 104r of the parallax Rt pixel each generate parallax in one direction with respect to the reference direction and in the other direction opposite to the one direction.
  • FIG. 6B shows a light intensity distribution when the object point is deviated from the focal position in the pixel having each opening shown in FIG.
  • the curve Lt corresponds to the distribution curve 1804 in FIG. 5B
  • the curve Rt corresponds to the distribution curve 1805 in FIG. 5B
  • a curve N corresponds to a pixel without parallax, and shows a similar shape to the combined distribution curve 1806 in FIG.
  • Each of the openings 104n, 104l, and 104r has an aperture stop function.
  • the blur width of the non-parallax pixel having the opening 104n having an area double the opening 104l (opening 104r) is the Lt pixel and the parallax Rt pixel indicated by the combined distribution curve 1806 in FIG. It is about the same as the blur width of the added curve.
  • FIG. 6C shows an example in which the shape of the opening 104l of the parallax Lt pixel, the shape of the opening 104r of the parallax Rt pixel, and the shape of the opening 104c of the parallax C pixel are all the same shape.
  • the parallax C pixel is a pixel having no eccentricity.
  • the parallax C pixel is a parallax pixel that outputs a parallax image, in that only the subject luminous flux having the central portion of the pupil as a partial region is guided to the photoelectric conversion element 108.
  • a pixel having an opening corresponding to the reference direction is defined as a non-parallax pixel.
  • the parallax C pixel in FIG. 6C having an opening at the center of the photoelectric conversion element is the pixel without parallax, as in the pixel without parallax in FIG. 6A.
  • the opening 104l, the opening 104r, and the opening 104c are half the area of the opening 104n illustrated in FIG.
  • each of the openings 104 l and 104 r is in contact with a virtual center line 322 that passes through the center (pixel center) of the photoelectric conversion element 108.
  • FIG. 6D shows the light intensity distribution when the object point is deviated from the focal position in the pixel having each opening shown in FIG.
  • the curve Lt corresponds to the distribution curve 1804 in FIG. 5B
  • the curve Rt corresponds to the distribution curve 1805 in FIG. 5B.
  • Each of the openings 104c, 104l, and 104r has a function of an aperture stop. Therefore, the blur width of the parallax C pixel having the opening 104c having the same shape and the same area as the opening 104l and the opening 104r is approximately the same as the blur width of the parallax Lt pixel and the parallax Rt pixel.
  • the parallax is included in the blur and the same optical image as the 2D imaging is acquired at the in-focus position as compared with the normal binocular stereoscopic imaging. is there.
  • Patent Document 1 discloses a color / parallax array including a combination of a color filter and a pixel array in which only left and right parallax pixels are arrayed.
  • a color / parallax arrangement in which pixels without parallax are arranged in addition to the left and right parallax pixels can be used. Imaging with these color / parallax arrangements can be called stereoscopic imaging with a monocular pupil division imaging system.
  • the image processing unit 205 As a method of generating a stereoscopic image, the image processing unit 205 generates a left parallax image by collecting sampling points (grid points) of only the left parallax pixels and interpolating the empty grid points, and sets sampling points of only the right parallax pixels. It is conceivable to generate a right parallax image by collecting and interpolating vacancies. However, the method of interpolating the left and right parallax images inevitably has a problem that a resolution exceeding the sampling resolution limit of each parallax pixel cannot be obtained.
  • a 2D image without parallax is once generated as an intermediate image (hereinafter also referred to as “2D intermediate image”). It is possible to have a resolution up to the Nyquist frequency equal to the resolution limit when all pixels are sampled under a certain condition. That is, as described above, as a characteristic characteristic of the monocular pupil division imaging method, the point spread function of the subject image at the in-focus position is the same point spread function for all the non-parallax pixels, the left parallax pixels, and the right parallax pixels. Become. For this reason, the same subject image as the 2D dedicated sensor is captured in the vicinity of the focus position, and the resolution can be derived to the maximum.
  • a low-resolution left parallax image and a low-resolution right parallax image obtained by independently temporarily interpolating left and right parallax pixels are subjected to parallax modulation described later to generate a 2D intermediate image.
  • a high-resolution left parallax image and a high-resolution right parallax image exceeding the sampling limit of each parallax pixel can be obtained.
  • edge enhancement processing on a 3D image.
  • edge enhancement processing is performed on the 2D image.
  • a 3D image subjected to edge enhancement processing is generated by applying parallax modulation.
  • FIG. 7 is a diagram showing a Bayer-type G parallax pixel array and the resolution in the frequency space of this array.
  • the color filter array has a Bayer array structure, and one G pixel is provided with a left-opening parallax pixel, and the other G pixel is provided with a right-opening parallax pixel as an opening mask. Further, the R pixel and the B pixel are provided with a pixel with no parallax of all openings. This corresponds to the arrangement described in the first embodiment described later.
  • k space diagram representing the sampling resolution limit corresponding to each color component and each parallax.
  • k 2 ⁇ f between the resolution frequency f [lines / mm] and the wave number k.
  • a monochrome subject eg, a circular zone plate
  • the resolution frequency is basically limited to the inner square area.
  • FIG. 8 is a diagram illustrating the moire of the parallax image.
  • 8A shows an image without parallax
  • FIG. 8B shows a left parallax image
  • FIG. 8C shows a right parallax image.
  • the images shown in FIGS. 8B and 8C are generated through a process excluding the part of edge enhancement processing shown in Embodiment 1 described later.
  • a 3D image is obtained through a 2D intermediate image for a subject image slightly deviated from the above-described in-focus position, as shown in FIGS.
  • the component appears in the left and right parallax images.
  • edge enhancement is performed separately for the left parallax image and the right parallax image, the moire component of the false resolution is emphasized and the image quality is impaired. If edge enhancement is performed on the 2D intermediate image, high-definition 3D edge enhancement processing can be performed without enhancing the moire component.
  • the color / parallax arrangement in which the left parallax pixel (Lt), the right parallax pixel (Rt), and the non-parallax pixel (N) are mixed, other arrangements may be used.
  • an array in which parallax pixels described in Embodiment 2 described later have a sparse density, a parallax pixel described in Embodiment 3 described later in a sparse density, and a monochrome array can also be used.
  • a high-resolution 2D intermediate image is first generated, and the generated 2D intermediate image is superimposed on the 3D image to obtain a high-resolution output image for both 2D and 3D.
  • a technique has been introduced in which color information of parallax pixels and non-parallax pixels is referred to each other and their correlation is used.
  • noise removal will be described.
  • the filter a known edge-preservingersmoothing filter can be used.
  • noise fluctuation component also appears in the temporarily-interpolated low-resolution left parallax image and right parallax image.
  • a noise component is extracted from a reduced image downsampled to such an extent that only one left parallax pixel or right parallax pixel sampled by the image sensor is included in one pixel. It is only necessary to return to the resolution and perform the subtraction process.
  • a multi-resolution noise removal technique disclosed in Japanese Patent Laid-Open No. 2006-309749 by the same inventor as the present applicant can be used. Specifically, the process of reducing the high resolution to the low resolution sequentially by multi-resolution conversion, extracting the noise components at each of those resolutions, and sequentially integrating them to return to the real resolution noise components is performed on the high resolution side. It is sufficient to omit several steps.
  • a left parallax image and a right parallax image with low spatial frequency resolution are generated. Performs simple average interpolation in the G color plane, where only the left parallax pixels are collected. Linear interpolation is performed according to the ratio of distances using adjacent pixel values. Similarly, simple average interpolation in the G color plane in which only the right parallax pixels are collected is performed. That, Lt mosaic (x, y) Lt from (x, y) and, Rt mosaic (x, y) from the Rt (x, y) to produce a.
  • Temporary left parallax image Lt (x, y)
  • Temporary right parallax image Rt (x, y)
  • step 4 Generation of parallax-free color mosaic image by correcting left and right illumination distribution (local gain balance correction)
  • local gain correction is performed in units of pixels to match the illuminance of the left parallax pixel in the screen and the right parallax pixel in the screen.
  • a new Bayer surface with gain matching is created. This is equivalent to replacing with an average value, and a Bayer surface in which the parallax disappears is created.
  • M N x, y
  • target value setting methods to be used as reference points for each pixel there are two types of target value setting methods to be used as reference points for each pixel: a method of selecting an arithmetic mean and a method of selecting a geometric mean.
  • the process of applying local gain correction to each pixel is actually only necessary to substitute the average value of each pixel obtained first.
  • the local gain correction is a modulation process for eliminating the parallax.
  • an arithmetic average is employed. In this way, the Bayer plane data is rewritten using the average value of the left viewpoint image and the right viewpoint image as the non-parallax pixel value of the new G pixel position, and the Bayer plane image M N (x, y) without parallax is output. To do.
  • This technology includes technology USP6,836,572 that increases the resolution of direction determination by the same inventor and the same inventor to resolve vertical and horizontal Nyquist frequencies, technology USP7,236,628 that increases the resolution in the diagonal direction when calculating interpolation values, color Applicable to adaptive false color countermeasure technology USP7,565,007 that improves the resolution of direction judgment and adaptive false color countermeasure technology USP7,391,903 that uses the color gradient judgment method and technology that increases resolution of direction judgment The best high performance demosaic technology used has been introduced.
  • the maximum value of the actual input gradation X is Xmax and the maximum value of the output gradation Y is Ymax
  • x X / Xmax
  • y Y / Ymax
  • gradation conversion is Is done by.
  • the positive offset value ⁇ is set to a larger value as the imaging condition with higher sensitivity increases the dark current noise component.
  • step S4 the CPU performs an interpolation process as follows.
  • a pixel having R component color information is referred to as an R pixel
  • a pixel having B component color information is referred to as a B pixel
  • a pixel having G component color information is referred to as a G pixel.
  • the signal value of the R component corresponding to the pixel indicated by i, j] is R [i, j]
  • the signal value of the G component is G [i, j]
  • the signal value of the B component is B [i, j]. I will represent it.
  • the CPU determines the vertical similarity CvN [i, j] and the horizontal similarity ChN [i, j] for the pixel (R pixel or B pixel) that is not the G pixel indicated by the pixel position [i, j].
  • Z [i, j] is the signal value of the R component or B component indicated by the pixel position [i, j].
  • the first term is the similarity between the same colors that represents the similarity between the same colors at two pixel intervals
  • the second term is the similarity between the different colors that represents the similarity between the different colors at the adjacent pixel intervals.
  • the similarity between different colors has the ability to resolve vertical and horizontal Nyquist frequencies.
  • the absolute value of the first term in the above formulas (3) and (4) detects the rough directionality by comparing the G color components.
  • the absolute values of the second and third terms of the above formulas (3) and (4) detect fine similarities that cannot be detected by the first term.
  • the CPU calculates the vertical similarity and the horizontal similarity obtained by the above formulas (3) and (4) for each coordinate, and calculates the vertical and horizontal similarity in the target coordinates [i, j]. Based on the following equation (5), the direction of similarity is determined.
  • Th is a determination threshold value used for the purpose of avoiding erroneous determination due to noise included in the signal value, and is changed according to the ISO sensitivity.
  • the CPU interpolates the G component using the unevenness information of the R component or the B component. That is, information on whether or not to interpolate to an external dividing point that cannot be predicted only by interpolation of the inner G component of the surrounding G component, information on the same color component that is located in the vicinity of information on other color components existing at the interpolation target position And determining whether the image structure is convex upward or downward. That is, the information of the high frequency component obtained by sampling other color components is superimposed on the interpolation target color component.
  • the G color complement is calculated by the following formulas (6) and (9) when the vertical direction is similar to the position [i, j] of the center R pixel shown in FIG.
  • Z [i, j] is the signal value of the R component or B component indicated by the pixel position [i, j].
  • the first term in the above equation (9) is calculated from the G component signal values G [i, j-1] and G [i, j + 1] arranged vertically with respect to the pixel position [i, j]. Represents an average value.
  • the second term in the above equation (9) is the amount of change calculated from the R component signal values R [i, j], R [i, j-2] and R [i, j + 2] arranged vertically. To express. By adding the amount of change in the R component signal value to the average value of the G component signal value, the G component interpolation value G [i, j] is obtained. Since such interpolation can be predicted except for the internal dividing point of the G component, it will be referred to as extrapolation for convenience.
  • the above equation (10) performs extrapolation in the horizontal direction using the signal values of the pixels arranged horizontally with respect to the pixel position [i, j], as in the case of the extrapolation in the vertical direction described above.
  • the CPU calculates the G color interpolation values by the above formulas (9) and (10), and takes the average of the two calculated G color interpolation values. Let it be a G color interpolation value.
  • R interpolation For R color interpolation, pixel positions [i + 1, j], [i, j + 1], [i + 1, j other than the R pixel position [i, j] shown in FIG. +1] is calculated by the following equations (11) to (13), respectively. At this time, unevenness information of G component signal values (FIG. 7 of WO2006 / 006373) corresponding to all pixel positions obtained by the G interpolation described above is used.
  • the first term in the above equations (11) to (13) represents an average value calculated from the R component signal value adjacent to the coordinates to be subjected to R component interpolation, and the first term in the above equations (11) to (13).
  • B interpolation For the B component interpolation, interpolation processing is performed in the same manner as the R component. For example, for pixel positions [i + 1, j], [i, j + 1], [i + 1, j + 1] other than the position [i, j] of the B pixel shown in FIG. 8 of WO2006 / 006373 Are calculated by the following equations (14) to (16), respectively. At this time, the unevenness information of the G component signal values (FIG. 9 of WO2006 / 006373) corresponding to all the pixel positions obtained by the G interpolation described above is used.
  • the change amount of the G component signal value is added to the average value of the B component signal value to obtain the B component interpolation value.
  • RGB color images without parallax obtained by Bayer interpolation in step 5 are converted to R N ⁇ (x, y), G N ⁇ (x, y ), B N ⁇ (x, y). These are RGB data represented by the gradation of the interpolated gamma space. These RGB data are converted to the YCbCr space of the color system expressed by luminance and color difference.
  • Y (x, y) 0.2990R N ⁇ (x, y) + 0.5870G N ⁇ (x, y) + 0.1140B N ⁇ (x, y)
  • Cb (x, y) -0.1684R N ⁇ (x, y) -0.3316G N ⁇ (x, y) + 0.5000B N ⁇ (x, y)
  • Cr (x, y) 0.5000R N ⁇ (x, y) -0.4187G N ⁇ (x, y) -0.0813B N ⁇ (x, y)
  • Edge enhancement processing is performed on the luminance Y plane.
  • Y '(x, y) Y (x, y) + k * ⁇ Y (x, y)
  • represents a Laplacian filter representing a second order differential.
  • the constant k is a parameter for adjusting the degree of edge enhancement.
  • a Laplacian filter for example, the following filter coefficients can be considered, but the present invention is not limited to this.
  • step 5-1 Transition to the original linear gradation space by inverse gradation conversion
  • step 5-1 the inverse gradation conversion of step 5-1 is performed, and linear gradation RGB Return to data.
  • the obtained RGB color image without parallax is represented by R N (x, y), G N (x, y), and B N (x, y). These are RGB data expressed in linear gradation.
  • This can be called parallax modulation because the displacement processing is realized by superimposing the parallax components of the temporary parallax image.
  • parallax modulation methods There are two types of parallax modulation methods: a method using an arithmetic average as a reference point and a method using a geometric average as a reference point. Both can obtain a parallax modulation effect, but when the aperture mask of pixels without parallax of the image sensor is full aperture, a method using an arithmetic average as a reference point is adopted, and the aperture mask of pixels without parallax is a pixel with parallax. It is better to adopt a method using the geometric mean as a reference point when the same half aperture is used. Therefore, in this embodiment, a method using an arithmetic mean as a reference point is used.
  • step 7 the parallax modulation calculation formula defined in step 7 and the parallax extinction calculation formula (local gain balance correction) for correcting illuminance unevenness between the left and right defined in step 4 are just in inverse relationship. It can be seen that modulation is applied by multiplying. Therefore, in step 7, it works in the direction in which the parallax is applied, and in step 4, it works in the direction in which the parallax disappears.
  • FIG. 11 is a diagram illustrating an example of the repetitive pattern 110 when there are two types of parallax pixels.
  • the coordinate system of the digital camera 10 is defined by the X axis, the Y axis, and the Z axis.
  • the x axis is defined in the right direction and the y axis is defined in the lower direction with reference to the left and upper end pixels.
  • the same four pixels as the Bayer array are used as the repeated pattern 110.
  • the effective pixel area of the image sensor 100 is periodically arranged in the vertical and horizontal directions.
  • the imaging device 100 uses a repetitive pattern 110 indicated by a thick line in the drawing as a basic lattice.
  • the R pixel and the B pixel are non-parallax pixels, and the Gb pixel is assigned to the parallax L pixel and the Gr pixel is assigned to the parallax R pixel.
  • the opening 104 is defined so that the parallax Lt pixel and the parallax Rt pixel included in the same repetitive pattern 110 receive the light beam emitted from the same minute region when the subject is in the in-focus position. . Further, in this example, as described with reference to FIG.
  • the non-parallax pixel is the opening portion of the full opening
  • the parallax Lt pixel and the parallax Rt pixel are the opening portions of the half opening.
  • the pixel pitch is a.
  • the Gb pixel and the Gr pixel which are green pixels having high visibility, are used as the parallax pixels, it is expected to obtain a parallax image with high contrast.
  • the Gb pixel and the Gr pixel which are the same green pixels are used as the parallax pixels, it is easy to perform a conversion operation from these two outputs to an output having no parallax, and the output of the R pixel and the B pixel which are non-parallax pixels is high. High-quality 2D image data can be generated.
  • FIG. 7 (lower part) is a diagram showing the resolution related to the spatial frequency of the image captured by the image sensor employing the repetitive pattern 110 shown in FIG.
  • f shows a frequency.
  • the frequency resolution region is described by a first Brillouin zone representing a unit cell (Wigner-Zeilz cell) in a reciprocal lattice space.
  • k y [ ⁇ ⁇ / a, + ⁇ / a] in the range of resolution. That is, the range surrounded by the dotted line is the limit resolution frequency of the image.
  • the color filter and the aperture mask are arranged so as to overlap one sensor surface. Since the information captured by one sensor surface is constant, the amount of information is reduced by dividing the functions.
  • the number of pixels without parallax is relatively reduced, and thus the amount of information obtained by the pixels without parallax is reduced.
  • the color filter and the amount of individual information is reduced by the amount of R, G, B.
  • the limit resolution frequency of the image does not reach the inherent Nyquist frequency.
  • Image G Rt of the G component of the right-side perspective, the image R N of the R component of no parallax intermediate viewpoint, the image B N of the B component of intermediate viewpoint no disparity is the same.
  • the image processing unit 205 performs processing for increasing the resolution in order to compensate for the amount of information reduced by dividing the functions.
  • the G Lt pixel and G Rt pixel is parallax pixels, by replacing a virtual parallax without pixel G N, to produce a Bayer array of no parallax pixels only.
  • an original Nyquist frequency k x [ ⁇ ⁇ / a, + ⁇ / a]
  • k y [ ⁇ ⁇ / a, + ⁇ / a) as an intermediate image without parallax. ] Can be generated.
  • Each pixel in the pixel array shown in FIG. 11 includes various parallax pixels and non-parallax pixels when focusing on the opening 104, and various R pixels, G pixels, and B pixels when focusing on the color filter 102. Characterized in combination. Therefore, even if the outputs of the image sensor 100 are aligned with the pixel arrangement, they are not image data representing a specific image. That is, only when the pixel outputs of the image sensor 100 are separated and collected for each pixel group characterized by the same, image data representing one image corresponding to the feature is formed. For example, when the outputs of the parallax pixels are collected for each type of opening, a plurality of parallax image data having parallax can be obtained. In this way, each piece of image data separated and collected for each identically characterized pixel group is referred to as plane data.
  • the interpolation processing unit 231 of the image processing unit 205 receives mosaic image data M mosaic (x, y), which is RAW original image data whose output values are arranged in the pixel arrangement order of the image sensor 100.
  • M mosaic RAW original image data whose output values are arranged in the pixel arrangement order of the image sensor 100.
  • an image lacking at least one of R, G, and B information in each pixel is referred to as a mosaic image, and data forming the mosaic image is referred to as mosaic image data.
  • mosaic image data data forming the mosaic image
  • Each output value is a linear gradation value proportional to the amount of light received by each photoelectric conversion element of the image sensor 100.
  • the interpolation processing unit 231 of the image processing unit 205 performs gain correction for matching the overall brightness between the left and right at this stage.
  • the illuminance of light incident on the left parallax pixel and the illuminance of light incident on the right parallax pixel have a large difference not only in the relative distribution between the left and right but also in the average signal level of the entire image. This is because it occurs.
  • the gain correction for matching the overall brightness between the left and right is called global gain correction.
  • FIG. 12 is a diagram for explaining calculation of the gain value.
  • the mosaic image data of the left parallax pixel of the G component is Lt mosaic (x, y)
  • the mosaic image data of the right parallax pixel of the G component is Rt mosaic ( x, y)
  • FIG. 12 only the left and right parallax pixels are extracted and illustrated.
  • the pixel types are described so that the types of pixels can be understood in accordance with the example of FIG. 11, but output values corresponding to the respective pixels are actually arranged.
  • FIG. 13 is a diagram for explaining the gain correction.
  • the interpolation processing unit 231 of the image processing unit 205 calculates the gain values for the left and right parallax pixels, as illustrated, the interpolation processing unit 231 calculates the Lt mosaic (x, y) and Rt mosaic (x, y) pixels. Gain correction is performed using the gain value obtained. Specifically, gain correction for the left parallax pixel is performed by the following (Equation 1), and gain correction for the right parallax pixel is performed by (Equation 2).
  • the mosaic image data of the G component left parallax pixel is the Lt ′ mosaic (x, y), the mosaic image data of the G component right parallax pixel. Is represented as Rt ′ mosaic (x, y).
  • the interpolation processing unit 231 of the image processing unit 205 performs mosaic image data M ′ in which the left parallax pixel and the right parallax pixel in M mosaic (x, y) are each corrected with one gain coefficient, as illustrated. mosaic (x, y) can be generated.
  • the interpolation processing unit 231 of the image processing unit 205 generates a left parallax image and a right parallax image with low spatial frequency resolution as temporary parallax images.
  • FIG. 14 is a diagram for explaining the generation of a temporary parallax image.
  • the interpolation processing unit 231 of the image processing unit 205 first separates the mosaic image data M ′ mosaic (x, y) into a plurality of plane data. Each plane data at this point has an output value only at a pixel position where the output value exists in the RAW original image data. Therefore, the interpolation processing unit 231 of the image processing unit 205 performs interpolation processing based on each plane data, and generates plane data in which the empty grid is filled.
  • the left side of the upper diagram shows Lt ′ mosaic (x, y), which is plane data obtained by extracting only the left parallax pixel from the mosaic image data M ′ mosaic (x, y), and the right side shows the right parallax.
  • Lt ′ mosaic (x, y) which is plane data obtained by extracting only the left parallax pixel from the mosaic image data M ′ mosaic (x, y)
  • Rt'mosaic (x, y) which is the plane data which extracted only the pixel.
  • it describes so that the kind of pixel may be understood according to the example of FIG. 11, but actually the output value corresponding to each pixel is arranged.
  • the interpolation processing unit 231 of the image processing unit 205 uses the pixel values that have become empty grids as pixels of the surrounding left parallax pixels. The value is calculated by interpolation processing. For example, the pixel value of the empty lattice P L1 is calculated by averaging pixel values of four left parallax pixels adjacent in the diagonal direction. As shown in the lower left diagram of FIG. 14, the interpolation processing unit 231 of the image processing unit 205 performs an averaging process on the pixel values of the surrounding left parallax pixels for all the empty lattices, and performs interpolation processing.
  • Lt ′ (x, y), which is plane data in which vacancies are filled, is generated.
  • the interpolation processing unit 231 of the image processing unit 205 may further perform interpolation processing using the pixel values calculated by the interpolation processing, or use only output values that exist at the stage of the RAW original image data. Interpolation processing may be performed.
  • the interpolation processing unit 231 of the image processing unit 205 converts the pixel value that has become an empty lattice into the peripheral right parallax. Calculation is performed by interpolation using the pixel value of the pixel. For example, the pixel value of the empty grid PR1 is calculated by averaging pixel values of four right parallax pixels adjacent in the diagonal direction. As shown in the lower right diagram of FIG. 14, the interpolation processing unit 231 of the image processing unit 205 performs an interpolation process by averaging pixel values of surrounding right parallax pixels with respect to all the empty lattices. Rt ′ (x, y), which is plane data in which vacancies are filled, is generated.
  • the reference image data generation unit 232 of the image processing unit 205 performs gain correction for each pixel of Lt ′ (x, y) using the calculated gain value, and similarly, Rt ′ (x Gain correction is performed on each pixel x, y) using the calculated gain value.
  • Rt ′ x Gain correction is performed on each pixel x, y
  • gain correction using the gain value calculated for each pixel in this way is referred to as local gain correction in contrast to the above-described global gain correction.
  • FIG. 15 is a diagram for explaining the calculation of the gain value.
  • the reference image data generation unit 232 of the image processing unit 205 calculates an average value for each pixel from Lt ′ (x, y) and Rt ′ (x, y).
  • there are two methods for calculating the average value namely, arithmetic mean and geometric mean.
  • an arithmetic average is employed so that the blur width of the subject image in the non-parallax pixel of the G component where the parallax disappears matches the blur width of the subject image of the pixel without parallax.
  • the reference image data generation unit 232 of the image processing unit 205 calculates the average value by the following (Equation 3).
  • FIG. 16 is a diagram for explaining local gain correction.
  • the reference image data generation unit 232 of the image processing unit 205 includes m (x m , y n ) calculated by (Equation 3) for the pixel values of the left and right parallax pixels of the repetitive pattern 110, as shown in the figure.
  • Local gain correction can be performed only by replacing with m (x m + 1 , y n + 1 ). In this sense, it can be said that the local gain correction is a modulation process for eliminating the parallax. Thereby, it is possible to obtain a Bayer array in which the pixel values of the parallax Gb pixel and the parallax Gr pixel are replaced with the pixel values of the non-parallax G pixel.
  • the reference image data generation unit 232 of the image processing unit 205 generates M N (x, y) by replacing the pixel values of all the left and right parallax pixels with the corresponding average values calculated in (Equation 3). Note that local gain correction may be performed not on all the pixels of Lt ′ (x, y) and Rt ′ (x, y) but on the pixels corresponding to the positions of the left parallax pixel and the right parallax pixel in the Bayer array. Good.
  • the reference image data generation unit 232 of the image processing unit 205 uses an existing color interpolation technique, and a color image without parallax having a resolution from M N (x, y) to each Nyquist frequency. Data is generated as intermediate image data.
  • FIG. 17 is a diagram for explaining interpolation of the G component.
  • the G color interpolation is calculated with reference to the pixel in the drawing with respect to the position [i, j] of the center R pixel shown in the left diagram of FIG.
  • the pixel position when G color interpolation is performed on the position of the B pixel is shown in the right diagram of FIG.
  • the filter processing unit 233 of the image processing unit 205 performs edge enhancement processing on the intermediate image data.
  • the parallax image data generation unit 234 of the image processing unit 205 includes Lt ′ (x, y), Rt ′ (x, y), R N (x, y), G N (x, y), B N (x,
  • the left viewpoint color image data and the right viewpoint color image data are generated using the five plane data of y).
  • the parallax image data generation unit 234 of the image processing unit 205 generates left and right color image data by superimposing parallax components of the temporary parallax image on the non-parallax image. This generation process is called parallax modulation process.
  • the color image data of the left viewpoint includes R Lt (x, y) that is red plane data corresponding to the left viewpoint, G Lt (x, y) that is green plane data, and B Lt (x, y) that is blue plane data.
  • y three color parallax plane data.
  • the color image data of the right viewpoint is red plane data R Rt (x, y) corresponding to the right viewpoint, green plane data G Rt (x, y), and blue plane data B Rt. It is composed of three color parallax plane data of (x, y).
  • FIG. 18 is a diagram for explaining color parallax plane data generation processing. In particular, a process for generating R Lt (x, y) and R Rt (x, y), which are red parallax planes among the color parallax planes, is described.
  • moire components are enhanced in a stereoscopic image by performing edge enhancement on a 2D intermediate image without high parallax.
  • edge enhancement can be performed with the high-frequency resolution obtained by actually resolving the high-frequency component of the parallax image.
  • noise removal results with high edge-preserving performance can be obtained by removing noise from a high-resolution 2D intermediate image without parallax. Since the influence of moiré associated with the sampling density of the parallax pixels can be suppressed, it is possible to avoid a problem that inconsistency such as inconsistency of the same subject image appears between a plurality of parallax images.
  • the procedure of image processing is the same as in the first embodiment. Hereinafter, it demonstrates in order.
  • R N_mosaic (x, y) R Lt_mosaic (x, y), the signal surface of the left parallax pixel of R component, R Rt_mosaic (x, y), the signal surface of the right parallax pixel of the R component, G N_mosaic (x, y), the signal plane of the left parallax pixel of G component, G Lt_mosaic (x, y) G Rt_mosaic (x, y), the signal plane of the right parallax pixel of G component, B N_mosaic (x, y)
  • B Lt_mosaic (x, y) be the signal surface of the left parallax pixel of the B component, B Rt_mosaic (x, y) It will be expressed as
  • a temporary left parallax image and a temporary right parallax image with low spatial frequency resolution are generated. Performs simple average interpolation in the G color plane, where only the left parallax pixels are collected. Linear interpolation is performed according to the distance ratio using pixel values that are close to each other. Similarly, simple average interpolation in the G color plane in which only the right parallax pixels are collected is performed. Similarly, simple average interpolation in the G color plane in which only non-parallax pixels are collected is performed. Similar processing is performed for each of R, G, and B.
  • Temporary R component-free parallax image R N (x, y) Temporary G component parallax-free image: G N (x, y) Temporary B component non-parallax image: B N (x, y) Temporary R component left parallax image: R Lt (x, y) Temporary G component left parallax image: G Lt (x, y) Temporary B component left parallax image: B Lt (x, y) Temporary R component right parallax image: R Rt (x, y) Temporary G component right parallax image: G Rt (x, y) Temporary B component right parallax image: B Rt (x, y) When creating temporary non-parallax images R N (x, y), G N (x, y), and B N (x, y), high-definition is performed by introducing direction determination in the signal plane. May be.
  • the Bayer plane data is rewritten by using the pixel value obtained by averaging the average value of the left viewpoint image and the right viewpoint image with the reference viewpoint image having no parallax as a new non-parallax pixel value. None Outputs the Bayer plane image M N (x, y).
  • parallax modulation methods There are two types of parallax modulation methods: a method using an arithmetic average as a reference point and a method using a geometric average as a reference point. Both can obtain a parallax modulation effect, but when the aperture mask of pixels without parallax of the image sensor is full aperture, a method using an arithmetic average as a reference point is adopted, and the aperture mask of pixels without parallax is a pixel with parallax. A method using the geometric mean as the reference point for the same half aperture is adopted. Therefore, in this embodiment, a method using an arithmetic mean as a reference point is used.
  • the image processing procedure is approximately as follows. 1) Input of parallax multiplexed mosaic image data 2) Global gain balance correction of parallax mosaic image 3) Generation of temporary parallax image 4) Generation of parallax-free reference image by left and right local illuminance distribution correction (local gain balance correction) 5) Generation of reference image without parallax 6) Edge enhancement processing for reference image without parallax 7) Generation of actual parallax image 8) Conversion to output space
  • a temporary left parallax image and a temporary right parallax image with low spatial frequency resolution are generated.
  • Simple average interpolation is performed in the signal plane that collects only the left parallax pixels. Linear interpolation is performed according to the distance ratio using pixel values that are close to each other. Similarly, simple average interpolation is performed in the signal plane in which only the right parallax pixels are collected. Similarly, simple average interpolation is performed in the signal plane in which only non-parallax pixels are collected.
  • parallax modulation methods There are two types of parallax modulation methods: a method using an arithmetic average as a reference point and a method using a geometric average as a reference point. Both can obtain a parallax modulation effect, but when the aperture mask of pixels without parallax of the image sensor is full aperture, a method using an arithmetic average as a reference point is adopted, and the aperture mask of pixels without parallax is a pixel with parallax. A method using the geometric mean as the reference point for the same half aperture is adopted. Therefore, in this embodiment, a method using an arithmetic mean as a reference point is used.
  • Noise removal processing for reference image without parallax 6-1) Color space conversion processing The same as in the first embodiment.
  • 6-2) Noise removal processing Noise removal processing is performed on the luminance Y plane.
  • a known high-performance noise removal process such as Japanese Patent Laid-Open No. 2006-309749 of the same inventor as the above-mentioned applicant may be used.
  • a two-argument product bilateral filter disclosed in WO2006 / 068025 of the same inventor as the present applicant is shown.
  • ⁇ th is the noise fluctuation width.
  • rth is a filter radius and can be set to an arbitrary size according to the spread width of the target noise.
  • the filter processing unit 233 may not perform noise removal filtering processing on the left parallax image data and the right parallax image data.
  • the edge enhancement processing of step 6 of the second embodiment may be performed after the noise removal processing of step 6 of the fourth embodiment is performed first.
  • the same procedure as that performed for the luminance component of the noise removal processing shown in the fourth embodiment is applied to the monochrome surface. You can do this.
  • red, green and blue are used as the colors constituting the subject image color.
  • four or more colors including amber color may be used as primary colors.
  • red, green, and blue three primary colors that are complementary colors of yellow, magenta, and cyan can be used.
  • the functions of the interpolation processing unit 231, the reference image data generation unit 232, the filter processing unit 233, and the parallax image data generation unit 234 described above include an interpolation processing step, a reference image data acquisition step, a filter processing step, and a parallax image data generation step. This can be realized by causing a computer to execute an image processing program including the image processing program.
  • the interpolation processing step temporary left parallax image data for the left viewpoint and temporary right parallax image data for the right viewpoint are generated based on the output of the image sensor 100.
  • the reference image data acquisition step generates reference image data having higher resolution than the temporary left parallax image data and the temporary right parallax image data using the pixel values of the temporary left parallax image data and the temporary right parallax image data. To do.
  • the filter processing step at least one of edge adjustment and noise removal is applied to the reference image data.
  • the parallax image data generation step is higher than the temporary left parallax image data and the temporary right parallax image data using the reference image data subjected to the filtering process, the temporary left parallax image data, and the temporary right parallax image data. Resolution left parallax image data and high resolution right parallax image data are generated.
  • a device such as a personal computer may function as an image processing apparatus.
  • the image processing apparatus may capture image data from another apparatus such as a camera. In this case, it plays a role as a parallax image data acquisition unit rather than an interpolation processing unit. It plays a role as a reference image data acquisition unit rather than a reference image data generation unit.
  • the interpolation processing unit generates the parallax image data
  • the reference image data generation unit generates the reference image data, it can be said that the parallax image data and the reference image data are acquired by generating the parallax image data.
  • reference image data generation unit 232 uses the pixel values of the temporary reference image data in which some pixels are missing in addition to the pixel values of the pixel values of the temporary left parallax image data and the temporary right parallax image data. Thus, reference image data that is a 2D intermediate image may be generated.
  • the filter processing unit 233 performs the edge enhancement process as the edge adjustment process on the reference image data.
  • an edge suppression process may be performed.
  • an image may refer to image data, or may refer to a subject image itself developed and visualized according to a format.
  • the parallax image data generation unit 234 generates left parallax image data corresponding to the same viewpoint as the temporary left parallax image data. Similarly, the parallax image data generation unit 234 generates right parallax image data corresponding to the same viewpoint as the temporary right parallax image data. In this case, since the viewpoints of the left and right parallax pixels do not change, the parallax amounts of the temporary left parallax image data and the temporary right parallax image data, and the finally generated high-resolution left parallax image data and high The parallax amount of the resolved right parallax image data is the same.
  • the amount of parallax can be controlled by parameterizing the amount of modulation when performing parallax modulation.
  • the viewpoint of the left parallax image data and the viewpoint of the left parallax image data also change. Therefore, it can also be said that the parallax image data generation unit 234 generates left parallax image data with a viewpoint different from the viewpoint of the temporary left parallax image data.
  • the right parallax image data with a different viewpoint from the viewpoint of temporary right parallax image data is generated.
  • the stereoscopic effect can be made variable by the parameter C.
  • FIG. 19 is a diagram illustrating an example of pixel value interpolation.
  • the upper part of FIG. 19 is a diagram in which only pixel values of R non-parallax pixels in the pixel array shown in FIG. 7 are extracted.
  • the parallax image data generation unit 234 uses the pixel values of pixels having pixel values in the R0 image data to interpolated as shown in the lower part of FIG. That is, the parallax image data generation unit 234 generates 2D intermediate image data by interpolating the missing pixel values using the pixel values of the non-parallax pixels.
  • the pixel values for interpolation are averaged from the top and bottom, left and right, or the top and bottom and left and right adjacent pixels having pixel values.

Abstract

 第1の画像の左視差画素の画素値を用いて、各画素に仮の左視点画像を生成する手順と、第1の画像の右視差画素の画素値を用いて、各画素に仮の右視点画像を生成する手順と、第1の画像の少なくとも視差なし画素の画素値を用いて、各画素に基準視点画像を生成する手順と、基準視点画像に対して、エッジ強調処理を行って、エッジ強調された基準視点画像を生成する手順と、エッジ強調された基準視点画像と仮の左視点画像と仮の右視点画像に基づき、各画素に左方向の視点に関する画像と右方向の視点に関する画像のそれぞれを生成する手順とを備える。

Description

画像処理方法、画像処理装置、撮像装置および画像処理プログラム
 本発明は、画像処理方法、画像処理装置、撮像装置および画像処理プログラムに関する。
 単一の撮像光学系を用いて、互いに視差を有する複数の視差画像を一度の撮影で生成する撮像装置が知られている。
[先行技術文献]
[特許文献]
  [特許文献1] 特開2003-7994号公報
 特許文献1には、一台のカメラによる新しい立体撮像方式を採用した場合、実際に撮像データから高精細な立体カラー画像を生成する具体的な方法が開示されていない。通常、一台のカメラで2D撮像する場合の2Dカラー画像生成では、色補間をし、その後にノイズ除去、エッジ強調等を施して、高精細な2D画像を得る手法が知られている。しかしながら、新しい3D撮像方式では、どのような手続きを経れば、最終的に高精細な立体画像を得ることができるのか、未知の状況にある。例えば、この種の撮像装置において、生成した視差画像を用いてより高解像な視差画像を生成する場合がある。この場合に、生成した複数の視差画像に対して個別にエッジ強調、ノイズ除去等のフィルタリング処理を施すと、各々の視差画素のサンプリング密度の不足に伴って、かえって各々の視差画像においてモアレ・偽解像を発生させるおそれがある。
 本発明の第1の態様における画像処理方法は、1つの画素に1つの開口マスクを有する複数の画素からなり、基準方向の視点を生み出す開口マスクを備えた視差なし画素と、基準方向に対して左方向の視差を生み出す開口マスクを備えた左視差画素と、基準方向に対して右方向の視差を生み出す開口マスクを備えた右視差画素の少なくとも3種類の画素を配置した画素配列からなる撮像素子を用いて、1つの光学系を通して被写体像を基準方向の視点と左方向の視点と右方向の視点を同時にそれぞれ異なる画素に撮像した第1の画像を入力し、左方向の視点に関する画像と、右方向の視点に関する画像に変換する画像処理方法であって、第1の画像の左視差画素の画素値を用いて、各画素に仮の左視点画像を生成する手順と、第1の画像の右視差画素の画素値を用いて、各画素に仮の右視点画像を生成する手順と、第1の画像の少なくとも視差なし画素の画素値を用いて、各画素に基準視点画像を生成する手順と、基準視点画像に対して、エッジ強調処理を行って、エッジ強調された基準視点画像を生成する手順と、エッジ強調された基準視点画像と仮の左視点画像と仮の右視点画像に基づき、各画素に左方向の視点に関する画像と右方向の視点に関する画像のそれぞれを生成する手順とを備える。
 本発明の第2の態様における画像処理方法は、1つの画素に1つの開口マスクを有する複数の画素からなり、基準方向の視点を生み出す開口マスクを備えた視差なし画素と、基準方向に対して左方向の視差を生み出す開口マスクを備えた左視差画素と、基準方向に対して右方向の視差を生み出す開口マスクを備えた右視差画素の少なくとも3種類の画素を配置した画素配列からなる撮像素子を用いて、1つの光学系を通して被写体像を基準方向の視点と左方向の視点と右方向の視点を同時にそれぞれ異なる画素に撮像した第1の画像を入力し、左方向の視点に関する画像と、右方向の視点に関する画像に変換する画像処理方法であって、第1の画像の左視差画素の画素値を用いて、各画素に仮の左視点画像を生成する手順と、第1の画像の右視差画素の画素値を用いて、各画素に仮の右視点画像を生成する手順と、第1の画像の視差なし画素の画素値を用いて、各画素に基準視点画像を生成する手順と、基準視点画像に対して、ノイズ除去処理を行って、ノイズ除去された基準視点画像を生成する手順と、ノイズ除去された基準視点画像と仮の左視点画像と仮の右視点画像に基づき、各画素に左方向の視点に関する画像と右方向の視点に関する画像のそれぞれを生成する手順とを備える。
 本発明の第3の態様における画像処理装置は、基準方向に対して第1方向にずれた視点に対応する第1視差画像データと、基準方向に対して第1方向とは反対の第2方向にずれた視点に対応する第2視差画像データとを取得する視差画像データ取得部と、基準方向に対応し、かつ、第1視差画像データおよび第2視差画像データの空間周波数解像度より高解像な基準画像データを取得する基準画像データ取得部と、基準画像データに対してエッジ調整およびノイズ除去の少なくともいずれかのフィルタリング処理を施すフィルタ処理部と、フィルタリング処理が施された基準画像データ、第1視差画像データおよび第2視差画像データを用いて、第1方向にずれた視点に対応する第3視差画像データと、第2方向にずれた視点に対応する第4視差画像データとを生成する視差画像データ生成部とを備える。
 本発明の第4の態様における撮像装置は、第1視差画像データおよび第2視差画像データの少なくともいずれかを出力する撮像素子と、上記の画像処理装置とを備える。
 本発明の第5の態様における画像処理プログラムは、基準方向に対して第1方向にずれた視点に対応する第1視差画像データと、基準方向に対して第1方向とは反対の第2方向にずれた視点に対応する第2視差画像データとを取得する視差画像データステップと、基準方向に対応し、かつ、第1視差画像データおよび第2視差画像データの空間周波数解像度より高解像な基準画像データを取得する基準画像データステップと、基準画像データに対してエッジ調整およびノイズ除去の少なくともいずれかのフィルタリング処理を施すフィルタ処理ステップと、フィルタリング処理が施された基準画像データ、第1視差画像データおよび第2視差画像データを用いて、第1方向にずれた視点に対応する第3視差画像データと、第2方向にずれた視点に対応する第4視差画像データとを生成する視差画像データ生成ステップとをコンピュータに実行させる。
 なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
デジタルカメラ10の構成を説明する図である。 撮像素子100の断面の構成を説明する図である。 視差なし画素におけるデフォーカスの概念を説明する図である。 視差画素におけるデフォーカスの概念を説明する図である。 視差なし画素と視差画素の光強度分布を示す図である。 視差画素の種類が2つである場合における開口部104の開口形状を説明する図である。 Bayer型G視差画素配列およびこの配列の周波数空間における分解能を示す図である。 視差画像のモアレを説明する図である。 画素配列図およびこの配列の周波数空間における分解能を示す図である。 画素配列図およびこの配列の周波数空間における分解能を示す図である。 視差画素の種類が2つである場合の繰り返しパターン110のバリエーションの一例を示す図である。 ゲイン値の算出を説明するための図である。 ゲイン補正を説明するための図である。 仮の視差画像の生成を説明するための図である。 ゲイン値の算出を説明するための図である。 ローカル・ゲイン補正を説明するための図である。 G成分の補間を説明する図である。 カラー視差プレーンデータの生成処理を説明する図である。 画素値の補間の一例を示す図である。
 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
 画像処理装置および撮像装置の一形態である本実施形態に係るデジタルカメラは、1つのシーンについて左視点および右視点の画像を一度の撮影により生成できるように構成されている。互いに視点の異なるそれぞれの画像を視差画像と呼ぶ。
 図1は、デジタルカメラ10の構成を説明する図である。デジタルカメラ10は、撮影光学系としての撮影レンズ20を備え、光軸21に沿って入射する被写体光束を撮像素子100へ導く。撮影レンズ20は、デジタルカメラ10に対して着脱できる交換式レンズであっても構わない。デジタルカメラ10は、撮像素子100、制御部201、A/D変換回路202、メモリ203、駆動部204、画像処理部205、メモリカードIF207、操作部208、表示部209、LCD駆動回路210およびAFセンサ211を備える。
 なお、図示するように、撮像素子100へ向かう光軸21に平行な方向を+Z軸方向と定め、Z軸と直交する平面において紙面奥へ向かう方向を+X軸方向、紙面上方向+Y軸と定める。撮影における構図との関係は、X軸が水平方向、Y軸が垂直方向となる。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。
 撮影レンズ20は、複数の光学レンズ群から構成され、シーンからの被写体光束をその焦点面近傍に結像させる。なお、図1では撮影レンズ20を説明の都合上、瞳近傍に配置された仮想的な1枚のレンズで代表して表している。撮像素子100は、撮影レンズ20の焦点面近傍に配置されている。撮像素子100は、二次元的に複数の光電変換素子が配列された、例えばCCD、CMOSセンサ等のイメージセンサである。撮像素子100は、駆動部204によりタイミング制御されて、受光面上に結像された被写体像を画像信号に変換してA/D変換回路202へ出力する。
 A/D変換回路202は、撮像素子100が出力する画像信号をデジタル画像信号に変換してメモリ203へ出力する。画像処理部205は、メモリ203をワークスペースとして種々の画像処理を施し、画像データを生成する。特に、画像処理部205は、補間処理部231、基準画像データ生成部232、フィルタ処理部233、および視差画像データ生成部234を有する。
 補間処理部231は、撮像素子100の出力に基づいて左視点の左視差画像データおよび右視点の右視差画像データを生成する。補間処理部231により生成される左視差画像データおよび右視差画像データは、基準画像データ生成部232および視差画像データ生成部234の処理に利用されるデータである。補間処理部231により生成される左視差画像データおよび右視差画像データそのものが最終的な左視差画像データおよび右視差画像データとして出力されるわけではないので、当該左視差画像データおよび当該右視差画像データは、最終的な視差画像データを生成するための仮の視差画像データといえる。補間処理部231により生成される左視差画像データおよび右視差画像データの空間周波数解像度は、視差画像データ生成部234により生成される左視差画像データおよび右視差画像データの空間周波数解像度より低い。
 基準画像データ生成部232は、補間処理部231により生成された左視差画像データおよび右視差画像データの画素値を用いて基準画像データを生成する。基準画像データの詳細は後述する。基準画像データの空間周波数解像度は、補間処理部231により生成された左視差画像データおよび右視差画像データの空間周波数解像度より高い。
 フィルタ処理部233は、基準画像データ生成部232により生成された基準画像データに対してエッジ調整およびノイズ除去の少なくともいずれかのフィルタリング処理を施す。以下の説明では、エッジ調整として主にエッジ強調を例に挙げて説明する。
 視差画像データ生成部234は、補間処理部231により生成された左視差画像データおよび右視差画像データ、並びにフィルタ処理部233によりフィルタリング処理が施された基準画像データを用いて、視差画像データ生成部234により生成された左視差画像データおよび右視差画像データよりも、高解像な左視差画像データおよび高解像な右視差画像データを生成する。
 画像処理部205は、他にも選択された画像フォーマットに従って画像データを調整するなどの画像処理一般の機能も担う。生成された画像データは、LCD駆動回路210により表示信号に変換され、表示部209に表示される。また、メモリカードIF207に装着されているメモリカード220に記録される。
 AFセンサ211は、被写体空間に対して複数の測距点が設定された位相差センサであり、それぞれの測距点において被写体像のデフォーカス量を検出する。一連の撮影シーケンスは、操作部208がユーザの操作を受け付けて、制御部201へ操作信号を出力することにより開始される。撮影シーケンスに付随するAF,AE等の各種動作は、制御部201に制御されて実行される。例えば、制御部201は、AFセンサ211の検出信号を解析して、撮影レンズ20の一部を構成するフォーカスレンズを移動させる合焦制御を実行する。
 次に、撮像素子100の構成について詳細に説明する。図2は、撮像素子100の断面を表す概略図である。
 撮像素子100は、被写体側から順に、マイクロレンズ101、カラーフィルタ102、開口マスク103、配線層105および光電変換素子108が配列されて構成されている。光電変換素子108は、入射する光を電気信号に変換するフォトダイオードにより構成される。光電変換素子108は、基板109の表面に二次元的に複数配列されている。
 光電変換素子108により変換された画像信号、光電変換素子108を制御する制御信号等は、配線層105に設けられた配線106を介して送受信される。また、各光電変換素子108に一対一に対応して設けられ、二次元的に繰り返し配列された開口部104を有する開口マスク103が、配線層に接して設けられている。開口部104は、後述するように、対応する光電変換素子108ごとにシフトされて、相対的な位置が厳密に定められている。詳しくは後述するが、この開口部104を備える開口マスク103の作用により、光電変換素子108が受光する被写体光束に視差が生じる。
 一方、視差を生じさせない光電変換素子108上には、開口マスク103が存在しない。別言すれば、対応する光電変換素子108に対して入射する被写体光束を制限しない、つまり入射光束の全体を通過させる開口部104を有する開口マスク103が設けられているとも言える。視差を生じさせることはないが、実質的には配線106によって形成される開口107が入射する被写体光束を規定するので、配線106を、視差を生じさせない入射光束の全体を通過させる開口マスクと捉えることもできる。開口マスク103は、各光電変換素子108に対応して別個独立に配列しても良いし、カラーフィルタ102の製造プロセスと同様に複数の光電変換素子108に対して一括して形成しても良い。
 カラーフィルタ102は、開口マスク103上に設けられている。カラーフィルタ102は、各光電変換素子108に対して特定の波長帯域を透過させるように着色された、光電変換素子108のそれぞれに一対一に対応して設けられるフィルタである。カラー画像を出力するには、互いに異なる少なくとも2種類のカラーフィルタが配列されれば良いが、より高画質のカラー画像を取得するには3種類以上のカラーフィルタを配列すると良い。例えば赤色波長帯を透過させる赤フィルタ(Rフィルタ)、緑色波長帯を透過させる緑フィルタ(Gフィルタ)、および青色波長帯を透過させる青フィルタ(Bフィルタ)を格子状に配列すると良い。カラーフィルタは原色RGBの組合せのみならず、YCMの補色フィルタの組合せであっても良い。
 マイクロレンズ101は、カラーフィルタ102上に設けられている。マイクロレンズ101は、入射する被写体光束のより多くを光電変換素子108へ導くための集光レンズである。マイクロレンズ101は、光電変換素子108のそれぞれに一対一に対応して設けられている。マイクロレンズ101は、撮影レンズ20の瞳中心と光電変換素子108の相対的な位置関係を考慮して、より多くの被写体光束が光電変換素子108に導かれるようにその光軸がシフトされていることが好ましい。さらには、開口マスク103の開口部104の位置と共に、後述の特定の被写体光束がより多く入射するように配置位置が調整されても良い。
 このように、各々の光電変換素子108に対応して一対一に設けられる開口マスク103、カラーフィルタ102およびマイクロレンズ101の一単位を画素と呼ぶ。特に、視差を生じさせる開口マスク103が設けられた画素を視差画素、視差を生じさせる開口マスク103が設けられていない画素を視差なし画素と呼ぶ。例えば、撮像素子100の有効画素領域が24mm×16mm程度の場合、画素数は1200万程度に及ぶ。
 なお、集光効率、光電変換効率が良いイメージセンサの場合は、マイクロレンズ101を設けなくても良い。また、裏面照射型イメージセンサの場合は、配線層105が光電変換素子108とは反対側に設けられる。また、開口マスク103の開口部104に色成分を持たせれば、カラーフィルタ102と開口マスク103を一体的に形成することもできる。なお、白黒画像信号を出力すればよい場合にはカラーフィルタ102は設けない。
 また、本実施形態においては、開口マスク103と配線106を別体として設けているが、視差画素における開口マスク103の機能を配線106が担っても良い。すなわち、規定される開口形状を配線106により形成し、当該開口形状により入射光束を制限して特定の部分光束のみを光電変換素子108へ導く。この場合、開口形状を形成する配線106は、配線層105のうち最も光電変換素子108側であることが好ましい。
 また、開口マスク103は、光電変換素子108に重ねて設けられる透過阻止膜によって形成されても良い。この場合、開口マスク103は、例えば、SiN膜とSiO膜を順次積層して透過阻止膜とし、開口部104に相当する領域をエッチングで除去して形成される。
 次に、視差Lt画素および視差Rt画素が受光する場合のデフォーカスの概念を説明する。まず、視差なし画素におけるデフォーカスの概念について簡単に説明する図である。図3は、視差なし画素におけるデフォーカスの概念を説明する図である。図3(a)で示すように、被写体である物点が焦点位置に存在する場合、レンズ瞳を通って撮像素子受光面に到達する被写体光束は、対応する像点の画素を中心として急峻な光強度分布を示す。すなわち、レンズ瞳を通過する有効光束の全体を受光する視差なし画素が像点近傍に配列されていれば、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値は急激に低下する。
 一方、図3(b)に示すように、物点が焦点位置からずれると、被写体光束は、物点が焦点位置に存在する場合に比べて、撮像素子受光面においてなだらかな光強度分布を示す。すなわち、対応する像点の画素における出力値が低下する上に、より周辺画素まで出力値を有する分布を示す。
 また、図3(c)に示すように、さらに物点が焦点位置からずれると、被写体光束は、撮像素子受光面においてよりなだらかな光強度分布を示す。すなわち、対応する像点の画素における出力値がさらに低下する上に、より周辺画素まで出力値を有する分布を示す。
 図4は、視差画素におけるデフォーカスの概念を説明する図である。視差Lt画素および視差Rt画素は、レンズ瞳の部分領域としてそれぞれ光軸対象に設定された2つの視差仮想瞳のいずれかから到達する被写体光束を受光する。本明細書において、単一のレンズ瞳における互いに異なる仮想瞳から到達する被写体光束を受光することによって視差画像を撮像する方式を単眼瞳分割撮像方式という。
 図4(a)で示すように、被写体である物点が焦点位置に存在する場合、いずれの視差仮想瞳を通った被写体光束であっても、対応する像点の画素を中心として急峻な光強度分布を示す。像点付近に視差Lt画素が配列されていれば、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する。また、像点付近に視差Rt画素が配列されていても、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する。すなわち、被写体光束がいずれの視差仮想瞳を通過しても、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する分布を示し、それぞれの分布は互いに一致する。
 一方、図4(b)に示すように、物点が焦点位置からずれると、物点が焦点位置に存在した場合に比べて、視差Lt画素が示す光強度分布のピークは、像点に対応する画素から一方向に離れた位置に現れ、かつその出力値は低下する。また、出力値を有する画素の幅も広がる。視差Rt画素が示す光強度分布のピークは、像点に対応する画素から、視差Lt画素における一方向とは逆向きかつ等距離に離れた位置に現れ、同様にその出力値は低下する。また、同様に出力値を有する画素の幅も広がる。すなわち、物点が焦点位置に存在した場合に比べてなだらかとなった同一の光強度分布が、互いに等距離に離間して現れる。また、図4(c)に示すように、さらに物点が焦点位置からずれると、図4(b)の状態に比べて、さらになだらかとなった同一の光強度分布が、より離間して現れる。つまり、物点が焦点位置から大きくずれる程、ぼけ量と視差量が増すと言える。
 図3で説明した光強度分布の変化と、図4で説明した光強度分布の変化をそれぞれグラフ化すると、図5のように表される。図において、横軸は画素位置を表し、中心位置が像点に対応する画素位置である。縦軸は各画素の出力値を表し、この出力値は実質的に光強度に比例するので、図においては光強度として示す。
 図5(a)は、図3で説明した光強度分布の変化を表すグラフである。分布曲線1801は、図3(a)に対応する光強度分布を表し、最も急峻な様子を示す。分布曲線1802は、図3(b)に対応する光強度分布を表し、また、分布曲線1803は、図3(c)に対応する光強度分布を表す。分布曲線1801に比較して、徐々にピーク値が下がり、広がりを持つ様子がわかる。
 図5(b)は、図4で説明した光強度分布の変化を表すグラフである。分布曲線1804と分布曲線1805は、それぞれ図4(b)の視差Lt画素の光強度分布と視差Rt画素の光強度分布を表す。図からわかるように、これらの分布は中心位置に対して線対称の形状を成す。また、これらを足し合わせた合成分布曲線1806は、図4(b)に対して同等のデフォーカス状態である図3(b)の分布曲線1802と相似形状を示す。
 分布曲線1807と分布曲線1808は、それぞれ図4(c)の視差Lt画素の光強度分布と視差Rt画素の光強度分布を表す。図からわかるように、これらの分布も中心位置に対して線対称の形状を成す。また、これらを足し合わせた合成分布曲線1809は、図4(c)に対して同等のデフォーカス状態である図3(c)の分布曲線1803と相似形状を示す。
 図6は、視差画素の種類が2つである場合における開口部104の開口形状を説明する図である。図6(a)は、視差Lt画素の開口部104lの形状と、視差Rt画素の開口部104rの形状とが、視差なし画素の開口部104nの形状を中心線322で分割したそれぞれの形状と同一である例を示している。つまり、図6(a)では、視差なし画素の開口部104nの面積は、視差Lt画素の開口部104lの面積と視差Rt画素の開口部104rの面積の和になっている。本実施形態においては、視差なし画素の開口部104nを全開口の開口部といい、開口部104lおよび開口部104rを半開口の開口部という。また、開口部が光電変換素子の中央に位置する場合に、当該開口部が基準方向に向いているという。視差Lt画素の開口部104lおよび視差Rt画素の開口部104rは、それぞれ対応する光電変換素子108の中心(画素中心)を通る仮想的な中心線322に対して、互いに反対方向に偏位している。したがって、視差Lt画素の開口部104lおよび視差Rt画素の開口部104rはそれぞれ、基準方向に対する一方向、当該一方向とは反対の他方向に視差を生じさせる。
 図6(b)は、図6(a)で示した各開口部を有する画素において、物点が焦点位置からずれた場合の光強度分布を示す。図中において、曲線Ltは図5(b)の分布曲線1804、曲線Rtは図5(b)の分布曲線1805にそれぞれ相当する。曲線Nは視差なし画素に対応しており、図5(b)の合成分布曲線1806と相似形状を示す。また、それぞれの開口部104n、開口部104l、開口部104rは、開口絞りの機能を有する。したがって、開口部104l(開口部104r)の倍の面積を持つ開口部104nを有する視差なし画素のボケ幅は、図5(b)の合成分布曲線1806で示される、Lt画素と視差Rt画素を足し合わせた曲線のボケ幅と同程度となる。
 図6(c)は、視差Lt画素の開口部104lの形状と、視差Rt画素の開口部104rの形状と、視差C画素の開口部104cの形状とが、全て同形状である例を示している。ここで、視差C画素は、偏心のない画素をいう。視差C画素は、瞳の中心部分を部分領域とする被写体光束のみを光電変換素子108へ導く点で、厳密には、視差画像を出力する視差画素である。しかしながら、ここでは、基準方向に対応する開口部を有する画素を視差なし画素と定義する。したがって、基準方向として、図6(a)の視差なし画素と同様に光電変換素子の中央に開口部を有する図6(c)の視差C画素は、視差なし画素である。また、開口部104l、開口部104r、開口部104cは、図6(a)で示した開口部104nの半分の面積である。図6(a)の場合と同様、開口部104lおよび104rのそれぞれは、光電変換素子108の中心(画素中心)を通る仮想的な中心線322と接している。
 図6(d)は、図6(c)で示した各開口部を有する画素において、物点が焦点位置からずれた場合の光強度分布を示す。図中において、曲線Ltは図5(b)の分布曲線1804、曲線Rtは図5(b)の分布曲線1805にそれぞれ相当する。また、それぞれの開口部104c、開口部104l、開口部104rは、開口絞りの機能を有する。したがって、開口部104lおよび開口部104rと同形状、同面積である開口部104cを有する視差C画素のボケ幅は、視差Lt画素および視差Rt画素のボケ幅と同程度となる。以上のように、単眼瞳分割撮像方式では、通常の2眼式立体撮像と比べて、ボケの中に視差が含まれ、合焦位置では2D撮像と同じ光学像を取得しているという特徴がある。
 特許文献1には、カラーフィルタと、左右の視差画素のみが配列された画素配列との組み合わせからなる色・視差配列が開示されている。特許文献1に示された色・視差配列に限らず、例えば、左右の視差画素の他に視差なし画素が配列された色・視差配列を用いることもできる。これら色・視差配列による撮像は、いずれも単眼瞳分割撮像方式による立体撮像と呼ぶことができる。
 立体画像の生成方法として、画像処理部205が、左視差画素のみのサンプリング点(格子点)を集めて空格子点を補間することによって左視差画像を生成し、右視差画素のみのサンプリング点を集めて空格子点を補間することによって右視差画像を生成することが考えられる。しかしながら、左右の視差画像を独立に補間処理する方法では、それぞれの視差画素のサンプリング解像限界を超えた解像が得られないという問題が必然的に存在する。
 一方で、全開口の視差なし画素を共存させた配列の場合には、一旦視差なしの2D画像を中間画像(以下、「2D中間画像」とも記す)として生成することにより、その2D中間画像は、一定の条件下で全画素サンプリングしたときの解像限界に等しいナイキスト周波数まで解像力をもつことが可能となる。すなわち、上述のように、単眼瞳分割撮像方式の固有の特性として、合焦位置の被写体像の点像分布関数は、視差なし画素も左視差画素も右視差画素も全て同じ点像分布関数となる。このため、合焦位置近辺では、2D専用センサと同じ被写体像を捉えており、その解像を最大限に導きだすことができる。
 そうして得られた2D中間画像を用いて、左右の視差画素を独立に仮補間した低解像の左視差画像と低解像の右視差画像に対して、後述する視差変調によって2D中間画像の高周波成分を重畳すると、各視差画素のサンプリング限界を超える高解像の左視差画像と高解像の右視差画像を得ることができる。
 ここで注意が必要なのは、視差変調によって得られた高解像な左視差画像と高解像な右視差画像にも、合焦位置から外れた非合焦域の被写体像になると、2D中間画像の高周波解像が反映されつつも、元の低解像の左視差画像と低解像の右視差画像に存在していた解像限界以上の高周波成分が低周波モアレとなって現れてしまうという問題である。一方、2D中間画像には、非合焦域でもそのようなモアレ成分は現れない。すなわち、2D中間画像では、安定的に高解像を実現できる。
 したがって、このような事実を踏まえれば、3D画像でエッジ強調処理を行うには、次のように結論することができる。まず、左視差画像と右視差画像に個別にエッジ強調処理をするのではなく、一旦高解像な2D中間画像を生成した上で、その2D画像に対してエッジ強調処理を行う。その後、視差変調を加えることによって、エッジ強調処理の行われた3D画像を生成する。このような画像処理手順を経ると、視差画素のサンプリング限界を超えるエイリアジング・モアレを強調することなく、高精細で自然なエッジ強調立体画像を得ることができる。
 図7は、Bayer型G視差画素配列およびこの配列の周波数空間における分解能を示す図である。図7に示す配列では、左視差画素(Lt)と右視差画素(Rt)と視差なし画素(N)が混在している。カラーフィルタ配列はBayer配列構造をとり、一方のG画素には左開口の視差画素が、もう一方のG画素には右開口の視差画素が開口マスクとして設けられている。さらに、R画素とB画素には全開口の視差なし画素が設けられている。これは、後述する実施形態1で説明する配列に対応する。また、図7では、各色成分とそれぞれの視差に対応するサンプリング解像限界を表す周波数空間図(k空間図)が併せて示されている。ただし、解像周波数f[本/mm]と波数kとの間にはk=2πfの関係がある。
 合焦位置におけるモノクロ被写体(例えば、サーキュラー・ゾーン・プレート)は、前述の2D中間画像が生成されると、一番外側のナイキスト周波数限界にまで解像され得る。他方、非合焦域では、基本的に内側の正方領域に解像周波数は制限される。
 図8は、視差画像のモアレを説明する図である。図8(a)は視差なし画像、図8(b)は左視差画像、図8(c)は右視差画像を示す。図8(b)、(c)に示す画像は、後述する実施形態1に示すエッジ強調処理の部分を除いた過程を経て生成されている。前述の合焦位置から少しだけ外れた被写体像について、2D中間画像を経て3D画像を得た場合には、図8(b)、(c)に示すように、視差画素のサンプリング限界に伴うモアレ成分が左右の視差画像に現れてしまう。したがって、左視差画像と右視差画像で個別にエッジ強調すると、偽解像のモアレ成分を強調してしまって画質を損なう。2D中間画像に対してエッジ強調を行えば、モアレ成分を強調することなく、高精細な3Dエッジ強調処理が可能となる。
 左視差画素(Lt)と右視差画素(Rt)と視差なし画素(N)が混在するような色・視差配列として、他の配列を用いることもできる。例えば、後述する実施形態2で説明する視差画素を疎な密度にした配列、後述する実施形態3で説明する視差画素を疎な密度にし、かつモノクロの配列を用いることもできる。
 以下に示す実施形態では、上述したように、まず高解像な2D中間画像を生成し、生成した2D中間画像を3D画像に重畳して2D、3D共に高解像な出力画像を得る。視差画素と視差なし画素の色情報を相互に参照して、その相関関係を利用する工夫を導入している。
 次に、ノイズ除去について説明する。ノイズ除去フィルタは、画像の解像度が高ければ高いほど、エッジ構造を保存する必要がある領域か高精度で判定できる。これにより、エッジ構造を保存すべき領域において、画像構造に関する情報が排除され難くなる。したがって、エッジ強調の場合と同様に、高解像な2D中間画像に対してノイズ除去処理を施すことが望ましい。フィルタとしては、公知のedge-preserving smoothing filterを用いることができる。
 ところで、ノイズ除去の場合は、エッジ強調の場合と違って、仮補間された低解像の左視差画像と右視差画像にも同様にノイズのゆらぎ成分が現れる。視差変調の段階でノイズが伝播しないように、視差変調を行う前の低解像の左視差画像と右視差画像の段階でノイズのゆらぎ成分を取り払っておくのが望ましい。
 ところが、後述する実施形態2および実施形態3のような疎な視差画素配列の構造を考えた場合には、視差なし画素の数が最も多く、疎な視差画素は飛び飛びの位置にしか存在しない。このため、それらの間の点を平均補間によって算出された補間値には、元々高周波のノイズ成分は含まれ得ないという特質を持つ。したがって、疎な視差画素配列の場合には、ISO800~ISO6400程度の常用高感度領域程度であれば、中間2D画像のみに対してノイズ除去処理をするだけでよい。詳しくは後述する実施形態4で説明する。超高感度のISO12800~ISO409600の領域では、たとえ疎な視差画素であってもそのゆらぎ成分は目立つ。したがって、ゆらぎ成分を取り除く必要がある。
 しかしながら、実解像度の全ての画素に対し、ゆらぎ成分を取り除く処理を行わなくてもよい。撮像素子でサンプリングされた左視差画素、あるいは右視差画素が一画素に一つだけ含まれる程度にまでダウンサンプリングした縮小画像でノイズ成分を抽出しておいて、それを変倍拡大処理して実解像度に戻し、減算処理するだけでよい。例えば、本出願人と同一発明者の特開2006‐309749号公報に示される多重解像度ノイズ除去技術を用いることができる。具体的には、高解像度から低解像度に多重解像度変換で順次縮小し、それらの各解像度でノイズ成分を抽出し、それらを逐次統合して実解像度のノイズ成分に戻す処理を、高解像度側の数段分を省いて行えばよい。したがって、仮補間された視差画像に対しては、ノイズ除去処理の最も演算規模の大きい高解像度側の処理を全て省くことができる。よって、極めて簡便に、すなわち、ソフトウェアの場合は高速に、ハードウェアの場合は回路規模が少なく演算することができる。
<実施形態1>
 ‐‐‐Bayer型G視差画素配列、エッジ強調‐‐‐
 画像処理の手順は、およそ以下の通りである。
 1)色・視差多重化モザイク画像データ入力
 2)色・視差モザイク画像のグローバル・ゲインバランス補正
 3)仮の視差画像の生成
 4)左右の局所照度分布補正による視差なし色モザイク画像の生成
 (ローカル・ゲインバランス補正)
 5)視差なし基準画像の生成
 6)視差なし基準画像に対するエッジ強調処理
 7)実際の視差画像の生成
 8)出力色空間への変換
 以下、順に説明する。
 1)色・視差多重化モザイク画像データ入力
 図7の色と視差の多重化された単板式モザイク画像:M(x,y)
 階調はA/D変換によって出力された線形階調であるものとする。すなわち、光量に比例した画素値を持つ。これをRAWデータと呼ぶこともある。
Figure JPOXMLDOC01-appb-I000001
Figure JPOXMLDOC01-appb-I000002
Figure JPOXMLDOC01-appb-I000003
 本実施形態では、相加平均を採用する。こうして左視差画素が1つのゲイン係数で、右視差画素が1つのゲイン係数で補正されたモザイク画像をM'(x,y)として出力する。なお、本ステップはステップ4のローカル・ゲイン補正を行うだけでも同時に実現できるので、場合によっては省いてもよい。
 3)仮の視差画像の生成
 空間周波数解像度の低い分解能の左視差画像と右視差画像を生成する。
 左視差画素ばかりを集めたG色面内の単純平均補間を行う。隣接に存在する画素値を用いて、距離の比に応じて線形補間を行う。同様に、右視差画素ばかりを集めたG色面内の単純平均補間を行う。すなわち、Ltmosaic(x,y)からLt(x,y)を、Rtmosaic(x,y)からRt(x,y)を生成する。
 仮の左視差画像:Lt(x,y)
 仮の右視差画像:Rt(x,y)
 なお、仮の左視差画像Lt(x,y)と仮の右視差画像Rt(x,y)を作るときは、信号面内での方向判定を導入して高精細に行ってもよい。
 4)左右の照度分布補正による視差なし色モザイク画像の生成
 (ローカル・ゲインバランス補正)
 次にステップ1で行ったグローバル・ゲイン補正と同様の考え方で、画素単位のローカル・ゲイン補正を行うことによって、画面内の左視差画素と画面内の右視差画素の照度を合わせる。そうして、ゲイン整合のとれた新しいBayer面を作成する。これは平均値と置き換えることと等価であり、視差の消滅したBayer面が出来上がる。これをMN(x,y)と書くことにする。
 この場合も、各画素の基準点として揃える目標値の設定方法に、相加平均を選ぶ方法と相乗平均を選ぶ方法の2種類が存在する。
Figure JPOXMLDOC01-appb-I000004
Figure JPOXMLDOC01-appb-I000005
 各画素にローカル・ゲイン補正を掛けている処理は、実際には最初に求めた各画素の平均値を代入するだけでよい。この意味で、ローカル・ゲイン補正は視差消滅させるための変調処理であるということができる。本実施形態では、相加平均を採用する。このように左視点の画像と右視点の画像の平均値を新たなG画素位置の視差なし画素値として、Bayer面のデータを書き換え、視差なしBayer面の画像MN(x,y)を出力する。
 5)視差なし基準画像の生成
 こうしてG成分の照度バランスが揃い、視差の消滅したBayer面MN(x,y)から、従来の色補間の技術を用いてセンサが持つ画素数相当のナイキスト周波数にまで分解能をもつ視差なしのカラー画像を中間画像として生成することができる。例えば、公知のBayer補間技術の最も優れた例として、本出願人と同一発明者のUS公開2010/021853に示される補間アルゴリズムがある。この技術には、本出願人と同一発明者の方向判定の分解能を上げて縦横のナイキスト周波数を解像する技術USP6,836,572、補間値算出時の斜め方向の分解能を上げる技術USP7,236,628、色判定法による適応的偽色対策技術と方向判定の分解能を上げる技術USP7,565,007、色勾配判定法による適応的偽色対策技術USP7,391,903と方向判定の分解能を上げる技術への適用が総合的に用いられた最良の高性能デモザイク技術が導入されている。
 以下ではそれらの全てを示さずに、輝度を担うG成分の縦横ナイキスト解像と斜め解像を上げていく部分とR,B成分の分解能を上げる目的で色差補間を用いる部分だけを取り出して記述する。
 5‐1)階調変換によるガンマ空間への移行
 上述の高解像なBayer補間を行うことを目的として、更に均等ノイズ空間を実現する階調変換を行って、補間用のガンマ空間(画像処理空間)で、補間値の予測を行う。これは本出願人と同一発明者のUSP7,957,588によって導入された方法である。
 入力信号をx、出力信号をyとし、入力信号の階調と出力信号の階調が共に、[0,1]の範囲で定義されるものとする。入出力特性は(x,y)=(0,0)と(1,1)を通るように階調曲線(ガンマ曲線)を定義する。実際の入力階調Xの最大値をXmax、出力階調Yの最大値をYmaxとすると、x=X/Xmax、y=Y/Ymaxであり、階調変換は、
Figure JPOXMLDOC01-appb-I000006
 によって行われる。
 ここに、y=f(x)の階調特性は、
Figure JPOXMLDOC01-appb-I000007
 である。正のオフセット値εは、暗電流ノイズ成分が増える高感度の撮影条件になるほど大きな値を設定する。
 5‐2)色補間処理
 色補間処理の部分については、本出願人と同一発明者のUSP7,957,588(WO2006/006373)に示された簡易な処理だけをもう一度、書き写す。ただし、(x,y)は[i,j]の記号を用いて説明する。また、階調変換後のMN面上のG成分はG、R,B成分はZの記号を用いて参照する。
 ステップS4において、CPUは以下のように補間処理を行う。ここで、R成分の色情報を有する画素をR画素、B成分の色情報を有する画素をB画素、G成分の色情報を有する画素をG画素と呼び、補間処理用の空間における画素位置[i,j]で示される画素に対応するR成分の信号値をR[i,j]、G成分の信号値をG[i,j]、B成分の信号値をB[i,j]で表すことにする。
(方向判定)
 CPUは、画素位置[i,j]で示されるG画素でない画素(R画素もしくはB画素)に関して、縦方向の類似度CvN[i,j]、および横方向の類似度ChN[i,j]をそれぞれ次式(3)、(4)により算出する。
Figure JPOXMLDOC01-appb-M000001
 ただし、Z[i,j]は画素位置[i,j]で示されるR成分またはB成分の信号値である。第一項は、2画素間隔の同色間の類似度を表す同色間類似度を、第二項は、隣接画素間隔の異色間の類似度を表す異色間類似度である。異色間類似度は、縦横のナイキスト周波数を解像する能力がある。
 上式(3)、(4)における第1項の絶対値は、G色成分同士で比較して大まかな方向性を検出する。上式(3)、(4)の第2項および第3項の絶対値は、第1項では検出できない細かな類似性を検出する。CPUは、上式(3)、(4)により得られた縦方向の類似度および横方向の類似度を各座標ごとに算出し、対象とする座標[i,j]における縦横の類似度に基づいて次式(5)により類似性の方向を判定する。
Figure JPOXMLDOC01-appb-M000002
 ただし、Thは信号値に含まれるノイズによる誤判定を避ける目的で用いられる判定閾値であり、上記ISO感度に応じて変化させる。HV[i,j]は画素位置[i,j]に関する類似性の方向を示し、HV[i,j]=0の場合は縦横両方向類似、HV[i,j]=1の場合は縦方向類似、HV[i,j]=-1の場合は横方向類似である。 
(G補間)
 CPUは、判定した類似方向に基づき、R成分もしくはB成分の凸凹情報を利用してG成分の補間を行う。すなわち、周辺のG成分の内分点補間だけでは予測できない外分点に補間すべきか否かの情報を補間対象位置に存在する他の色成分の情報と近傍に位置するそれと同じ色成分の情報を見て、画像構造が上に凸なのか下に凸なのかを判断することによって得ることができる。すなわち、他の色成分のサンプリングによって得られた高周波成分の情報を補間対象色成分に重畳する。G色補完は、WO2006/006373のたとえば図4で示される中央のR画素の位置[i,j]に対して、縦方向類似の場合は次式(6)および(9)により算出し、横方向類似の場合は次式(7)および(10)により算出する。B画素の位置に対してG色補間を行う場合の画素位置は、WO2006/006373の図5によって示される。
Figure JPOXMLDOC01-appb-M000003
 ただし、Z[i,j]は画素位置[i,j]で示されるR成分またはB成分の信号値である。第一項の補間対象の色成分の平均値に対して、第二項の他の色成分による二次微分の補正項を加えることによって、斜め方向の空間分解能を上げる作用をする。
 上式(9)における第1項は、画素位置[i,j]に対して縦に並ぶG成分の信号値G[i,j-1]およびG[i,j+1]から算出される平均値を表す。上式(9)における第2項は、縦に並ぶR成分の信号値R[i,j]、R[i,j-2]およびR[i,j+2]から算出される変化量を表す。G成分の信号値の平均値にR成分の信号値の変化量を加えることにより、G成分の補間値G[i,j]が得られる。このような補間をG成分の内分点以外も予測可能なことから、便宜的に外挿補間と呼ぶことにする。
 上式(10)は、上述した縦方向の外挿補間の場合と同様に、画素位置[i,j]に対して横に並ぶ画素の信号値を用いて横方向に外挿補間を行う。CPUは、類似の方向が縦横両方向と分類されている場合は、上式(9)および(10)によりG色補間値をそれぞれ算出し、算出された2つのG色補間値の平均をとってG色補間値とする。
(R補間)
 R色補間は、WO2006/006373のたとえば図6で示されるR画素の位置[i,j]以外の画素位置[i+1,j]、[i,j+1]、[i+1,j+1]に対して、それぞれ次式(11)~(13)により算出される。このとき、上述したG補間により得られた全ての画素位置に対応するG成分信号値(WO2006/006373の図7)の凸凹情報が利用される。
Figure JPOXMLDOC01-appb-M000004
 上式(11)~(13)における第1項は、R成分補間の対象とする座標に隣接するR成分信号値から算出される平均値を表し、上式(11)~(13)における第2項は、R成分補間の対象とする座標およびこの座標に隣接するG成分信号値から算出される変化量を表す。すなわち、G補間で行われた外挿補間と同様に、R成分信号値の平均値にG成分の信号値の変化量を加えてR成分の補間値を得る。これは、R位置で色差Cr=R-Gを生成し、この色差面内で平均補間する方式と等価である。
(B補間)
 B成分補間についてもR成分と同様に補間処理を行う。WO2006/006373のたとえば図8で示されるB画素の位置[i,j]以外の画素位置[i+1,j]、[i,j+1]、[i+1,j+1]に対して、それぞれ次式(14)~(16)により算出される。このとき、上述したG補間により得られた全ての画素位置に対応するG成分信号値(WO2006/006373の図9)の凸凹情報が利用される。
Figure JPOXMLDOC01-appb-M000005
 上式(14)~(16)によれば、B成分信号値の平均値にG成分の信号値の変化量を加えてB成分の補間値を得る。これは、B位置で色差Cb=B-Gを生成し、この色差面内で平均補間する方式と等価である。R成分およびB成分は、G成分に比べてサンプル周波数が低いので、色差R-G、色差B-Gを利用してG成分信号値が有する高周波数成分を反映させる。よって、このようなクロマ成分に対する補間を便宜的に色差補間と呼ぶことにする。
 6)視差なし基準画像に対するエッジ強調処理
 6‐1)色空間変換処理
 ステップ5のBayer補間で得られた視差なしのRGBカラー画像をRN Γ(x,y)、GN Γ(x,y)、BN Γ(x,y)によって表す。これらは補間ガンマ空間の階調で表されたRGBデータである。これらのRGBデータを輝度と色差で表される表色系のYCbCr空間へ変換する。
 Y(x,y)=0.2990RN Γ(x,y)+0.5870GN Γ(x,y)+0.1140BN Γ(x,y)
 Cb(x,y)=-0.1684RN Γ(x,y)-0.3316GN Γ(x,y)+0.5000BN Γ(x,y)
 Cr(x,y)=0.5000RN Γ(x,y)-0.4187GN Γ(x,y)-0.0813BN Γ(x,y)
 6‐2)エッジ強調処理
 輝度Y面に対して、エッジ強調処理を行う。
 Y'(x,y)=Y(x,y)+k*△Y(x,y)
 ここに、△は2次微分を表すラプラシアンフィルタを表す。定数kは、エッジ強調の度合いを調整するパラメータである。ラプラシアンフィルタとして、例えば、以下のようなフィルタ係数が考えられるが、これに限らない。
Figure JPOXMLDOC01-appb-I000008
 6‐3)逆色空間変換処理
 エッジ強調された輝度成分Y'(x,y)とそのままの色差成分Cb(x,y)、Cr(x,y)を用いて、YCbCr空間からRGB空間に戻す。ステップ6‐1)の逆行列を掛けるだけでよい。JPEGで採用されている定義と同じであるので、ここでは説明を省略する。
 6‐4)逆階調変換による元の線形階調空間への移行
 Bayer補間とエッジ強調処理されたRGB各色面に対して、ステップ5‐1の逆階調変換を施し、線形階調のRGBデータに戻す。
Figure JPOXMLDOC01-appb-I000009
 こうして、得られた視差なしのRGBカラー画像をRN(x,y)、GN(x,y)、BN(x,y)によって表す。これらは線形階調で表されたRGBデータである。
 7)実際の視差画像の生成
 ステップ3で生成した解像力の低い仮の左視差画像Lt(x,y)とステップ5で中間処理として生成した解像力の高い視差なしのカラー画像RN(x,y)、GN(x,y)、BN(x,y)を用いて、実際に出力する解像力の高い左視差のカラー画像RLt(x,y)、GLt(x,y)、BLt(x,y)を生成する。同様に、ステップ3で生成した解像力の低い仮の右視差画像Rt(x,y)とステップ5で中間処理として生成した解像力の高い視差なしのカラー画像RN(x,y)、GN(x,y)、BN(x,y)を用いて、実際に出力する解像力の高い右視差のカラー画像RRt(x,y)、GRt(x,y)、BRt(x,y)を生成する。これは、仮の視差画像が持つ視差成分を重畳することによって変位処理を実現するため、視差変調と呼ぶことができる。
 視差変調の方式として、相加平均を基準点にとる方法と相乗平均を基準点にとる方法の2通りが考えられる。どちらも視差変調効果を得ることができるが、撮像素子の視差なし画素の開口マスクが全開口のとき相加平均を基準点とした方式を採用し、視差なし画素の開口マスクが視差あり画素と同じ半開口のとき相乗平均を基準点とした方式を採用するのがよい。したがって、本実施形態では相加平均を基準点とする方式を用いる。
Figure JPOXMLDOC01-appb-I000010
Figure JPOXMLDOC01-appb-I000011
 このように、ステップ7で定義した視差変調演算式と、ステップ4で定義した左右間の照度ムラ補正のための視差消滅演算式(ローカル・ゲインバランス補正)とがちょうど逆比の関係にある項を掛けて変調を加えていることがわかる。したがって、ステップ7では視差が加わる方向に働き、ステップ4では視差が消滅する方向に働く。
 8)出力色空間への変換
 こうして得られた高解像な視差なしの中間カラー画像RN(x,y)、GN(x,y)、BN(x,y)と高解像の左視差のカラー画像RLt(x,y)、GLt(x,y)、BLt(x,y)、高解像の右視差のカラー画像RRt(x,y)、GRt(x,y)、BRt(x,y)のそれぞれをセンサの分光特性のカメラRGBから標準的なsRGB色空間へ色マトリックス変換とガンマ変換を行って出力色空間の画像として出力する。以上により、エッジ強調がなされた高精細な2D画像および3D画像が生成される。
<実施形態1の追加説明>
 図11は、視差画素の種類が2つである場合の繰り返しパターン110の一例を示す図である。デジタルカメラ10の座標系は、X軸、Y軸、Z軸で定義したが、撮像素子100においては、左端かつ上端の画素を基準に右方向にx軸を、下方向にy軸を定義する。図の例においては、ベイヤー配列と同じ4画素を繰り返しパターン110とする。この繰り返しパターン110は、撮像素子100の有効画素領域を上下左右に周期的に配列されている。すなわち、撮像素子100は、図の太線で示す繰り返しパターン110を基本格子とする。R画素とB画素は視差なし画素であり、Gb画素を視差L画素に、Gr画素を視差R画素に割り当てる。この場合、同一の繰り返しパターン110に含まれる視差Lt画素と視差Rt画素が、被写体が合焦位置に存在するときに、同じ微小領域から放射される光束を受光するように開口部104が定められる。また、この例では、図6(a)で説明したように、視差なし画素が全開口の開口部であり、視差Lt画素および視差Rt画素が半開口の開口部であるとする。なお、画素ピッチをaとする。
 図の例においては、視感度の高い緑画素であるGb画素およびGr画素を視差画素として用いるので、コントラストの高い視差画像を得ることが期待できる。また、同じ緑色画素であるGb画素およびGr画素を視差画素として用いるので、これら2つの出力から視差のない出力に変換演算がし易く、視差なし画素であるR画素およびB画素の出力と共に、高画質の2D画像データを生成できる。
 図7(下段)は、図11に示す繰り返しパターン110が採用された撮像素子で撮像された画像の空間周波数に関する分解能を示す図である。図7(下段)では、空間周波数に関する分解能は、k=2πfで表される波数kのk空間(k-space)で記述されている。ただし、fは周波数を示す。周波数解像域は、逆格子空間の単位胞(ウィグナー・ザイツ・セル)を表す第一ブリルアンゾーンによって記述される。
 上述のように画素ピッチをaとすると、カラーフィルタおよび開口マスクが配置されていなければ、撮像された画像は、点線で囲われたナイキスト周波数k=[-π/a,+π/a]、k=[-π/a,+π/a]の範囲の解像力を持つ。つまり、点線で囲われた範囲が、画像が持つ限界解像周波数となる。ただし、本実施の形態においては、カラーフィルタと開口マスクが、1つのセンサ面に重ね合わせて配置されている。1つのセンサ面で捉えられる情報は一定であるので、機能を分けることによってそれぞれの情報量が減ることになる。例えば、開口マスクによって視差画素が形成されることにより、相対的に視差なし画素数は減少するので、視差なし画素により得られる情報量は減ることになる。カラーフィルタについても同様であり、R,G,Bの3つに分けた分だけ、個々の情報量は減ることになる。
 したがって、特定の開口マスクにおける特定色の画像に着目すると、当該画像の限界解像周波数は、本来有するナイキスト周波数に達しない。具体的には、図示するように、例えば左側視点のG成分の画像GLtは、k軸、k軸の両方向に対して、本来有するナイキスト周波数の半分の領域である、k=[-π/(2a),+π/(2a)]、k=[-π/(2a),+π/(2a)]の範囲の解像力しか持たない。右側視点のG成分の画像GRt、視差がない中間視点のR成分の画像R、視差がない中間視点のB成分の画像Bについても同様である。
 したがって、このままでは、左側視点のRGBのカラー画像と右側視点のRGBのカラー画像を生成したとしても、これらの画像の解像力は、k=[-π/(2a),+π/(2a)]、k=[-π/(2a),+π/(2a)]の範囲である。つまり、これらの画像は、本来有するナイキスト周波数k=[-π/a,+π/a]、k=[-π/a,+π/a]の範囲の解像力を持たない。
 本実施の形態においては、画像処理部205が、機能を分けることによって減少した情報量を補うべく、解像度を上げるための処理を行う。具体的には、視差画素であるGLt画素およびGRt画素を、仮想的な視差なし画素Gで置き換えることで、視差なし画素のみからなるベイヤー配列を生成する。そうすると、既存のベイヤー補間の技術を利用して、視差がない中間画像として、本来のナイキスト周波数k=[-π/a,+π/a]、k=[-π/a,+π/a]の範囲の解像力を持つカラー画像を生成することができる。さらにその後、周波数空間において小さな解像力しか持たない左側視点の画像と視差がない中間画像を重畳することによって、最終的には、本来のナイキスト周波数の範囲の解像力を持つ左側視点のカラー画像を生成することができる。右側視点のカラー画像についても同様のことが言える。
 なお、図11に示した画素配列における各画素は、開口部104に着目した場合の視差画素と視差なし画素、およびカラーフィルタ102に着目した場合のR画素、G画素、B画素が、さまざまに組み合わされて特徴付けられる。したがって、撮像素子100の出力をその画素配列に一致させてそのまま羅列しても、特定の像を表す画像データにはならない。すなわち、撮像素子100の画素出力を、同一に特徴付けられた画素グループごとに分離して寄せ集めてはじめて、その特徴に即した一つの像を表す画像データが形成される。例えば、視差画素の出力をその開口部の種類ごとに寄せ集めると、互いに視差を有する複数の視差画像データが得られる。このように、同一に特徴付けられた画素グループごとに分離して寄せ集められたそれぞれの画像データを、プレーンデータと呼ぶ。
 画像処理部205の補間処理部231は、撮像素子100の画素配列順にその出力値が羅列されたRAW元画像データであるモザイク画像データMmosaic(x,y)を受け取る。ここで、各画素においてR、G、Bの少なくとも一つの情報が欠けている画像をモザイク画像といい、モザイク画像を形成するデータをモザイク画像データという。ただし、各画素においてR、G、Bの少なくとも一つの情報が欠けていたとしても、そもそも画像として扱わない場合、例えば画像データが単色の画素の画素値によって構成させる場合には、モザイク画像として扱わない。なお、各出力値は、撮像素子100の各光電変換素子が受光する受光量に比例した線形階調の値である。
 本実施の形態においては、画像処理部205の補間処理部231が、この段階で左右間の全体的な明るさの整合をとるためのゲイン補正を行う。左視差画素に入射する光の照度と右視差画素に入射する光の照度には、開口絞りを絞るほど、左右間の相対的な分布だけではなく、画像全体の平均信号レベルとしても大きな差が生じるためである。本実施形態において、左右間の全体的な明るさの整合をとるためのゲイン補正を、グローバル・ゲイン補正という。
 図12は、ゲイン値の算出を説明するための図である。便宜的に、モザイク画像データMmosaic(x,y)の内、G成分の左視差画素のモザイク画像データをLtmosaic(x,y)、G成分の右視差画素のモザイク画像データをRtmosaic(x,y)と表し、図12においても、左右の視差画素のみを抽出して図示している。ただし、図においては、図11の例に則して画素の種類が理解されるように記載するが、実際には各画素に対応した出力値が並ぶ。
 図13は、ゲイン補正を説明するための図である。画像処理部205の補間処理部231は、左右の視差画素に対するゲイン値を算出すると、図示するように、Ltmosaic(x,y)およびRtmosaic(x,y)の各画素に対して、算出したゲイン値を用いてゲイン補正を行う。具体的には、以下の(数1)により左視差画素に対するゲイン補正を、(数2)により右視差画素に対するゲイン補正を行う。なお、便宜的に、モザイク画像データM' mosaic(x,y)の内、G成分の左視差画素のモザイク画像データをLt'mosaic(x,y)、G成分の右視差画素のモザイク画像データをRt'mosaic(x,y)と表す。
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
 これにより、画像処理部205の補間処理部231は、図示するように、Mmosaic(x,y)内の左視差画素および右視差画素がそれぞれ1つのゲイン係数で補正されたモザイク画像データM'mosaic(x,y)を生成することができる。次に、画像処理部205の補間処理部231は、仮の視差画像として、空間周波数解像度の低い左視差画像と右視差画像を生成する。
 図14は、仮の視差画像の生成を説明するための図である。画像処理部205の補間処理部231は、まず、モザイク画像データM'mosaic(x,y)を複数のプレーンデータに分離する。この時点における各プレーンデータは、RAW元画像データにおいて出力値が存在する画素位置にのみ出力値が存在する。そこで、画像処理部205の補間処理部231は、各プレーンデータを基に補間処理を行い、空格子が埋められたプレーンデータを生成する。
 図14において、上図の左側は、モザイク画像データM'mosaic(x,y)から左視差画素のみを抽出したプレーンデータであるLt'mosaic(x,y)を示す図、右側は、右視差画素のみを抽出したプレーンデータであるRt'mosaic(x,y)を示す図である。各図においては、図11の例に則して画素の種類が理解されるように記載するが、実際には各画素に対応した出力値が並ぶ。
 空間周波数解像度の低い左視差画像データであるLt'(x,y)を生成するにあたり、画像処理部205の補間処理部231は、空格子となった画素値を、周辺の左視差画素の画素値を用いて補間処理により算出する。例えば、空格子PL1の画素値は、斜め方向に隣接する4つの左視差画素の画素値を平均化演算して算出される。画像処理部205の補間処理部231は、全ての空格子に対して、周辺の左視差画素の画素値を平均化演算し補間処理を行うことによって、図14の下左図に示すように、空格子が埋められたプレーンデータであるLt'(x,y)を生成する。なお、画像処理部205の補間処理部231は、補間処理により算出された画素値を用いて、さらに補間処理を行ってもよいし、RAW元画像データの段階で存在する出力値のみを用いて補間処理を行ってもよい。
 同様に、空間周波数解像度の低い右視差画像データであるRt'(x,y)を生成するにあたり、画像処理部205の補間処理部231は、空格子となった画素値を、周辺の右視差画素の画素値を用いて補間処理により算出する。例えば、空格子PR1の画素値は、斜め方向に隣接する4つの右視差画素の画素値を平均化演算して算出される。画像処理部205の補間処理部231は、全ての空格子に対して、周辺の右視差画素の画素値を平均化演算し補間処理を行うことによって、図14の下右図に示すように、空格子が埋められたプレーンデータであるRt'(x,y)を生成する。
 次に、画像処理部205の基準画像データ生成部232は、Lt'(x,y)の各画素に対して、それぞれ算出されたゲイン値を用いてゲイン補正を行い、同様に、Rt'(x,y)の各画素に対して、それぞれ算出されたゲイン値を用いてゲイン補正を行う。これにより、同一の画素位置における左視差画素と右視差画素の照度を合わせる。本実施形態において、このように、画素単位に算出されたゲイン値を用いたゲイン補正を、上述のグローバル・ゲイン補正に対し、ローカル・ゲイン補正という。
 図15は、ゲイン値の算出を説明するための図である。図示するように、画像処理部205の基準画像データ生成部232は、Lt'(x,y)およびRt'(x,y)から、画素毎の平均値を算出する。ローカル・ゲイン補正を行うにあたり、ここでも、平均値の算出方法として相加平均と相乗平均の2通りが考えられる。ここでは、視差が消滅したG成分の視差なし画素における被写体像のボケ幅を、視差なし画素の被写体像のボケ幅に一致させるべく、相加平均を採用する。この場合、具体的には、画像処理部205の基準画像データ生成部232は、以下の(数3)により平均値を算出する。
Figure JPOXMLDOC01-appb-M000008
 図16は、ローカル・ゲイン補正を説明するための図である。上述のように、各画素に対してローカル・ゲイン補正を行う処理によって平均値が得られる。したがって、画像処理部205の基準画像データ生成部232は、図示するように、繰り返しパターン110の左右の視差画素の画素値をそれぞれ、(数3)で算出したm(x、y)、m(xm+1、yn+1)に置き換えるだけで、ローカル・ゲイン補正を行うことができる。この意味で、ローカル・ゲイン補正は、視差を消滅させるための変調処理であると言える。これにより、視差Gb画素および視差Gr画素の画素値が視差なしG画素の画素値に置き換えられたベイヤー配列を得ることができる。
 画像処理部205の基準画像データ生成部232は、全ての左右の視差画素の画素値を(数3)で算出した対応する平均値に置き換えることによって、M(x、y)を生成する。なお、ローカル・ゲイン補正は、Lt'(x,y)およびRt'(x,y)の全ての画素ではなく、ベイヤー配列における左視差画素および右視差画素の位置に対応する画素について行ってもよい。
 次に、画像処理部205の基準画像データ生成部232は、既存の色補間の技術を用いて、M(x、y)から、各画素がナイキスト周波数までの分解能を持つ視差なしのカラー画像データを、中間画像データとして生成する。
 図17は、G成分の補間を説明する図である。G色補間は、図17左図で示される中央のR画素の位置[i,j]に対して、図中の画素を参照して算出する。B画素の位置に対してG色補間を行う場合の画素位置は、図17右図によって示される。
 本実施形態においては、画像処理部205のフィルタ処理部233は、中間画像データに対してエッジ強調処理を施す。画像処理部205の視差画像データ生成部234は、Lt'(x、y)、Rt'(x、y)、R(x、y)、G(x、y)、B(x、y)の5つのプレーンデータを用いて、左側視点のカラー画像データおよび右側視点のカラー画像データを生成する。具体的には、画像処理部205の視差画像データ生成部234は、仮の視差画像が持つ視差成分を視差なし画像に重畳することによって、左右のカラー画像データを生成する。この生成処理を視差変調処理という。
 左側視点のカラー画像データは、左側視点に対応する赤色プレーンデータであるRLt(x、y)、緑色プレーンデータであるGLt(x、y)、および青色プレーンデータであるBLt(x、y)の3つのカラー視差プレーンデータによって構成される。同様に、右側視点のカラー画像データは、右側視点に対応する赤色プレーンデータであるRRt(x、y)、緑色プレーンデータであるGRt(x、y)、および青色プレーンデータであるBRt(x、y)の3つのカラー視差プレーンデータによって構成される。
 図18は、カラー視差プレーンデータの生成処理を説明する図である。特に、カラー視差プレーンのうち赤色視差プレーンである、RLt(x、y)とRRt(x、y)の生成処理について示す。
 以上のように、本実施形態のデジタルカメラ10によれば、高解像な視差なしの2D中間画像に対してエッジ強調することにより、立体画像において、モアレ成分(エイリアジング)が強調されることなく、視差画像の高周波成分を実際に解像した高周波解像のままの状態でエッジ強調できる。さらに、高解像な視差なしの2D中間画像に対しノイズ除去することにより、edge‐preserving性能の高いノイズ除去結果が得られる。視差画素のサンプリング密度に伴うモアレの影響を抑制できるので、複数の視差画像間に、同一被写体像の不一致といった不整合が顕著に現れるといった不具合を回避できる。
<実施形態2>
 ‐‐‐Bayer型RGB疎な視差画素配列、エッジ強調‐‐‐
 図9の上段の配列図を基本格子として、周期的に配置された撮像素子を用いた例を示す。その逆格子空間の周波数解像領域も各色と各視差の組み合わせについて示す。この配列は、単眼瞳分割方式のボケた被写体領域にしか視差を生じないという性質を捉えて、視差画素の密度を疎な配置にし、残りの画素を視差なし画素にできるだけ割り当てた構造をした撮像素子である。視差なし画素も視差あり画素もBayer配列を基本構造としており、左視差画素にも右視差画素にもR:G:B=1:2:1のカラーフィルタを配置した構造をしている。すなわち、実施形態1よりも更に原信号で捉える視差なしの中間画像の解像力を重視し、その高周波成分を視差変調によって、左視差画素と右視差画素に重畳することによって高解像な立体画像を得ようとする。したがって、非合焦域においても高解像な2D画像と3D画像を得る能力をもつ色・視差配列である。
 画像処理の手順は、実施形態1と同じである。以下、順に説明する。
 1)色・視差多重化モザイク画像データ入力
 図9の色と視差の多重化された単板式モザイク画像:M(x,y)
 階調はA/D変換によって出力された線形階調であるものとする。
Figure JPOXMLDOC01-appb-I000012
 便宜的にモザイク画像M(x,y)の内、
 R成分の視差なし画素の信号面をRN_mosaic(x,y)、
 R成分の左視差画素の信号面をRLt_mosaic(x,y)、
 R成分の右視差画素の信号面をRRt_mosaic(x,y)、
 G成分の左視差画素の信号面をGN_mosaic(x,y)、
 G成分の視差なし画素の信号面をGLt_mosaic(x,y)、
 G成分の右視差画素の信号面をGRt_mosaic(x,y)、
 B成分の視差なし画素の信号面をBN_mosaic(x,y)、
 B成分の左視差画素の信号面をBLt_mosaic(x,y)、
 B成分の右視差画素の信号面をBRt_mosaic(x,y)
 と表すことにする。
Figure JPOXMLDOC01-appb-I000013
Figure JPOXMLDOC01-appb-I000014
Figure JPOXMLDOC01-appb-I000015
Figure JPOXMLDOC01-appb-I000016
Figure JPOXMLDOC01-appb-I000017
Figure JPOXMLDOC01-appb-I000018
 全ての視差なし画素が全開口のマスクを持っているとき相加平均型の方式を採用する。全ての視差なし画素が半開口のマスクを持っているとき相乗平均型の方式を採用する。従って、本実施形態では相加平均型を採用する。こうして視差なし画素が1つのゲイン係数で、左視差画素が1つのゲイン係数で、右視差画素が1つのゲイン係数で補正されたモザイク画像をM'(x,y)として出力する。
 3)仮の視差画像の生成
 空間周波数解像度の低い分解能の仮の左視差画像と仮の右視差画像を生成する。左視差画素ばかりを集めたG色面内の単純平均補間を行う。近接して存在する画素値を用いて、距離の比に応じて線形補間を行う。同様に、右視差画素ばかりを集めたG色面内の単純平均補間を行う。同様に、視差なし画素ばかりを集めたG色面内の単純平均補間を行う。同様の処理をR,G,Bの各々について行う。すなわち、RLt_mosaic(x,y)からRLt(x,y)を、RRt_mosaic(x,y)からRRt(x,y)を、RN_mosaic(x,y)からRN(x,y)を、GLt_mosaic(x,y)からGLt(x,y)を、GRt_mosaic(x,y)からGRt(x,y)を、GN_mosaic(x,y)からGN(x,y)を、BLt_mosaic(x,y)からBLt(x,y)を、BRt_mosaic(x,y)からGRt(x,y)を、BN_mosaic(x,y)からGN(x,y)を生成する。
 仮のR成分の視差なし画像:RN(x,y)
 仮のG成分の視差なし画像:GN(x,y)
 仮のB成分の視差なし画像:BN(x,y)
 仮のR成分の左視差画像:RLt(x,y)
 仮のG成分の左視差画像:GLt(x,y)
 仮のB成分の左視差画像:BLt(x,y)
 仮のR成分の右視差画像:RRt(x,y)
 仮のG成分の右視差画像:GRt(x,y)
 仮のB成分の右視差画像:BRt(x,y)
 なお、仮の視差なし画像RN(x,y)、GN(x,y)、BN(x,y)を作るときは、信号面内での方向判定を導入して高精細に行ってもよい。
 4)左右の照度分布補正による視差なし色モザイク画像の生成
 (ローカル・ゲインバランス補正)
 次にステップ1で行ったグローバル・ゲイン補正と同様の考え方で、画素単位のローカル・ゲイン補正を行うことによって、まず画面内の左視差画素と画面内の右視差画素の照度を合わせる。この操作によって左右間の視差を消滅させる。その上で左右平均をとった信号面と視差なし画素の撮像信号面との間で更に照度を合わせる。そうして、全ての画素でゲイン整合のとれた新しいBayer面を作成する。これは平均値と置き換えることと等価であり、視差の消滅したBayer面が出来上がる。これをMN(x,y)と書くことにする。
 この場合も、各画素の基準点として揃える目標値の設定方法に、左右間の視差を消滅させる方法に、相加平均を選ぶ方法と相乗平均を選ぶ方法の2種類が存在する。全ての視差なし画素が全開口のマスク面積を持っているとき、左右間で視差消滅させた被写体像のボケ幅が全開口のボケ幅と一致させる目的で相加平均型を選ぶ必要がある。一方、全ての視差なし画素が半開口のマスク面積を持っているとき、左右間で視差消滅させた被写体像のボケ幅が半開口のボケ幅と一致させる目的で相乗平均型を選ぶ必要がある。
 さらに、左右間で視差消滅させた信号面と視差なし画素の撮像信号面との間で平均をとる操作は、両者が既に同じボケ幅の被写体像に揃えられているから、そのボケ幅を保存する必要がある。したがって、このときには共通に相乗平均をとらなければならない。そのときに撮像素子配列における視差なし画素と視差画素の密度比を考慮に入れた相乗平均をとる。すなわち、実施形態2で用いている視差なし画素(N)と左視差画素(Lt)と右視差画素(Rt)の比はN:L:R=14:1:1、すなわち、N:(L+R)=7:1であるので、視差なし画素には7/8乗の重みを、視差画素には1/8乗の重みを与えて、密度の高い視差なし画素を重視した配分とする。つまり、基準画像データ生成部232は、視差なし画素、左視差画素、および右視差画素の数に応じて重み付けを施す。以下にそれらの具体式を挙げる。
Figure JPOXMLDOC01-appb-I000019
Figure JPOXMLDOC01-appb-I000020
Figure JPOXMLDOC01-appb-I000021
Figure JPOXMLDOC01-appb-I000022
Figure JPOXMLDOC01-appb-I000023
Figure JPOXMLDOC01-appb-I000024
 このように左視点の画像と右視点の画像の平均値を更に視差のない基準視点の画像との平均値をとった画素値を新たな視差なし画素値として、Bayer面のデータを書き換え、視差なしBayer面の画像MN(x,y)を出力する。
 5)視差なし基準画像の生成
 実施形態1と同様である。
 6)視差なし基準画像に対するエッジ強調処理
 実施形態1と同様である。
 7)実際の視差画像の生成
 ステップ3で生成した解像力の低い仮の左視差のカラー画像RLt(x,y)、GLt(x,y)、BLt(x,y)とステップ5で中間処理として生成した解像力の高い視差なしのカラー画像RN(x,y)、GN(x,y)、BN(x,y)を用いて、実際に出力する解像力の高い左視差のカラー画像R'Lt(x,y)、G'Lt(x,y)、B'Lt(x,y)を生成する。同様に、ステップ3で生成した解像力の低い仮の右視差のカラー画像RRt(x,y)、GRt(x,y)、BRt(x,y)とステップ5で中間処理として生成した解像力の高い視差なしのカラー画像RN(x,y)、GN(x,y)、BN(x,y)を用いて、実際に出力する解像力の高い右視差のカラー画像R'Rt(x,y)、G'Rt(x,y)、B'Rt(x,y)を生成する。
 視差変調の方式として、相加平均を基準点にとる方法と相乗平均を基準点にとる方法の2通りが考えられる。どちらも視差変調効果を得ることができるが、撮像素子の視差なし画素の開口マスクが全開口のとき相加平均を基準点とした方式を採用し、視差なし画素の開口マスクが視差あり画素と同じ半開口のとき相乗平均を基準点とした方式を採用する。したがって、本実施形態では相加平均を基準点とする方式を用いる。
 視差変調を行うときも、撮像素子配列における各視差画素同士の間でのRGBの密度比を考慮に入れた相乗平均をとる。すなわち、左視差画素同士の間ではR:G:B=1:2:1であり、右視差画素同士の間でもR:G:B=1:2:1であるので、R成分による視差変調に1/4乗の重みを、G成分による視差変調に1/2乗の重みを、B成分による視差変調に1/4乗の重みを与えて、密度の高いG成分による視差変調を重視した配分をとる。
Figure JPOXMLDOC01-appb-I000025
Figure JPOXMLDOC01-appb-I000026
Figure JPOXMLDOC01-appb-I000027
 8)出力色空間への変換
 実施形態1と同様である。
<実施形態3>
 ‐‐‐モノクロ疎な視差画素配列、エッジ強調‐‐‐
 図10の上段の配列図を基本格子として、周期的に配置された撮像素子を用いた例を示す。その逆格子空間の周波数解像領域も各視差の組み合わせについて示す。この配列は、単眼瞳分割方式のボケた被写体領域にしか視差を生じないという性質を捉えて、視差画素の密度を疎な配置にし、残りの画素を視差なし画素にできるだけ割り当てた構造をしたモノクロ撮像素子である。
 画像処理の手順は、およそ以下の通りである。
 1)視差多重化モザイク画像データ入力
 2)視差モザイク画像のグローバル・ゲインバランス補正
 3)仮の視差画像の生成
 4)左右の局所照度分布補正による視差なし基準画像の生成
 (ローカル・ゲインバランス補正)
 5)視差なし基準画像の生成
 6)視差なし基準画像に対するエッジ強調処理
 7)実際の視差画像の生成
 8)出力空間への変換
Figure JPOXMLDOC01-appb-I000028
Figure JPOXMLDOC01-appb-I000029
Figure JPOXMLDOC01-appb-I000030
Figure JPOXMLDOC01-appb-I000031
 全ての視差なし画素が全開口のマスクを持っているとき相加平均型の方式を採用する。全ての視差なし画素が半開口のマスクを持っているとき相乗平均型の方式を採用する。従って、本実施形態では相加平均型を採用する。こうして視差なし画素が1つのゲイン係数で、左視差画素が1つのゲイン係数で、右視差画素が1つのゲイン係数で補正されたモザイク画像をM'(x,y)として出力する。
 3)仮の視差画像の生成
 空間周波数解像度の低い分解能の仮の左視差画像と仮の右視差画像を生成する。左視差画素ばかりを集めた信号面内の単純平均補間を行う。近接して存在する画素値を用いて、距離の比に応じて線形補間を行う。同様に、右視差画素ばかりを集めた信号面内の単純平均補間を行う。同様に、視差なし画素ばかりを集めた信号面内の単純平均補間を行う。すなわち、Ltmosaic(x,y)からLt(x,y)を、Rtmosaic(x,y)からRt(x,y)を、Nmosaic(x,y)から N(x,y)を生成する。
 仮の視差なし画像:N(x,y)
 仮の左視差画像:Lt(x,y)
 仮の右視差画像:Rt(x,y)
 なお、仮の視差なし画像N(x,y)を作るときは、信号面内での方向判定を導入して高精細に行ってもよい。
 4)左右の照度分布補正による視差なし基準画像の生成
 (ローカル・ゲインバランス補正)
 次にステップ1で行ったグローバル・ゲイン補正と同様の考え方で、画素単位のローカル・ゲイン補正を行うことによって、まず画面内の左視差画素と画面内の右視差画素の照度を合わせる。この操作によって左右間の視差を消滅させる。その上で左右平均をとった信号面と視差なし画素の撮像信号面との間で更に照度を合わせる。そうして、全ての画素でゲイン整合のとれた新しい視差なしの基準画像面を作成する。これは平均値と置き換えることと等価であり、視差の消滅した中間画像面が出来上がる。これをN(x,y)と書くことにする。
 このときも撮像素子配列における視差なし画素と視差画素の密度比を考慮に入れた相乗平均をとる。すなわち、実施形態3で用いている視差なし画素(N)と左視差画素(Lt)と右視差画素(Rt)の比はN:L:R=14:1:1、すなわち、N:(L+R)=7:1であるので、視差画素には7/8乗の重みを、視差なし画素には1/8乗の重みを与えて、密度の高い視差なし画素を重視した配分とする。
Figure JPOXMLDOC01-appb-I000032
Figure JPOXMLDOC01-appb-I000033
 このように左視点の画像と右視点の画像の平均値を更に視差のない基準視点の画像との平均値をとった画素値を新たな視差なし画素値として、モノクロ面のデータを書き換え、視差なしモノクロ面の画像N(x,y)を出力する。
 5)視差なし基準画像の生成
 実施形態1と同様である。
 6)視差なし基準画像に対するエッジ強調処理
 実施形態1のステップ6‐2)の記号Yを記号Nに置き換えた演算を行うだけでよい。すなわち、
 N'(x,y)=N(x,y)+k*△N(x,y)
 なお、以下では記号N'のことを記号Nに置き換えて表記する。
 7)実際の視差画像の生成
 ステップ3で生成した解像力の低い仮の左視差画像Lt(x,y)とステップ5で中間処理として生成した解像力の高い視差なしのモノクロ画像N(x,y)を用いて、実際に出力する解像力の高い左視差のモノクロ画像Lt'(x,y)を生成する。同様に、ステップ3で生成した解像力の低い仮の右視差画像Rt(x,y)とステップ5で中間処理として生成した解像力の高い視差なしのモノクロ画像N(x,y)を用いて、実際に出力する解像力の高い右視差のカラー画像Rt'(x,y)を生成する。
 視差変調の方式として、相加平均を基準点にとる方法と相乗平均を基準点にとる方法の2通りが考えられる。どちらも視差変調効果を得ることができるが、撮像素子の視差なし画素の開口マスクが全開口のとき相加平均を基準点とした方式を採用し、視差なし画素の開口マスクが視差あり画素と同じ半開口のとき相乗平均を基準点とした方式を採用する。したがって、本実施形態では相加平均を基準点とする方式を用いる。
Figure JPOXMLDOC01-appb-I000034
Figure JPOXMLDOC01-appb-I000035
 7)出力色空間への変換
 こうして得られた高解像な視差なしの中間モノクロ画像N(x,y)と高解像の左視差のモノクロ画像Lt'(x,y)、高解像の右視差のモノクロ画像Rt'(x,y)のそれぞれを適当なガンマ変換を行って出力空間の画像として出力する。これらはいずれの2D、3D画像も高精細なエッジ強調がなされた画像が生成される。
<実施形態4>
 ‐‐‐Bayer型RGB疎な視差画素配列、ノイズ除去‐‐‐
 画像処理の手順は、およそ以下の通りである。
 1)色・視差多重化モザイク画像データ入力
 2)色・視差モザイク画像のグローバル・ゲインバランス補正
 3)仮の視差画像の生成
 4)左右の局所照度分布補正による視差なし色モザイク画像の生成
 (ローカル・ゲインバランス補正)
 5)視差なし基準画像の生成
 6)視差なし基準画像に対するノイズ除去処理
 7)実際の視差画像の生成
 8)出力色空間への変換
 ここで、ステップ1)~6)、及びステップ7)~8)は実施形成2と同様であるので、その説明を省略する。ここでは、視差なし基準画像に対するノイズ除去処理について説明する。
 6)視差なし基準画像に対するノイズ除去処理
 6‐1)色空間変換処理
 実施形態1と同様である。
 6‐2)ノイズ除去処理
 輝度Y面に対して、ノイズ除去処理を行う。前述の本出願人と同一発明者の特開2006-309749号公報等、公知の高性能なノイズ除去処理を用いるとよい。ここでは、本出願人と同一発明者のWO2006/068025に開示される2引数積バイラテラル・フィルタを示しておく。
Figure JPOXMLDOC01-appb-I000036
 ここに、σthはノイズの揺らぎ幅である。rthはフィルタ半径で、対象とするノイズの広がり幅に応じて任意の大きさに設定することができる。なお、フィルタ処理部233は、左視差画像データおよび右視差画像データに対してはノイズ除去のフィルタリング処理を施さなくてもよい。
 6‐3)逆色空間変換処理
 ノイズ除去された輝度成分Y'(x,y)と色差成分Cb'(x,y)、Cr'(x,y)を用いて、YCbCr空間からRGB空間に戻す。
 6‐4)逆階調変換による元の線形階調空間への移行
 実施形態1と同様である。
<なお書き>
 実施形態2のエッジ強調と実施形態4のノイズ除去を併用する場合は、実施形態4のステップ6のノイズ除去処理を先に行ってから、実施形態2のステップ6のエッジ強調処理を行うとよい。また、実施形態3の疎なモノクロ視差画素配列に対してノイズ除去処理を行う場合は、実施形態4に示したノイズ除去処理の輝度成分に対して行ったものと同様の手続きを、モノクロ面に対して行えばよい。
 以上の説明では、被写体像のカラーを構成する原色として、赤色、緑色および青色の3つを用いた。しかし、翠色などを加えた4つ以上を原色としても良い。また、赤色、緑色および青色に代えて、イエロー、マゼンタ、シアンの組み合わせによる補色の3原色を採用することもできる。
 上述した補間処理部231、基準画像データ生成部232、フィルタ処理部233、および視差画像データ生成部234の機能は、補間処理ステップ、基準画像データ取得ステップ、フィルタ処理ステップ、視差画像データ生成ステップを含む画像処理プログラムをコンピュータに実行させることにより実現できる。補間処理ステップは、撮像素子100の出力に基づいて左視点の仮の左視差画像データおよび右視点の仮の右視差画像データを生成する。基準画像データ取得ステップは、仮の左視差画像データおよび仮の右視差画像データの画素値を用いて、仮の左視差画像データおよび仮の右視差画像データより高解像な基準画像データを生成する。フィルタ処理ステップは、基準画像データに対してエッジ調整およびノイズ除去の少なくともいずれかのフィルタリング処理を施す。視差画像データ生成ステップは、フィルタリング処理が施された基準画像データ、並びに仮の左視差画像データおよび仮の右視差画像データを用いて、仮の左視差画像データおよび仮の右視差画像データより高解像な左視差画像データおよび高解像な右視差画像データを生成する。
 パーソナルコンピュータなどの機器が画像処理装置として機能してもよい。画像処理装置は、カメラ等の他の装置から画像データを取り込んでもよい。この場合には、補間処理部ではなく視差画像データ取得部としての役割を担う。基準画像データ生成部ではなく基準画像データ取得部としての役割を担う。なお、補間処理部が視差画像データを、基準画像データ生成部が基準画像データをそれぞれ自ら生成する場合も、自ら生成することによって視差画像データおよび基準画像データをそれぞれ取得しているといえる。また、基準画像データ生成部232は、仮の左視差画像データおよび仮の右視差画像データの画素値の画素値に加えて、一部の画素が欠落した仮の基準画像データの画素値を用いて2D中間画像である基準画像データを生成してもよい。
 以上の説明では、フィルタ処理部233は、基準画像データに対してエッジ調整処理としてエッジ強調処理を施したが、例えば画像を縮小する場合等には、エッジ抑制処理を施してもよい。なお、以上の説明において画像は、画像データを指す場合もあれば、フォーマットに従って展開され可視化された被写体像そのものを指す場合もある。
 以上の説明では、視差画像データ生成部234は、仮の左視差画像データと同一視点に対応する左視差画像データを生成した。同様に、視差画像データ生成部234は、仮の右視差画像データと同一視点に対応する右視差画像データを生成した。この場合には、左右の視差画素の視点が変化しないので、仮の左視差画像データおよび仮の右視差画像データの視差量と、最終的に生成された高解像な左視差画像データおよび高解像な右視差画像データの視差量とは同一になる。しかしながら、視差変調をするときの変調量をパラメータ化することによって、視差量を制御することができる。視差量が変化すると、左視差画像データの視点と左視差画像データの視点も変化することになる。したがって、視差画像データ生成部234は、仮の左視差画像データの視点とは異なる視点の左視差画像データを生成するということもできる。同様に、仮の右視差画像データの視点とは異なる視点の右視差画像データを生成するということもできる。下記に示すように、パラメータCによって立体効果を可変にすることができる。
Figure JPOXMLDOC01-appb-I000037
 図19は、画素値の補間の一例を示す図である。図19の上段は、図7で示した画素配列におけるRの視差なし画素の画素値のみを抽出した図である。R0画像データにおいて画素値を有する画素の画素値を用いて、図19の下段に示すように、画素値を有しない画素の画素値が補間される。すなわち、視差画像データ生成部234は、視差なし画素の画素値を用いて欠落した画素値を補間することによって、2D中間画像データを生成している。例えば上下、左右、または上下および左右の最隣接する画素であって画素値を有するものを平均して補間の画素値とする。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。例えば、上述の撮像素子を90°回転した場合は上下視差への変形例に、45°回転した場合には斜め視差の変形例になる。また画素配列が正方格子状に並んでいないハニカム配列に対して左右の視差を設定できるようにしてもよい。
 請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 デジタルカメラ、20 撮影レンズ、21 光軸、100 撮像素子、101 マイクロレンズ、102 カラーフィルタ、103 開口マスク、104 開口部、105 配線層、106 配線、107 開口、108 光電変換素子、109 基板、110 繰り返しパターン、201 制御部、202 A/D変換回路、203 メモリ、204 駆動部、205 画像処理部、207 メモリカードIF、208 操作部、209 表示部、210 LCD駆動回路、211 AFセンサ、220 メモリカード、231 補間処理部、232 基準画像データ生成部、233 フィルタ処理部、234 視差画像データ生成部、322 中心線、1801 分布曲線、1802 分布曲線、1803 分布曲線、1804 分布曲線、1805 分布曲線、1806 合成分布曲線、1807 分布曲線、1808 分布曲線、1809 合成分布曲線

Claims (17)

  1.  1つの画素に1つの開口マスクを有する複数の画素からなり、基準方向の視点を生み出す開口マスクを備えた視差なし画素と、基準方向に対して左方向の視差を生み出す開口マスクを備えた左視差画素と、基準方向に対して右方向の視差を生み出す開口マスクを備えた右視差画素の少なくとも3種類の画素を配置した画素配列からなる撮像素子を用いて、1つの光学系を通して被写体像を基準方向の視点と左方向の視点と右方向の視点を同時にそれぞれ異なる画素に撮像した第1の画像を入力し、
     左方向の視点に関する画像と、右方向の視点に関する画像に変換する画像処理方法であって、
     前記第1の画像の左視差画素の画素値を用いて、各画素に仮の左視点画像を生成する手順と、
     前記第1の画像の右視差画素の画素値を用いて、各画素に仮の右視点画像を生成する手順と、
     前記第1の画像の少なくとも視差なし画素の画素値を用いて、各画素に基準視点画像を生成する手順と、
     前記基準視点画像に対して、エッジ強調処理を行って、エッジ強調された基準視点画像を生成する手順と、
     前記エッジ強調された基準視点画像と前記仮の左視点画像と前記仮の右視点画像に基づき、各画素に左方向の視点に関する画像と右方向の視点に関する画像のそれぞれを生成する手順と
    を備えたことを特徴とする画像処理方法。
  2.  1つの画素に1つの開口マスクを有する複数の画素からなり、基準方向の視点を生み出す開口マスクを備えた視差なし画素と、基準方向に対して左方向の視差を生み出す開口マスクを備えた左視差画素と、基準方向に対して右方向の視差を生み出す開口マスクを備えた右視差画素の少なくとも3種類の画素を配置した画素配列からなる撮像素子を用いて、1つの光学系を通して被写体像を基準方向の視点と左方向の視点と右方向の視点を同時にそれぞれ異なる画素に撮像した第1の画像を入力し、
     左方向の視点に関する画像と、右方向の視点に関する画像に変換する画像処理方法であって、
     前記第1の画像の左視差画素の画素値を用いて、各画素に仮の左視点画像を生成する手順と、
     前記第1の画像の右視差画素の画素値を用いて、各画素に仮の右視点画像を生成する手順と、
     前記第1の画像の視差なし画素の画素値を用いて、各画素に基準視点画像を生成する手順と、
     前記基準視点画像に対して、ノイズ除去処理を行って、ノイズ除去された基準視点画像を生成する手順と、
     前記ノイズ除去された基準視点画像と前記仮の左視点画像と前記仮の右視点画像に基づき、各画素に左方向の視点に関する画像と右方向の視点に関する画像のそれぞれを生成する手順と
    を備えたことを特徴とする画像処理方法。
  3.  前記基準視点画像を生成する手順は、前記第1の画像の視差なし画素の画素値の他に、左視差画素の画素値と右視差画素の画素値も用いて、基準視点画像の画素値を生成する請求項1または2に記載の画像処理方法。
  4.  前記第1の画像が複数の色成分からなるとき、
     前記基準視点画像を生成する手順は、前記複数の色成分に対して基準視点画像を生成し、前記エッジ強調された基準視点画像を生成する手順は、前記基準視点画像の輝度成分に対してエッジ強調処理を行う請求項1に記載の画像処理方法。
  5.  前記第1の画像が複数の色成分からなるとき、
     前記基準視点画像を生成する手順は、前記複数の色成分に対して基準視点画像を生成し、前記ノイズ除去された基準視点画像を生成する手順は、前記基準視点画像の輝度成分と色差成分に対してノイズ除去処理を行う請求項2に記載の画像処理方法。
  6.  前記第1の画像は、視差なし画素の密度を左視差画素と右視差画素を合わせた画素の密度よりも高く配置した画素配列からなる撮像素子により撮像された画像である請求項2に記載の画像処理方法。
  7.  基準方向に対して第1方向にずれた視点に対応する第1視差画像データと、前記基準方向に対して前記第1方向とは反対の第2方向にずれた視点に対応する第2視差画像データとを取得する視差画像データ取得部と、
     前記基準方向に対応し、かつ、第1視差画像データおよび第2視差画像データの空間周波数解像度より高解像な基準画像データを取得する基準画像データ取得部と、
     前記基準画像データに対してエッジ調整およびノイズ除去の少なくともいずれかのフィルタリング処理を施すフィルタ処理部と、
     前記フィルタリング処理が施された前記基準画像データ、前記第1視差画像データおよび前記第2視差画像データを用いて、前記第1方向にずれた視点に対応する第3視差画像データと、前記第2方向にずれた視点に対応する第4視差画像データとを生成する視差画像データ生成部と
    を備える画像処理装置。
  8.  前記基準画像データ取得部は、一部の画素値が欠落した仮の基準画像データを取得し、前記基準方向に対応した基準画素の画素値を用いて欠落した画素値を補間することによって、前記基準画像データを生成する請求項7に記載の画像処理装置。
  9.  前記基準画像データ取得部は、前記第1視差画像データおよび前記第2視差画像データの画素値を用いて欠落した画素値を補間することによって、前記基準画像データを生成する請求項7または8に記載の画像処理装置。
  10.  前記基準画像データ取得部は、前記基準画像データに対応する基準画素、前記第1視差画像データに対応する第1画素、および前記第2視差画像データに対応する第2画素の数に応じて重み付けを施す請求項9に記載の画像処理装置。
  11.  前記基準画像データ取得部は、それぞれの画素に対応付けられたカラーフィルタの色成分毎に前記基準画像データを生成する請求項7から10のいずれか1項に記載の画像処理装置。
  12.  前記視差画像データ生成部は、前記第1視差画像データの視点とは異なる視点の前記第3視差画像データを生成し、前記第2視差画像データの視点とは異なる視点の前記第4視差画像データを生成する請求項7から11のいずれか1項に記載の画像処理装置。
  13.  前記第1視差画像データおよび前記第2視差画像データの少なくともいずれかを出力する撮像素子と、
     請求項7から12のいずれか1項に記載の画像処理装置と
    を備える撮像装置。
  14.  前記撮像素子は、前記基準画像データも共に出力する請求項13に記載の撮像装置。
  15.  前記撮像素子は、前記基準画像データに対応する画素、前記第1視差画像データに対応する画素、および前記第2視差画像データに対応する画素の中で、前記基準画像データに対応する画素を最も多く有する請求項14に記載の撮像装置。
  16.  前記フィルタ処理部は、前記第1視差画像データおよび前記第2視差画像データに対してノイズ除去のフィルタリング処理を施さない請求項15に記載の撮像装置。
  17.  基準方向に対して第1方向にずれた視点に対応する第1視差画像データと、前記基準方向に対して前記第1方向とは反対の第2方向にずれた視点に対応する第2視差画像データとを取得する視差画像データ取得ステップと、
     前記基準方向に対応し、かつ、第1視差画像データおよび第2視差画像データの空間周波数解像度より高解像な基準画像データを取得する基準画像データ取得ステップと、
     前記基準画像データに対してエッジ調整およびノイズ除去の少なくともいずれかのフィルタリング処理を施すフィルタ処理ステップと、
     前記フィルタリング処理が施された前記基準画像データ、前記第1視差画像データおよび前記第2視差画像データを用いて、前記第1方向にずれた視点に対応する第3視差画像データと、前記第2方向にずれた視点に対応する第4視差画像データとを生成する視差画像データ生成ステップと
    をコンピュータに実行させる画像処理プログラム。
PCT/JP2013/004798 2012-08-10 2013-08-08 画像処理方法、画像処理装置、撮像装置および画像処理プログラム WO2014024500A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201380036470.7A CN104429056B (zh) 2012-08-10 2013-08-08 图像处理方法、图像处理装置、摄像装置及图像处理程序
JP2014529320A JP5904281B2 (ja) 2012-08-10 2013-08-08 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
US14/618,247 US9509978B2 (en) 2012-08-10 2015-02-10 Image processing method, image processing apparatus, image-capturing apparatus, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012179038 2012-08-10
JP2012-179038 2012-08-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/618,247 Continuation US9509978B2 (en) 2012-08-10 2015-02-10 Image processing method, image processing apparatus, image-capturing apparatus, and image processing program

Publications (1)

Publication Number Publication Date
WO2014024500A1 true WO2014024500A1 (ja) 2014-02-13

Family

ID=50067750

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/004798 WO2014024500A1 (ja) 2012-08-10 2013-08-08 画像処理方法、画像処理装置、撮像装置および画像処理プログラム

Country Status (4)

Country Link
US (1) US9509978B2 (ja)
JP (1) JP5904281B2 (ja)
CN (1) CN104429056B (ja)
WO (1) WO2014024500A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631810A (zh) * 2016-01-20 2016-06-01 北京邮电大学 一种基于像素网点复用的印刷方法及系统
JP2016163169A (ja) * 2015-03-02 2016-09-05 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
CN106463002A (zh) * 2014-06-03 2017-02-22 株式会社日立制作所 图像处理装置以及立体视觉显示方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013190814A1 (ja) * 2012-06-22 2013-12-27 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
WO2014122804A1 (ja) * 2013-02-05 2014-08-14 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6288088B2 (ja) * 2013-07-05 2018-03-07 株式会社ニコン 撮像装置
JP6135490B2 (ja) * 2013-12-12 2017-05-31 ソニー株式会社 動画画像処理システムおよび動画画像処理方法
JP6494328B2 (ja) * 2015-03-02 2019-04-03 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2017076899A (ja) * 2015-10-15 2017-04-20 ソニー株式会社 固体撮像素子、および電子装置
JP6764574B2 (ja) * 2016-01-13 2020-10-07 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び、手術システム
KR102557087B1 (ko) * 2016-10-20 2023-07-20 삼성전자주식회사 이미지 생성을 위한 전자 장치 및 저장 매체
CN107040724B (zh) 2017-04-28 2020-05-15 Oppo广东移动通信有限公司 双核对焦图像传感器及其对焦控制方法和成像装置
JP2019021991A (ja) * 2017-07-12 2019-02-07 オリンパス株式会社 撮像素子、撮像装置、撮像プログラム、撮像方法
CN111614959B (zh) * 2019-02-26 2023-02-03 北京嘀嘀无限科技发展有限公司 一种视频打码方法、装置以及电子设备
CN111260768B (zh) * 2020-02-07 2022-04-26 腾讯科技(深圳)有限公司 图片处理方法和装置、存储介质及电子装置
KR102148127B1 (ko) * 2020-02-14 2020-08-26 재단법인 다차원 스마트 아이티 융합시스템 연구단 상보적인 픽슬렛 구조가 적용된 카메라 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011118089A1 (ja) * 2010-03-24 2011-09-29 富士フイルム株式会社 立体撮像装置
JP2011259211A (ja) * 2010-06-09 2011-12-22 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
WO2012073491A1 (ja) * 2010-11-29 2012-06-07 株式会社ニコン 撮像素子、及び、撮像装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6836572B2 (en) 1998-06-01 2004-12-28 Nikon Corporation Interpolation processing apparatus and recording medium having interpolation processing program recorded therein
JP4164215B2 (ja) 1999-12-27 2008-10-15 キヤノン株式会社 画像処理方法、装置および記録媒体
US6980326B2 (en) 1999-12-15 2005-12-27 Canon Kabushiki Kaisha Image processing method and apparatus for color correction of an image
JP2001177731A (ja) 1999-12-15 2001-06-29 Canon Inc 画像処理方法、装置および記憶媒体
JP4599672B2 (ja) 1999-12-21 2010-12-15 株式会社ニコン 補間処理装置および補間処理プログラムを記録した記録媒体
US7565007B2 (en) 2001-01-25 2009-07-21 Nikon Corporation Image processing method, image processing program, and image processing apparatus
JP2003007994A (ja) 2001-06-27 2003-01-10 Konica Corp 固体撮像素子、立体カメラ装置及び測距装置
CN100544450C (zh) 2003-06-12 2009-09-23 株式会社尼康 图像处理方法
WO2006006373A1 (ja) 2004-07-07 2006-01-19 Nikon Corporation 画像処理装置およびコンピュータプログラム製品
US7945111B2 (en) 2004-12-20 2011-05-17 Nikon Corporation Image processing method for adaptively filtering image data
JP5352942B2 (ja) 2005-03-31 2013-11-27 株式会社ニコン 画像処理方法、画像処理プログラム、および画像処理装置
JP4807499B2 (ja) * 2006-02-23 2011-11-02 セイコーエプソン株式会社 画像処理システム、表示装置、プログラムおよび情報記憶媒体
JP4798358B2 (ja) * 2006-03-14 2011-10-19 セイコーエプソン株式会社 画像処理システム、表示装置および画像処理方法
WO2007116543A1 (ja) 2006-03-31 2007-10-18 Nikon Corporation 画像処理方法
WO2009066770A1 (ja) 2007-11-22 2009-05-28 Nikon Corporation デジタルカメラおよびデジタルカメラシステム
JP4763827B2 (ja) * 2009-11-26 2011-08-31 富士フイルム株式会社 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム
JP2011203811A (ja) * 2010-03-24 2011-10-13 Fujifilm Corp 画像処理装置、画像処理方法、画像処理プログラム、及び複眼デジタルカメラ
JP2011205374A (ja) * 2010-03-25 2011-10-13 Fujifilm Corp 表示装置
JP4783465B1 (ja) * 2010-03-26 2011-09-28 富士フイルム株式会社 撮像装置及び表示装置
WO2012002106A1 (ja) * 2010-06-30 2012-01-05 富士フイルム株式会社 立体画像表示装置、立体画像表示方法、立体画像表示プログラム及び記録媒体
JP5594067B2 (ja) * 2010-11-02 2014-09-24 ソニー株式会社 画像処理装置および画像処理方法
JP5625887B2 (ja) * 2010-12-22 2014-11-19 ソニー株式会社 撮像装置、その制御方法およびプログラム
US8742309B2 (en) 2011-01-28 2014-06-03 Aptina Imaging Corporation Imagers with depth sensing capabilities
CN103385005B (zh) * 2011-05-03 2015-10-21 奥林巴斯映像株式会社 立体图像处理装置以及立体图像处理方法
CN103828361B (zh) * 2011-09-21 2015-04-29 富士胶片株式会社 图像处理装置、方法,立体图像获取装置,便携式电子设备,打印机和立体图像播放器装置
JP6131546B2 (ja) 2012-03-16 2017-05-24 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
CN104185983B (zh) 2012-03-16 2016-10-26 株式会社尼康 摄像元件、摄像装置以及摄像系统
JP6131545B2 (ja) 2012-03-16 2017-05-24 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
WO2013161313A1 (ja) 2012-04-25 2013-10-31 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011118089A1 (ja) * 2010-03-24 2011-09-29 富士フイルム株式会社 立体撮像装置
JP2011259211A (ja) * 2010-06-09 2011-12-22 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
WO2012073491A1 (ja) * 2010-11-29 2012-06-07 株式会社ニコン 撮像素子、及び、撮像装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106463002A (zh) * 2014-06-03 2017-02-22 株式会社日立制作所 图像处理装置以及立体视觉显示方法
JP2016163169A (ja) * 2015-03-02 2016-09-05 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
CN105631810A (zh) * 2016-01-20 2016-06-01 北京邮电大学 一种基于像素网点复用的印刷方法及系统
CN105631810B (zh) * 2016-01-20 2018-09-11 北京邮电大学 一种基于像素网点复用的印刷方法及系统

Also Published As

Publication number Publication date
JPWO2014024500A1 (ja) 2016-07-25
US20150264333A1 (en) 2015-09-17
US9509978B2 (en) 2016-11-29
CN104429056A (zh) 2015-03-18
JP5904281B2 (ja) 2016-04-13
CN104429056B (zh) 2017-11-14

Similar Documents

Publication Publication Date Title
JP5904281B2 (ja) 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
JP6131546B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
EP3261328B1 (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP4905326B2 (ja) 撮像装置
JP5398346B2 (ja) 撮像装置及び信号処理装置
US9900529B2 (en) Image processing apparatus, image-capturing apparatus and image processing apparatus control program using parallax image data having asymmetric directional properties
CN103688536B (zh) 图像处理装置、图像处理方法
JP6131545B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP6003983B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
WO2014192300A1 (ja) 撮像素子、撮像装置、および画像処理装置
US9706186B2 (en) Imaging apparatus for generating parallax image data
JP6190119B2 (ja) 画像処理装置、撮像装置、制御方法、及びプログラム
WO2012153504A1 (ja) 撮像装置および撮像装置の制御プログラム
TWI450594B (zh) 串色影像處理系統和提高清晰度的方法
JP5978737B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2014107594A (ja) 撮像素子および撮像装置
JP2017118293A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP5978735B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2015108710A (ja) 撮像装置、その制御方法、および制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13828654

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014529320

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13828654

Country of ref document: EP

Kind code of ref document: A1