WO2014006785A1 - 撮像装置及び画像処理方法 - Google Patents

撮像装置及び画像処理方法 Download PDF

Info

Publication number
WO2014006785A1
WO2014006785A1 PCT/JP2012/084089 JP2012084089W WO2014006785A1 WO 2014006785 A1 WO2014006785 A1 WO 2014006785A1 JP 2012084089 W JP2012084089 W JP 2012084089W WO 2014006785 A1 WO2014006785 A1 WO 2014006785A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
phase difference
pixels
filter
color
Prior art date
Application number
PCT/JP2012/084089
Other languages
English (en)
French (fr)
Inventor
貴嗣 青木
遠藤 宏
岩崎 洋一
林 健吉
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2014523552A priority Critical patent/JP5749403B2/ja
Publication of WO2014006785A1 publication Critical patent/WO2014006785A1/ja
Priority to US14/589,514 priority patent/US9172927B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/01Circuitry for demodulating colour component signals modulated spatially by colour striped filters by phase separation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • G02B7/346Systems for automatic generation of focusing signals using different areas in a pupil plane using horizontal and vertical areas in the pupil plane, i.e. wide area autofocusing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/767Horizontal readout lines, multiplexers or registers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8045Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter
    • H04N2209/046Colour interpolation to calculate the missing colour values

Definitions

  • the present invention relates to an imaging apparatus and an image processing method, and more particularly, to an imaging apparatus and an image processing method that perform moving image generation and focus adjustment based on a phase difference in parallel.
  • first and second phase difference pixels are provided on a part of an image pickup device, in which a subject image that has passed through the left and right regions of the photographing lens is divided into pupils and formed, respectively.
  • phase difference AF automatic focus adjustment
  • the image sensor described in Patent Literature 1 includes a general Bayer color filter, and a first focus detection pixel (a pixel on the left side of the pupil division) and a second focus detection pixel in the horizontal direction and the vertical direction. Pixels (pixels on the right side of the pupil division) are alternately arranged at a constant cycle (a cycle of 6 pixels in the horizontal direction and a cycle of 3 pixels in the vertical direction). Further, the first and second focus detection pixels are arranged at pixel positions where the green (G) filter is located.
  • G green
  • the electronic camera described in Patent Literature 1 is adjacent to the first or second focus detection pixel (G pixel) in the thinned-out line image and the G pixel.
  • a red pixel (R pixel) or a blue pixel (B pixel) is extracted as a pair, and a live view display is performed by an image signal of these extracted pixels. Therefore, image signals of normal G pixels (G pixels other than the first or second focus detection pixels) are not used for live view display when focus detection is performed.
  • the first or second focus detection pixel read out by thinning is used as a G pixel. Since the pixel has a structure different from that of a normal pixel, it is not appropriate to use the focus detection pixel as a G pixel as it is.
  • the color filter array of the image sensor described in Patent Document 1 is a Bayer array
  • an image after thinning-out reading is also a Bayer array. Therefore, even if the image signal of the focus detection pixel is obtained by interpolating the image signal of the surrounding pixel of the same color, since the same color pixel does not exist in the adjacent pixels in the upper, lower, left, and right directions, the false signal by interpolation is used. There is a problem that color and the like are likely to occur.
  • the present invention has been made in view of such circumstances, and can accurately perform phase difference AF during shooting of a moving image including a live view display, and can prevent deterioration in image quality of a shot image due to phase difference pixels.
  • Another object of the present invention is to provide an imaging apparatus and an image processing method that can be reduced.
  • a predetermined color filter array is formed on a plurality of pixels including a photographing lens and photoelectric conversion elements arranged in a first direction and a second direction perpendicular to the first direction.
  • Color image acquisition means for extracting a signal and acquiring a thinned color image; moving image generation means for generating moving image data based on the thinned color image; A phase difference detection means for detecting a phase difference between the output signals based on the output signals corresponding to the first and second phase difference pixels included in the color image, and a phase difference detected by the phase difference detection means Focusing means for adjusting the focal position of the photographic lens based on the first color filter, the predetermined color filter array includes a first filter corresponding to one or more first colors, and a contribution for obtaining a luminance signal A second filter corresponding to two or more second colors having a rate lower than that of the first color, and including a basic arrangement pattern in which the first filter and the second filter are arranged, An extraction pixel group consisting of pixels corresponding to pixel signals that are arranged in a repeated manner in the first direction and the second direction and that are read out or extracted by the color image acquisition means from among the plurality of pixels.
  • phase difference pixels A pixel line extending in the first direction, a pixel line extending in the first direction including the second phase difference pixel, and the first phase difference pixel and the second phase difference pixel are not included.
  • the present invention relates to an imaging device that periodically has pixel lines extending in the direction.
  • Another aspect of the present invention provides a predetermined color filter array on a plurality of pixels including a photographing lens and photoelectric conversion elements arranged in a first direction and a second direction perpendicular to the first direction.
  • a color image acquisition unit that extracts pixel signals and acquires a thinned color image; a moving image generation unit that generates moving image data based on the thinned color image; Phase difference detection means for detecting the phase difference between the output signals based on the output signals corresponding to the first and second phase difference pixels included in the color image, and the level detected by the phase difference detection means.
  • Focus adjusting means for adjusting the focal position of the photographing lens based on the phase difference, and the predetermined color filter array includes one or more first colors having a transmittance peak in a wavelength range of 480 nm to 570 nm. And a second filter corresponding to two or more second colors having transmittance peaks outside the range, and the first filter and the second filter are arranged.
  • the extracted pixel group includes a pixel line extending in a first direction including a first phase difference pixel, a pixel line extending in a first direction including a second phase difference pixel, and a first line
  • the present invention relates to an imaging device that periodically includes a pixel line that does not include any of the phase difference pixels and the second phase difference pixels and extends in a first direction.
  • Another aspect of the present invention provides a predetermined color filter array on a plurality of pixels including a photographing lens and photoelectric conversion elements arranged in a first direction and a second direction perpendicular to the first direction.
  • a color image acquisition unit that extracts pixel signals and acquires a thinned color image; a moving image generation unit that generates moving image data based on the thinned color image; Phase difference detection means for detecting the phase difference between the output signals based on the output signals corresponding to the first and second phase difference pixels included in the color image, and the level detected by the phase difference detection means.
  • a focus adjustment unit that adjusts the focal position of the photographing lens based on the phase difference, and the predetermined color filter array includes a first filter corresponding to one or more first colors, and a wavelength of 500 nm to 560 nm.
  • the prime group includes a pixel line extending in a first direction including a first phase difference pixel, a pixel line extending in a first direction including a second phase difference pixel, and a first phase difference pixel.
  • the present invention also relates to an imaging device that periodically includes pixel lines that do not include any of the second phase difference pixels and extend in the first direction.
  • Another aspect of the present invention provides a predetermined color filter array on a plurality of pixels including a photographing lens and photoelectric conversion elements arranged in a first direction and a second direction perpendicular to the first direction.
  • a color image acquisition unit that extracts pixel signals and acquires a thinned color image; a moving image generation unit that generates moving image data based on the thinned color image; Phase difference detection means for detecting the phase difference between the output signals based on the output signals corresponding to the first and second phase difference pixels included in the color image, and the level detected by the phase difference detection means.
  • Focus adjusting means for adjusting the focal position of the photographic lens based on the phase difference, and the predetermined color filter array includes a color that contributes most to the luminance signal among the three primary colors and a fourth color that is different from the three primary colors.
  • the extracted pixel group includes a pixel line extending in the first direction including the first phase difference pixel, a pixel line extending in the first direction including the second phase difference pixel, and the first position.
  • the present invention relates to an imaging apparatus that periodically includes a pixel line that does not include any of a phase difference pixel and a second phase difference pixel and extends in a first direction.
  • the image data by the first and second phase difference pixels is arranged in the line image extracted for the moving image including the live view display, the accuracy is improved even during the moving image shooting.
  • Phase difference AF can be performed.
  • the color image composed of the thinned-out or extracted line image is not only the image data of the pixel line including the first and second phase difference pixels, but also the normal image not including the first and second phase difference pixels. Since image data of pixel lines including only pixels is also included, image interpolation processing can be performed with high accuracy using image data of normal pixels, thereby reducing the image quality of captured images (still images and moving images) using phase difference pixels. Can be prevented or reduced.
  • the first filter can be a green (G) filter
  • the second filter can be a red (R) filter and a blue (B) filter.
  • the filter is not limited to these color filters.
  • pixels having the same color as the color of the pixel at the position of the first and second phase difference pixels are arranged adjacent to the first and second phase difference pixels.
  • the pixel values of the pixels at the positions of the first and second phase difference pixels in the color image thus obtained are interpolated with the pixel values of peripheral pixels including pixels of the same color adjacent to the first and second phase difference pixels.
  • the moving image generation means uses the value calculated by the interpolation calculation means as the pixel value of the pixel at the position of the first and second phase difference pixels in the thinned color image. Movie data is generated based on the color image.
  • the pixels having the same color as the first and second phase difference pixels are arranged in the pixels adjacent to the first and second phase difference pixels, the first and second phase difference pixels are arranged. Interpolation processing of pixel data of pixels can be performed with high accuracy.
  • the thinning pattern has an extraction pixel period that defines a period in a second direction related to thinning readout or extraction of the pixel signal, and a second phase between the first phase difference pixel and the second phase difference pixel.
  • the number of pixels between the first phase difference pixel and the second phase difference pixel is an integral multiple of the number of corresponding pixels of the extraction pixel period, the pixel line including the first phase difference pixel And the image data of the pixel line including the second phase difference pixel can be read efficiently.
  • the thinning pattern has an extraction pixel period that defines a period in the second direction related to thinning readout or extraction of the pixel signal, and relates to the second direction of the first phase difference pixel and the second phase difference pixel.
  • the number of pixels corresponding to the repetition period is a common multiple of the number of corresponding pixels in the second direction of the extraction pixel period and the number of pixels in the second direction of the basic array pattern.
  • the repetition period of the phase difference pixel in the second direction is a common multiple of the number of pixels in the second direction of the extraction pixel period and the basic array pattern, the first phase difference pixel and the second phase difference pixel Image data of pixel lines including phase difference pixels can be read efficiently.
  • the number of pixels in the second direction between the first phase difference pixel and the second phase difference pixel is different from the number of pixels in the second direction of the basic array pattern.
  • the first phase difference pixel and the second phase difference pixel are arranged at different positions in the basic array pattern.
  • the extraction pixel group has the same arrangement pattern as the basic arrangement pattern with respect to the arrangement pattern of the first filter and the second filter.
  • the extracted pixel group has the same array pattern as the basic array pattern, it is possible to apply common image processing to the color images before and after the thinning extraction.
  • the ratio of the total number of pixels of the first color corresponding to the first filter is larger than the ratio of the number of pixels of each color of the second color corresponding to the second filter.
  • the first and second phase difference pixels are arranged at the position of the first filter.
  • the pixel data of the first color can be used more effectively.
  • the pixel of the phase difference pixel can be effectively utilized by making effective use of a large number of the first color pixels of the same color. Data interpolation processing can be performed effectively.
  • a plurality of first filters are arranged in M ⁇ N pixels (M, N: an integer of 3 or more), and M ⁇ N pixels are repeatedly arranged in the first and second directions.
  • the first filter is arranged with an M ⁇ N pixel period.
  • one or two phase difference pixels of the first and second phase difference pixels are arranged in the M ⁇ N pixel.
  • the first phase difference pixel and the second phase difference pixel can be arranged in a cycle based on M ⁇ N pixels.
  • the first and second phase difference pixels are arranged in a pair in the second direction.
  • AF autofocus
  • the first and second phase difference pixels are alternately arranged on one pixel line extending in the first direction.
  • the AF (autofocus) control using the first and second phase difference pixels can be performed with high accuracy in the first direction.
  • the first phase difference pixel and the second phase difference pixel are provided with a first filter, and the extracted pixel group includes neither the first phase difference pixel nor the second phase difference pixel.
  • the line includes pixels corresponding to the first filter.
  • the pixel corresponding to the first filter of the pixel line that includes neither the first phase difference pixel nor the second phase difference pixel is the first phase difference pixel or the second phase difference pixel. It arrange
  • the first filter disposed in the first phase difference pixel and the second phase difference pixel, and the pixel line including neither the first phase difference pixel nor the second phase difference pixel Since the first filter included is common, the pixel data included in the pixel line including neither the first phase difference pixel nor the second phase difference pixel is effectively used in the phase difference pixel interpolation process. Can be used.
  • the case where the pixels are adjacent includes a case where the pixel is located at a position where the side is in contact with the four sides of the target filter or pixel, and further, at a position away from the center of the target filter or pixel by ⁇ 2 pixels.
  • filters and pixels arranged at positions adjacent to the upper and lower left and right (first direction and second direction) of the target filter and pixels, and further obliquely to the upper left, lower left, upper left, and lower right Is adjacent to the target filter or pixel.
  • the basic arrangement pattern is formed by arranging the color filters in an arrangement pattern corresponding to M ⁇ M pixels (M is an integer of 3 or more) in the first direction and the second direction, and the first phase difference pixel.
  • M is an integer of 3 or more
  • the first phase difference pixel are arranged, a basic arrangement pattern in which the second phase difference pixels are arranged, and at least one basic arrangement pattern not including any of the first phase difference pixels and the second phase difference pixels. It is juxtaposed in the second direction.
  • the basic arrangement pattern is formed by arranging the color filters in an arrangement pattern corresponding to M ⁇ N (M is an integer of 3 or more, N is an even number of 6 or more) pixels in the first direction and the second direction.
  • the basic array pattern includes one each of a first sub-array and a second sub-array which are two types of sub-arrays in which color filters are arrayed in an array pattern corresponding to M ⁇ (N / 2) pixels.
  • each of the first filter and the second filter corresponding to each color of the second color is arranged for at least one pixel, and the first phase difference pixel And a basic array pattern including the second phase difference pixel and a basic array pattern including neither the first phase difference pixel nor the second phase difference pixel are juxtaposed in the second direction, and the first phase difference Pixels are arranged in the first sub-array
  • the second phase difference pixels are arranged in the second sub-array.
  • the basic array pattern is configured such that the color filters are arrayed in an array pattern corresponding to M ⁇ M (M is an even number of 6 or more) pixels in the first direction and the second direction.
  • the filter includes two each of a first sub-array and a second sub-array which are two types of sub-arrays arranged in an array pattern corresponding to (M / 2) ⁇ (M / 2) pixels, In each of the sub-array and the second sub-array, each of the first filter and the second filter corresponding to each color of the second color is arranged for at least one pixel, and includes a first phase difference pixel.
  • Two sub-arrays are juxtaposed in the second direction.
  • the first color is green (G)
  • the second color is red (R) and blue (B)
  • the first filter is a G filter
  • the second filter is R filters and B filters
  • the basic arrangement pattern is such that the color filters are arranged in an arrangement pattern corresponding to 6 ⁇ 6 pixels in the first direction and the second direction
  • the first sub-array and the second filter The sub arrays are arranged in an array pattern corresponding to 3 ⁇ 3 pixels in the first direction and the second direction, and the first sub array is juxtaposed in one diagonal direction of the basic array pattern
  • the sub-arrays are juxtaposed in the other diagonal direction of the basic array pattern
  • the G filter is arranged at the center pixel and the four corner pixels of each of the first sub-array and the second sub-array
  • the R filter is Next to the center pixel in one sub-array in the second direction A pixel adjacent to the central pixel in the first sub-array in the first direction
  • the B filter is adjacent to the central pixel in the first sub-array
  • a pixel having a transparent filter is used for the first and second phase difference pixels.
  • the transparent filter transmits light in the visible light wavelength region with high efficiency, pixel data of the first phase difference pixel and the second phase difference pixel can be efficiently obtained.
  • Another aspect of the present invention provides a predetermined color filter array on a plurality of pixels including a photographing lens and photoelectric conversion elements arranged in a first direction and a second direction perpendicular to the first direction.
  • a predetermined color filter array including a first filter corresponding to one or more first colors and a contribution ratio for obtaining a luminance signal lower than that of the first color.
  • a second filter corresponding to a second color of two or more colors, and including a basic array pattern in which the first filter and the second filter are arrayed, the basic array pattern having the first direction and the second color Repeated placement in 2 directions
  • the extracted pixel group consisting of pixels corresponding to the pixel signals read out or extracted in the color image acquisition step among the plurality of pixels includes a pixel line extending in the first direction including the first phase difference pixels.
  • the present invention relates to an image processing method having periodically.
  • Another aspect of the present invention provides a predetermined color filter array on a plurality of pixels including a photographing lens and photoelectric conversion elements arranged in a first direction and a second direction perpendicular to the first direction.
  • a predetermined color filter array wherein the predetermined color filter array includes a first filter corresponding to one or more first colors having a transmittance peak within a wavelength range of 480 nm to 570 nm, and a transmission A basic array having a second filter corresponding to two or more second colors having a rate peak outside the range, wherein the first filter and the second filter are arranged; pattern An extraction pixel group consisting of pixels arranged repeatedly in the first direction and the second direction and corresponding to the pixel signal that is read out or extracted in the color image acquisition step among the plurality of pixels has the first phase difference.
  • any one of a pixel line extending in a first direction including a pixel, a pixel line extending in a first direction including a second phase difference pixel, and the first phase difference pixel and the second phase difference pixel And an image processing method that periodically includes pixel lines extending in a first direction.
  • Another aspect of the present invention provides a predetermined color filter array on a plurality of pixels including a photographing lens and photoelectric conversion elements arranged in a first direction and a second direction perpendicular to the first direction.
  • an extraction pixel group including pixels corresponding to a pixel signal that is repeatedly arranged in the second direction and is read out or extracted in the color image acquisition step among the plurality of pixels includes a first phase difference pixel.
  • a pixel line extending in the first direction, a pixel line extending in the first direction including the second phase difference pixel, and the first phase difference pixel and the second phase difference pixel are not included.
  • the present invention relates to an image processing method having periodically pixel lines extending in one direction.
  • Another aspect of the present invention provides a predetermined color filter array on a plurality of pixels including a photographing lens and photoelectric conversion elements arranged in a first direction and a second direction perpendicular to the first direction.
  • a predetermined color filter array wherein the predetermined color filter array includes two or more first colors including a color that contributes most to the luminance signal among the three primary colors and a fourth color that is different from the three primary colors. And a second filter corresponding to two or more second colors other than the first color, wherein the first filter and the second filter are arranged.
  • the basic array pattern The extracted pixel group consisting of pixels corresponding to the pixel signal that is repeatedly arranged in the second direction and the second direction and is read out or extracted in the color image acquisition step among the plurality of pixels is referred to as the first phase difference pixel.
  • the pixel line extending in the first direction including the pixel line, the pixel line extending in the first direction including the second phase difference pixel, and any of the first phase difference pixel and the second phase difference pixel are included.
  • the present invention relates to an image processing method that periodically includes pixel lines extending in a first direction.
  • phase difference AF can be performed with high accuracy during moving image capturing, and deterioration of the image quality of the captured image due to the phase difference pixels is prevented, or Can be reduced.
  • the moving image color image including the live view display includes the image data of the pixel line including the first and second phase difference pixels, the phase difference can be accurately obtained even during the shooting of the moving image. AF can be performed.
  • the color image for moving images including the live view display is not only the image data of the pixel line including the first and second phase difference pixels but only the normal pixels not including the first and second phase difference pixels.
  • the image data of the pixel line including the image quality is improved, the image quality of the color image for moving images is improved, the image interpolation process can be performed with high accuracy, and the image quality of the captured image (still image and moving image) due to the phase difference pixel is reduced Can be prevented or reduced.
  • FIG. 2 is a block diagram illustrating an example of an internal configuration of the imaging apparatus illustrated in FIG. 1. It is a figure which shows an example of the color filter arrangement
  • FIG. 4 is a flowchart illustrating an image processing method according to an embodiment of the present invention. It is a conceptual diagram which shows the 1st example of arrangement
  • Imaging device 1 and 2 are a perspective view and a rear view, respectively, showing an example (digital camera) of an imaging apparatus.
  • the imaging device 10 is a digital camera that receives light passing through a lens with an imaging device, converts the light into a digital signal, and records the image data as a still image or moving image data on a recording medium.
  • the imaging device 10 is provided with a photographing lens 12, a strobe 1 and the like on the front, and a shutter button 2, a power / mode switch 3, a mode dial 4 and the like on the top.
  • a liquid crystal monitor 30 for 3D display, a zoom button 5, a cross button 6, a MENU / OK button 7, a playback button 8, a BACK button 9, and the like are disposed on the back of the camera. .
  • the photographing lens 12 is constituted by a retractable zoom lens, and is set out from the camera body by setting the camera operation mode to the photographing mode by the power / mode switch 3.
  • the strobe 1 irradiates a main subject with strobe light.
  • the shutter button 2 is composed of a two-stage stroke type switch composed of a so-called “half press” and “full press”.
  • the AE / AF is activated by “half-pressing” the shutter button 2 to be pushed halfway, and “full-press” further pushing from the “half-press”. As a result, shooting is performed. Further, when the imaging apparatus 10 is driven in the shooting mode, the shutter button 2 is “fully pressed” to execute shooting.
  • the power / mode switch 3 has both a function as a power switch for turning on / off the power of the image pickup apparatus 10 and a function as a mode switch for setting the mode of the image pickup apparatus 10. It is slidably arranged between “position” and “photographing position”. The image pickup apparatus 10 is turned on by sliding the power / mode switch 3 to the “reproduction position” or “shooting position”, and turned off by setting it to the “OFF position”. Then, the power / mode switch 3 is slid and set to “playback position” to set to “playback mode”, and to the “shooting position” to set to “shooting mode”.
  • the mode dial 4 functions as a shooting mode setting means for setting the shooting mode of the imaging device 10, and the shooting mode of the imaging device 10 is set to various modes depending on the setting position of the mode dial. For example, there are a “still image shooting mode” for performing still image shooting, a “moving image shooting mode” for moving image shooting, and the like.
  • the liquid crystal monitor 30 displays a live view image (through image) in the shooting mode, displays a still image or a moving image in the playback mode, displays a menu screen, and the like, thereby displaying a graphical user interface (GUI). It functions as a part.
  • GUI graphical user interface
  • the zoom button 5 functions as zoom instruction means for instructing zooming, and includes a tele button 5T for instructing zooming to the telephoto side and a wide button 5W for instructing zooming to the wide angle side.
  • the focal length of the photographic lens 12 is changed by operating the tele button 5T and the wide button 5W in the photographing mode. Further, when the tele button 5T and the wide button 5W are operated in the reproduction mode, the image being reproduced is enlarged or reduced.
  • the cross button 6 is an operation unit for inputting instructions in four directions, up, down, left, and right, and is a button (cursor moving operation means) for selecting an item from a menu screen or instructing selection of various setting items from each menu.
  • the left / right key functions as a frame advance (forward / reverse feed) button in the playback mode.
  • the MENU / OK button 7 is an operation having a function as a menu button for instructing to display a menu on the screen of the liquid crystal monitor 30 and a function as an OK button for instructing confirmation and execution of selection contents. Button.
  • the playback button 8 is a button for switching to a playback mode in which a captured still image or moving image is displayed on the liquid crystal monitor 30.
  • the BACK button 9 functions as a button for instructing to cancel the input operation or return to the previous operation state.
  • buttons / switches are not provided with a specific member, but a touch panel is provided to operate the buttons / switches by operating them. Good.
  • FIG. 3 is a block diagram showing an embodiment of the internal configuration of the imaging apparatus 10.
  • the imaging apparatus 10 records captured images on a memory card 54, and the overall operation of the apparatus is controlled by a central processing unit (CPU) 40.
  • CPU central processing unit
  • the imaging device 10 has operations such as the shutter button 2, the power / mode switch 3, the mode dial 4, the tele button 5T, the wide button 5W, the cross button 6, the MENU / OK button 7, the playback button 8, the BACK button 9, and the like.
  • a portion 38 is provided.
  • a signal from the operation unit 38 is input to the CPU 40, and the CPU 40 controls each circuit of the imaging device 10 based on the input signal. For example, image sensor drive control, lens drive control, aperture drive control, photographing operation control, Image processing control, image data recording / reproduction control, display control of the liquid crystal monitor 30, and the like are performed.
  • the luminous flux that has passed through the photographing lens 12, the diaphragm 14, the mechanical shutter (mechanical shutter) 15, and the like forms an image on the imaging element 16 that is a CMOS (Complementary Metal-Oxide Semiconductor) type color image sensor.
  • the image sensor 16 is not limited to the CMOS type, but may be an XY address type or a CCD (Charge Coupled Device) type color image sensor.
  • the image sensor 16 has a large number of light receiving elements (photodiodes) arranged two-dimensionally, and the subject image formed on the light receiving surface of each photodiode is an amount of signal voltage (or charge) corresponding to the amount of incident light. Is converted into a digital signal via an A / D converter in the image sensor 16 and output.
  • the image pickup device 16 has a color filter array exemplified below on a plurality of pixels composed of photoelectric conversion elements (photodiodes) arranged in a horizontal direction (first direction) and a vertical direction (second direction).
  • the color filter is arranged.
  • FIG. 4 is a diagram showing an example of the image sensor 16, and particularly shows a new color filter array arranged on the light receiving surface of the image sensor 16.
  • the color filter array of the image sensor 16 is a basic array pattern P (pattern indicated by a thick frame) in which color filters are arrayed in an array pattern corresponding to 6 ⁇ 6 (M ⁇ M) pixels in the horizontal and vertical directions.
  • the basic array pattern P is repeatedly arranged in the horizontal direction (left-right direction: first direction) and the vertical direction (up-down direction: second direction). That is, in this color filter array, red (R), green (G), and blue (B) color filters (R filter, G filter, and B filter) are arranged with periodicity. Since the R filter, G filter, and B filter are arranged with periodicity in this way, when performing image processing of RGB RAW data (mosaic image) read from the image sensor 16, processing is performed according to a repetitive pattern. Can do.
  • the basic array pattern of 6 ⁇ 6 pixels is not limited to the basic array pattern P, and a basic array pattern P ′ (see FIG. 4) of 6 ⁇ 6 pixels cut out from a position different from the basic array pattern P is used. It can also be understood as a pattern.
  • the G filter corresponding to the color that contributes most to obtain the luminance signal is the horizontal, vertical, diagonal upper right, and diagonal upper left of the color filter array.
  • One or more pixels are arranged in each pixel line in the direction.
  • the pixel line refers to a line in which pixels are arranged in a line in the horizontal, vertical, diagonally upper right, or diagonally upper left direction, and is also simply referred to as “line” hereinafter.
  • the diagonal upper right direction and the diagonal lower right direction in this embodiment are directions inclined by 45 ° with respect to the horizontal direction and the vertical direction, respectively.
  • a plurality of pixels and color filters are arranged in a square lattice pattern in the horizontal direction and the vertical direction. Accordingly, when a plurality of pixels and color filters are arranged in a rectangular grid, the diagonal directions of the rectangular grid (unit pixel) correspond to the diagonally upper right direction and diagonally lower right direction.
  • the synchronization process is a process for calculating (converting into simultaneous expression) all the RGB color information for each pixel from the RGB mosaic image associated with the color filter array of the single-plate color image sensor. Also referred to as processing or demosaicing processing (same in this specification).
  • the color filter array shown in FIG. 4 includes an R filter and a B filter corresponding to two or more other colors (in this embodiment, R and B colors) other than the G color.
  • One or more pixels are arranged in each pixel line in the horizontal and vertical directions of P.
  • the R filter and the B filter are arranged in each pixel line in the horizontal and vertical directions of the color filter array, generation of false colors (color moire) can be reduced. Thereby, an optical low-pass filter for reducing (suppressing) the occurrence of false colors can be omitted. Even when an optical low-pass filter is applied, it is possible to apply a filter having a weak function of cutting a high-frequency component for preventing the occurrence of false colors, so that the resolution is not impaired.
  • the basic arrangement pattern P of the color filter arrangement shown in FIG. 4 has the number of R, G, and B pixels corresponding to the R, G, and B filters in the basic arrangement pattern as 8 pixels and 20 pixels, respectively. , 8 pixels. That is, the ratio of the number of pixels of RGB pixels is 2: 5: 2, and the ratio of the number of G pixels that contributes most to obtain a luminance signal is the ratio of R pixels and B pixels of other colors. It is larger than the ratio of the number of pixels.
  • the ratio between the number of G pixels and the number of R and B pixels is different, and in particular, the ratio of the number of G pixels that contributes most to obtain a luminance signal is equal to the number of R and B pixels. Since the ratio is larger than the ratio, aliasing at the time of the synchronization process can be suppressed and high frequency reproducibility can be improved.
  • FIG. 5 shows a state where the basic array pattern P shown in FIG. 4 is divided into 3 ⁇ 3 ((M / 2) ⁇ (M / 2)) pixels, and a first arrangement example of phase difference pixels to be described later. Show.
  • the basic array pattern P includes an A array (first sub-array) surrounded by a solid frame arranged in an array pattern corresponding to 3 ⁇ 3 pixels in the horizontal direction and the vertical direction, and a broken line.
  • the 3 ⁇ 3 pixel B array (second sub-array) surrounded by the frame is an array alternately arranged in the horizontal direction and the vertical direction.
  • the A array is arranged in one diagonal direction of the basic array pattern P
  • the B array is arranged in the other diagonal direction of the basic array pattern P.
  • the G filter (first color) is disposed at the four corners and the center pixel, and is disposed on both diagonal lines.
  • the R filter first constituent color
  • the B filter second constituent color
  • the B filter is arranged in the vertical direction
  • the R filter is arranged in the horizontal direction with the central G filter interposed therebetween.
  • the B filter is arranged in the vertical direction and the R filter is arranged in the horizontal direction with the central G filter interposed therebetween. Therefore, the R filter is arranged in a pixel adjacent in the vertical direction to the central pixel in the A array and in a pixel adjacent in the horizontal direction to the central pixel in the B array.
  • the B filter is arranged in a pixel adjacent to the central pixel in the horizontal direction in the A array and a pixel adjacent in the vertical direction to the central pixel in the B array. That is, in the A array and the B array, the positional relationship between the R filter and the B filter is reversed, but the arrangement of the G filters is the same.
  • the G filters at the four corners of the A array and the B array become a square array G filter corresponding to 2 ⁇ 2 pixels by alternately arranging the A array and the B array in the horizontal direction and the vertical direction. .
  • the kernel cycle for G pixels is 3 pixel cycles, but the kernel cycle for R pixels and B pixels is 6 pixel cycles. Therefore, the kernel period of the G pixel and the kernel period of the R pixel and the B pixel do not necessarily match.
  • the color filter array according to the present embodiment includes a plurality of phase difference pixels (first phase difference pixel p1 and second phase difference pixel p2) for AF control, which will be described later, and these phase difference pixels are horizontal. It is periodically arranged with respect to the direction and the vertical direction. Regarding the arrangement of the first phase difference pixel p1 and the second phase difference pixel p2, the basic array pattern P can be classified into “first basic array pattern P1” and “second basic array pattern P2”. In the color filter array according to the present embodiment, the “first basic array pattern P1” and the “second basic array pattern P2” are different in arrangement of the first phase difference pixel p1 and the second phase difference pixel p2. Alternatingly arranged in the vertical direction, and each of the “first basic array pattern P1” and the “second basic array pattern P2” are successively juxtaposed in the horizontal direction (see FIG. 10).
  • the first phase difference pixels p1 are arranged in one A array of the first basic array pattern P1 and one B array of the second basic array pattern P2.
  • the second phase difference pixels p2 are arranged in one B array of the first basic array pattern P1 and one A array of the second basic array pattern P2.
  • the first phase difference pixel p1 is arranged at the position of the G pixel at the lower left corner of the A arrangement arranged on the upper side in the vertical direction, and arranged on the upper side in the vertical direction.
  • the second phase difference pixel p2 is disposed at the position of the G pixel at the lower left corner of the B array.
  • the second phase difference pixel p2 is arranged at the position of the G pixel at the upper left corner of the A array arranged on the upper side in the vertical direction, and the B array arranged on the upper side in the vertical direction.
  • the first phase difference pixel p1 is disposed at the position of the G pixel in the upper left corner.
  • the first phase difference pixel p1 and the second phase difference pixel p2 are located in pixel lines in which the G filters are densely arranged (relatively arranged) in the horizontal direction, and the G filters are in the horizontal direction. It is not located in pixel lines that are sparsely arranged (relatively few pixels). Thereby, many G pixels of the same color are arranged around the first phase difference pixel p1 and the second phase difference pixel p2, and in this example, as shown in FIG. 10A, the first phase difference pixel p1.
  • the first phase difference pixels p1 and the second phase difference pixels p2 are alternately arranged on one pixel line extending in the vertical direction.
  • the first phase difference pixel p1 of the first basic arrangement pattern P1 the second phase difference pixel p2 of the second basic arrangement pattern P2, and the second phase difference pixel p2 of the first basic arrangement pattern P1
  • the first phase difference pixels p1 of the second basic array pattern P2 are arranged as a pair in the vertical direction and can be used as a phase difference pixel pair.
  • the first phase difference pixels p1 and the second phase difference pixels p2 are alternately arranged on one pixel line extending in the horizontal direction.
  • first phase difference pixel p1 in the A arrangement of the first basic arrangement pattern P1 and the second phase difference pixel p2 in the B arrangement and the second phase difference pixel p2 in the A arrangement of the second basic arrangement pattern P2.
  • first phase difference pixel p1 in the B arrangement are arranged in a pair in the horizontal direction and can be used as a phase difference pixel pair.
  • the pixel number t1 in the vertical direction between the first phase difference pixel p1 and the second phase difference pixel p2 that form a pair in the vertical direction is “4”, which is a multiple of 2 (even number). It has become.
  • the repetition period of the first phase difference pixel p1 and the second phase difference pixel p2 in the vertical direction is based on the two basic array patterns P, and the specific number of corresponding pixels is “12”.
  • the position of the first phase difference pixel p1 in the first basic arrangement pattern P1 is different from the position of the second phase difference pixel p2 in the second basic arrangement pattern P2.
  • 6 (a) and 6 (b) are enlarged views of the main part showing the configurations of the first phase difference pixel p1 and the second phase difference pixel p2, respectively.
  • a light shielding member 16A is disposed on the front side (microlens L side) of the photodiode PD of the first phase difference pixel p1, while FIG. As shown, a light shielding member 16B is disposed on the front side of the photodiode PD of the second phase difference pixel p2.
  • the microlens L and the light shielding members 16A and 16B have a function as pupil dividing means, and as shown in FIG. 6A, the light shielding member 16A shields the left half of the light receiving surface of the photodiode PD.
  • the first phase difference pixel p1 As shown in FIG. 6B, the light shielding member 16B shields the right half of the light receiving surface of the photodiode PD of the second phase difference pixel p2. Therefore, only the light beam that passes through the right side of the optical axis among the light beams that pass through the exit pupil of the photographing lens 12 is received by the second phase difference pixel p2.
  • the light beam passing through the exit pupil is divided into left and right by the microlens L and the light shielding members 16A and 16B, which are pupil dividing means, and are incident on the first phase difference pixel p1 and the second phase difference pixel p2, respectively. To do.
  • the first phase difference pixel p1 and the second phase difference pixel p2 are provided in the AF area (focus detection area) at the center in the imaging area of the imaging device 16, as shown in FIG.
  • the first phase difference pixel p1 and the second phase difference pixel p2 are preferably arranged from several tens of pixels to about 100 pixels in the phase difference detection direction, and a plurality of pairs of phase difference pixels are arranged in the vertical direction. It is preferable to do.
  • the AF area is not limited to the example shown in FIG. 7, and a plurality of AF areas may be provided in the imaging area as shown in FIGS. 8A to 8C, or may be provided in the entire imaging area. It may be.
  • the sensor drive unit 32 is a color image acquisition unit that reads a digital signal (image signal) from the image sensor 16 in response to a read command from the CPU 40, and sequentially reads the image signal for each pixel line from the image sensor 16.
  • a decimation readout command such as 1/4 decimation is applied from the CPU 40, an image signal of a pixel line corresponding to a decimation pattern (extraction pattern) described later is selectively read out.
  • a readout method in a CMOS image sensor is a rolling shutter method in which reset is sequentially performed for each pixel line from the upper side and sequential readout is performed.
  • This rolling shutter system has a problem that the image of the subject is distorted in the case of a moving subject because there is a time difference in exposure timing for each pixel line. Therefore, during still image shooting, the shutter drive unit 33 controls the mechanical shutter 15 to open and close (controls the exposure time) so that distortion due to the rolling shutter does not occur.
  • the rolling shutter system is a MOS type image pickup device in which an exposure operation is sequentially performed for at least one or more scanning lines or pixels, that is, reset is sequentially performed for each scanning line or pixel to start and accumulate charges. This is a method of reading out charges (also called a focal plane shutter method).
  • Image signals (R, G, B signals) read from the image sensor 16 are output to the image input controller 22.
  • the digital signal processing unit 24 performs signal processing such as offset processing, white balance correction, gamma correction processing, synchronization processing, YC processing, and moving image generation processing on a digital image signal input via the image input controller 22. Etc.
  • the image data processed by the digital signal processing unit 24 is input to the VRAM 50.
  • the VRAM 50 includes an A area and a B area for recording image data each representing an image for one frame.
  • image data representing an image for one frame is rewritten alternately in the A area and the B area.
  • the written image data is read from an area other than the area where the image data is rewritten.
  • the image data read from the VRAM 50 is encoded by the video encoder 28 and output to the liquid crystal monitor 30 provided on the back of the camera, whereby the subject image is continuously displayed on the display screen of the liquid crystal monitor 30. .
  • the CPU 40 always performs AF operation and AE (automatic exposure) operation during shooting / displaying a through image (live view image) and shooting / recording (recording) a moving image.
  • the AF processing unit (phase difference detection means) 42 is a part that performs the phase difference AF processing according to the present invention, and each output signal of the first phase difference pixel p1 and the second phase difference pixel p2 shown in FIG. To detect the phase difference. Details of the phase difference detection by the AF processing unit 42 will be described later.
  • the CPU 40 functions as a focus adjusting unit that performs the phase difference AF based on the phase difference data. That is, the CPU 40 calculates a deviation amount (defocus amount) between the focus position of the photographing lens 12 and the imaging surface of the image sensor 16 based on the phase difference data, and the lens so that the calculated defocus amount becomes zero.
  • the focus lens in the photographic lens 12 is moved via the drive unit 36.
  • the calculation of the defocus amount may be performed by the AF processing unit 42.
  • the AE detection unit 44 integrates the G signals of the entire screen or integrates the G signals that are weighted differently in the central portion and the peripheral portion of the screen, and outputs the integrated value to the CPU 40.
  • the CPU 40 calculates the brightness (photographing Ev value) of the subject from the integrated value input from the AE detection unit 44.
  • the shooting mode is the still image shooting mode
  • the CPU 40 performs the above-described AF control again, and if the shutter button 2 is fully pressed,
  • the brightness of the subject (shooting Ev value) is calculated, and based on the calculated shooting EV value, the F value of the aperture 14 and the exposure time (shutter speed) by the mechanical shutter 15 are determined according to the program diagram, and still image shooting ( (Exposure control).
  • the shooting mode is the moving image shooting mode
  • the CPU 40 starts shooting / recording (recording) of the moving image.
  • the mechanical shutter 15 is opened, and image data is continuously read from the image sensor 16 (for example, frame rates of 30 frames / second and 60 frames / second), and phase difference AF is continuously performed.
  • the brightness of the subject is calculated, and the shutter drive unit 33 controls the shutter speed (charge accumulation time by the rolling shutter) and / or the aperture 14 by the aperture drive unit 34.
  • the CPU 40 moves the zoom lens forward and backward in the optical axis direction via the lens driving unit 36 in accordance with the zoom command from the zoom button 5 to change the focal length.
  • Reference numeral 47 denotes a ROM (EEPROM) that stores a camera control program, defect information of the image sensor 16, various parameters and tables used for image processing, a thinning pattern for thinning and reading out moving images, and the like.
  • EEPROM EEPROM
  • Image data output from the image sensor 16 when shooting a moving image or a still image is input from the image input controller 22 to a memory (SDRAM) 48 and temporarily stored.
  • SDRAM memory
  • the image data temporarily stored in the memory 48 is appropriately read out by the digital signal processing unit 24.
  • gain control processing including offset processing, white balance correction, sensitivity correction, gamma correction processing, and synchronization processing.
  • YC processing luminance of image data
  • Signal processing including data and color difference data generation processing is performed, and YC-processed image data (YC data) is stored in the memory 48 again.
  • the digital signal processing unit 24 performs necessary signal processing on the input mosaic image to generate RGB pixel signals having all RGB color information for each pixel, and based on this, luminance data (Y data) and color difference are generated.
  • Image data composed of data (Cr, Cb data) is generated, and this image data is stored in the memory 48.
  • the YC data stored in the memory 48 is output to the compression / decompression processing unit 26, and after being subjected to compression processing such as JPEG (Joint Photographic Experts Group), it is stored in the memory 48 again.
  • An image file is generated from the YC data (compressed data) stored in the memory 48, and the image file is read by the media controller 52 and recorded on the memory card 54.
  • FIG. 9 is a flowchart showing an image processing method according to the present invention, and particularly shows image processing during moving image shooting.
  • the CPU 40 acquires a thinning rate for thinning out and reading out pixel data (image data) from the image sensor 16 (step S10 in FIG. 9).
  • This thinning rate may be a fixed value set in advance, or may be selected by the user from a plurality of thinning rates. For example, an optimum thinning rate can be set in conjunction with the selection of the image size of the moving image or the selection of the frame rate.
  • the CPU 40 outputs a read command indicating a thinning pattern (extraction pattern) corresponding to the thinning rate to the sensor driving unit 32, and reads out the image data from the image sensor 16 (step S12).
  • FIG. 10 is a conceptual diagram regarding a first arrangement example of phase difference pixels in the image sensor 16 and thinning-out reading of image data.
  • all lines (all horizontal pixel lines) of RAW data (mosaic image) having the same color array as the color filter array of the image sensor 16 can be read from the image sensor 16.
  • 1/2 thinning-out reading in which one line is extracted and read every two lines in the horizontal direction can be performed.
  • the thinning readout shown in FIG. 10B is performed in the high-resolution imaging mode
  • the thinning readout shown in FIG. 10C is performed in the low-resolution imaging mode and the live view display mode. Good.
  • the first phase difference pixel p1 and the second phase difference pixel p2 are arranged at the position of the lower left G pixel or the position of the upper left G pixel in the 3 ⁇ 3 A array and the B array, respectively (FIG. 5). reference).
  • both the horizontal pixel line including the first phase difference pixel p1 and the second phase difference pixel p2, and the first phase difference pixel p1 and the second phase difference pixel p2 are included. Both with no horizontal pixel lines are read out. That is, a thinning pattern indicating which line is to be read is set in advance in accordance with the thinning rate, and in this example, “horizontal pixel line” or “horizontal pixel line and vertical pixel line”. From this, a thinning pattern is formed, and only pixel data (image data) of pixel lines corresponding to the thinning pattern is thinned and read out.
  • numbers 1 to 3 are assigned to 3 pixel lines (horizontal / vertical direction) corresponding to the A array or B array (sub array), and 6 pixel lines ( Numbers 1 to 6 are assigned to the horizontal / vertical directions.
  • the first phase difference pixel p1 and the second phase difference pixel p2 are arranged only in the horizontal direction pixel line corresponding to the number 1 or 3 in the A array. Therefore, in the case of 1 ⁇ 4 decimation readout in which only the horizontal pixel lines with black circles in FIG. 10A are extracted, as shown in FIG. “Horizontal pixel line corresponding to number 3 of the basic array pattern P”, “horizontal pixel line corresponding to number 1 of the array A and corresponding to number 1 of the basic array pattern P” and “number 2 of the array B”.
  • the image data (pixel signal) of the “horizontal pixel line corresponding to number 5 of the basic array pattern P” is periodically read out.
  • the line image read out and extracted from the image sensor 16 by the color image acquisition means (sensor drive unit 32) extends in the horizontal direction including the first phase difference pixel p1 of the first basic array pattern P1.
  • Pixel line (sub-array) including image data of the pixel line (number 3 of the sub array, number 3 of the basic array pattern) and the second phase difference pixel p2 of the second basic array pattern P2 No. 1, the basic array pattern number 1) and the second basic array pattern P2 extending in the horizontal direction without including any of the first phase difference pixel p1 and the second phase difference pixel p2.
  • image data of a pixel line (sub array number 2 and basic array pattern number 5).
  • a pixel group that includes pixels corresponding to pixel signals that are thinned out or extracted, and that corresponds to image data used when generating a moving image, includes a plurality of pixels to be read and extracted. Lines (three horizontal pixel lines in this example) are periodically arranged. In this example, a pixel line that does not include both the first phase difference pixel p1 and the second phase difference pixel p2 in the extracted pixel group includes the first phase difference pixel p1 and the second phase difference pixel p2.
  • a pixel (G pixel) having the same color as the pixel (G pixel) to be arranged is included, and this G pixel is arranged adjacent to the first phase difference pixel p1 and the second phase difference pixel p2 in the oblique direction.
  • the synchronization process is performed without being thinned out in the horizontal direction, and then the moving image data is generated by performing the process of reducing the pixel data in the horizontal direction. Therefore, the digital signal processing unit 24 extracts and acquires a color image having a predetermined color array, and generates moving image data based on the extracted and acquired color image.
  • a pixel line that does not include either the first phase difference pixel p1 or the second phase difference pixel p2 (horizontal direction) in the extracted pixel group is the first phase difference pixel p1 and the second phase difference pixel p1.
  • the digital signal processing unit 24 performs a synchronization process on the basis of the extracted pixel data as shown in FIG. 10C, and then performs decimation / reduction between both the horizontal direction and the vertical direction.
  • Moving image data is generated by performing a reduction process of pixel data for adjusting the degree.
  • step S12 when image data for one frame is thinned and read out in step S12, AF operation and moving image generation processing are performed in parallel as shown below.
  • the AF processing unit 42 extracts image data (output data) of the first phase difference pixel p1 and the second phase difference pixel p2 in the AF area from the image data for one frame that has been thinned out and read out.
  • the phase difference between the output data of the first phase difference pixel p1 and the output data of the second phase difference pixel p2 is detected (step S14). For example, when the correlation between the output data of the pair of upper and lower first phase difference pixels p1 and the second phase difference pixel p2 is maximized (the integrated value of the absolute differences of the output data of the pair of upper and lower phase difference pixels is The phase difference is obtained from the shift amount in the left-right direction between the output data (when it is minimum).
  • phase difference is obtained from the shift amount in the horizontal direction between the output data when the correlation between the output data of the first phase difference pixel p1 and the output data of the second phase difference pixel p2 is maximized, and the obtained shift amount Can be calculated as a phase difference by correcting the first phase difference pixel p1 and the second phase difference pixel p2 by the amount of horizontal displacement.
  • the method for calculating the phase difference is not limited to the above method, and various methods can be applied.
  • the CPU 40 calculates a deviation amount (defocus amount) between the focus position of the photographing lens 12 and the imaging surface of the image sensor 16 based on the phase difference data detected in step S14 ( Step S16).
  • the calculation of the defocus amount may be performed by the AF processing unit 42.
  • the CPU 40 determines whether or not the focus lens in the photographing lens 12 is at the in-focus position from the calculated defocus amount (step S18). If it is determined that the focus position is not reached (in the case of “No”), the focus lens in the photographing lens 12 is moved via the lens driving unit 36 so that the calculated defocus amount becomes zero (step S20). If it is determined that it is in the in-focus position (in the case of “Yes”), the process proceeds to step S32.
  • the moving image generation processing is performed in parallel with the processing from step S14 to step S20.
  • step S22 the interpolation calculation means in the digital signal processing unit 24 at the pixel positions of the first phase difference pixel p1 and the second phase difference pixel p2.
  • the pixel value (image data) of the pixel (G pixel) is calculated. That is, since the output data of the first phase difference pixel p1 and the second phase difference pixel p2 cannot be used as the image data of the G pixel, the pixels of the first phase difference pixel p1 and the second phase difference pixel p2
  • the image data of the G pixel at the position is calculated by interpolation of image data of a plurality of surrounding G pixels (in this embodiment, a plurality of G pixels including adjacent G pixels).
  • the calculated image data is G pixel image data at the pixel positions of the first phase difference pixel p1 and the second phase difference pixel p2.
  • the color image after the thinning-out reading is adjacent to the first phase difference pixel p1 and the second phase difference pixel p2, and is a pixel at the position of the first phase difference pixel p1 and the second phase difference pixel p2.
  • Pixels of the same color as the color (G) of the pixel are arranged, and the pixel values of the pixels at the positions of the first phase difference pixel p1 and the second phase difference pixel p2 in the color image after the thinning readout are the first Pixel values of peripheral pixels including pixels of the same color (G) adjacent to the phase difference pixel p1 and the second phase difference pixel p2 are used for the interpolation process, and interpolation calculation means (for example, interpolation) in the digital signal processing unit 24 is used. Is calculated by an arithmetic circuit).
  • the digital signal processing unit 24 performs white balance correction based on the R, G, and B image data (the G pixel at the pixel position of the phase difference pixel is interpolated image data) read out (extracted). , Generation processing of a moving image subjected to signal processing such as gamma correction processing, synchronization processing, and YC processing.
  • the digital signal processing unit 24 (moving image generating unit) uses the values calculated by the interpolation calculating unit as the pixel values of the pixels at the positions of the first phase difference pixel p1 and the second phase difference pixel p2. Based on the read color image, reduced moving image data is generated (step S24).
  • the mosaic image of R, G, and B after thinning-out readout has many G pixels as normal pixels around the phase difference pixels.
  • the accuracy of phase difference pixel interpolation can be increased, and since the R, G, and B pixels are arranged on all horizontal lines, the accuracy of the synchronization processing (demosaic processing) can be increased. .
  • the digital signal processing unit 24 thins out (extracts) the image of the vertical line after the synchronization processing in the same manner as the thinning out of the horizontal line (1/4 thinning out in this example), and horizontally An image thinned in the direction and the vertical direction (reduced image) is generated.
  • the moving image generated by the digital signal processing unit 24 is converted by the compression / decompression processing unit 26 into compressed moving image data such as motion JPEG, MPEG (Moving Picture Experts Group) -4, and the like.
  • the data is recorded on the card 54 (step S26).
  • the digital signal processing unit 24 generates a moving image for display to be displayed on the liquid crystal monitor 30 in parallel with the generation of the moving image for recording (step S28).
  • the moving image for display is an image further reduced in accordance with the display size of the liquid crystal monitor 30.
  • the generated moving image for display is output to the liquid crystal monitor 30 via the video encoder 28 and displayed as a through image (step S30).
  • the user can confirm the image during the moving image shooting with the through image displayed on the liquid crystal monitor 30.
  • the CPU 40 determines whether or not there is an instruction input for the end of moving image shooting (pressing the shutter button 2 again) from the operation unit 38 (step S32). Then, when there is an instruction input for ending the shooting of the movie (in the case of “Yes”), the shooting / recording of the movie is ended, while on the other hand, there is no instruction input for ending the shooting of the movie (in the case of “No”) In step S12, the moving image recording / recording is continued.
  • a thinned-out extracted image used for moving image generation (in the example shown in FIG. 10B, 1/4 thinned-out readout in the vertical direction (only one of four lines is extracted) ),
  • 1 ⁇ 4 decimation readout is performed in the vertical direction (only one line is extracted from four horizontal pixel lines) and 1 ⁇ 2 decimation readout is performed in the horizontal direction (2 vertical directions).
  • phase difference pixels (the first phase difference pixel p1 and the second phase difference pixel p2) are included in the line image extracted at the time of moving image generation, it is possible to appropriately perform AF control even during moving image shooting. it can.
  • the repetition cycle of the phase difference pixels (the first phase difference pixel p1 and the second phase difference pixel p2) and the line image extraction cycle (extraction pixel cycle) at the time of moving image generation are shifted ( Therefore, not only the pixel line including the phase difference pixel but also the pixel line including only the normal pixel without including the phase difference pixel is extracted.
  • the image quality of the moving image can be improved, and when the image data of the phase difference pixel is calculated and acquired based on the surrounding pixel data by the interpolation process, Image data of a “pixel line including only pixels” can be used effectively, and the interpolation accuracy of image data (pixel data) can be improved.
  • an extraction pixel line that does not include a phase difference pixel is adjacent to the first phase difference pixel p1 or the second phase difference pixel p2 and a filter (G filter) having the same color as the phase difference pixel is extracted (
  • G filter a filter having the same color as the phase difference pixel
  • the same color pixel (G pixel) is arranged at a position adjacent to each of the first phase difference pixel p1 and the second phase difference pixel p2, and therefore, Interpolation accuracy can be increased.
  • the pixel interval between the first phase difference pixel p1 and the second phase difference pixel p2 is set to an even number of pixels as in this example.
  • the first phase difference pixel p1 and the second phase difference pixel p2 that are paired are arranged on the same pixel line extending in the vertical direction, so that the first phase difference pixel p1 and the second phase difference pixel p2 are arranged.
  • the pixel interval means a pixel interval (pitch) from the center point of the reference pixel to the center point of the adjacent pixel.
  • each of the horizontal pixel lines includes R pixels, G pixels, and B pixels. All color pixels are included.
  • each of the G pixel and the phase difference pixel is perpendicular to the R pixel and the B pixel in the array (extracted pixel group) after the thinning readout. Adjacent to one of the horizontal and diagonal directions, each of the R pixel, G pixel, and B pixel is not striped in the vertical direction (a single color pixel of the R pixel, G pixel, and B pixel is vertical) Therefore, the synchronization accuracy can be increased. Therefore, according to this example, a high-quality moving image excellent in color reproducibility can be generated.
  • the imaging apparatus 10 of the present embodiment it is possible to shorten the processing time per frame by using the thinned color image as a target image for moving image processing, and to reduce the frame rate. Can be prevented from dropping.
  • the time for reading an image from the image sensor 16 can be shortened.
  • the first and second positions are located on the thinning pattern on the pixel line of the same color on the pixel line in the first direction (horizontal direction). Since the phase difference pixels p1 and p2 are arranged, output signals corresponding to the first and second phase difference pixels can be acquired in two dimensions in the first direction and the second direction (vertical direction). Based on this output signal, the phase difference of each output signal can be detected with high accuracy. As a result, the imaging apparatus 10 can perform the phase difference AF with high accuracy during moving image shooting.
  • each of the first filter (G filter of G color) and the second filter (R filter, B filter) corresponding to each color of the second color (R color, B color) has a basic arrangement pattern P, Since one or more pixels are arranged in each pixel line in the first direction and the second direction in P ′, when shooting using all pixels without thinning out (for example, a still image), It is possible to reduce the occurrence of false colors and increase the resolution in a captured image (such as a still image), and to use normal pixels (first and second pixels) as peripheral pixels of the first and second phase difference pixels.
  • a pixel value of a color pixel at the position of the first and second phase difference pixels is generated by interpolation of pixel values of peripheral pixels including adjacent pixels It can be obtained with high accuracy. Thereby, in the imaging device 10, it is possible to prevent or reduce deterioration of the image quality of the captured image due to the phase difference pixels p1 and p2.
  • FIG. 11 is a conceptual diagram relating to a second arrangement example of phase difference pixels in the image sensor 16 and thinning-out reading of image data.
  • this arrangement example a detailed description of the same configuration and operational effects as those of the first arrangement example shown in FIG. 10 is omitted.
  • the color filters are basically arranged in an array pattern corresponding to 3 ⁇ 6 (M ⁇ N) pixels in the horizontal and vertical directions.
  • An array pattern P is formed.
  • the basic array pattern P includes an A array (first sub array) and a B array which are two types of sub arrays in which color filters are arrayed in an array pattern corresponding to 3 ⁇ 3 (M ⁇ (N / 2)) pixels.
  • Each of the arrays (second sub-array) is included.
  • each of the A array and the B array 5 pixels of G filters are arranged at the pixel positions of the L-shaped outer peripheral portion that constitutes two sides out of the four sides and adjacent to each other.
  • Two R filters and two B filters are arranged at each pixel position.
  • the R filter is arranged on one diagonal line of the 2 ⁇ 2 pixel portion other than the outer peripheral part where the G filter is arranged, and the B filter is arranged on the other diagonal line.
  • an R filter is arranged on a diagonal line passing through G pixels common to two sides constituted by the outer peripheral portion (G pixels forming corner portions among G pixels arranged in an L shape). Is done.
  • the R filter is arranged on one diagonal line of the 2 ⁇ 2 pixel portion other than the outer peripheral part where the G filter is arranged, and the B filter is arranged on the other diagonal line.
  • a B filter is arranged on a diagonal line passing through G pixels common to the two sides to be configured. Therefore, the positional relationship between the R filter and the B filter is reversed between the A array and the B array, but the arrangement of the G filters is the same.
  • the kernel period for the G pixel is 3 pixel periods
  • the kernel period for the R pixel and the B pixel is also 3 pixel periods
  • the kernel period of the G pixel and R coincides with each other.
  • the first phase difference pixel p1 is arranged at the upper left G pixel in the four corners of the A arrangement, and the second phase difference pixel p2 is arranged in the B arrangement.
  • the pixel is arranged at the G pixel located in the center in the vertical direction. Therefore, as shown in FIG. 11A, the upper and lower pixels (vertical pixels) and the diagonal pixels (left and right upper pixels or left and right lower pixels) with respect to each of the first phase difference pixel p1 and the second phase difference pixel p2.
  • G pixels of the same color are arranged in (pixel).
  • a basic array pattern P including the first phase difference pixel p1 and the second phase difference pixel p2, and the first phase difference pixel p1 and the second phase difference pixel p2.
  • Basic array patterns P that do not include any of the above are alternately juxtaposed in the vertical direction, and the first basic array pattern and the second basic array pattern are continuous in the horizontal direction. Juxtaposed.
  • a G filter disposed at each corner of the A array and the B array surrounds a 2 ⁇ 2 pixel region in which the R filter and the B filter are disposed, and a cross-shaped G filter is formed.
  • a filter arrangement will be formed.
  • a direction determination processing unit may be provided in the above-described synchronization processing circuit, and the direction determination processing unit may perform direction determination.
  • Each of the R filter and the B filter has a horizontal (H) and a vertical (V) line of the color filter array in the basic array pattern P in order to reduce the occurrence of color moire (false color). It is preferable to arrange in.
  • the R and B pixel values in the G pixel are determined from the pixels corresponding to the R filter or B filter in the adjacent filter row using the result of direction determination from the output signal value from the adjacent G pixel group described above. It can be obtained by interpolation processing.
  • the first phase difference pixel p1 and the second phase difference pixel p2 are arranged as a pair on the same pixel line extending in the vertical direction, and can be used as a pair. Also in this example, the number t1 of pixels in the vertical direction between the first phase difference pixel p1 and the second phase difference pixel p2 that form a pair in the vertical direction is “4”, and the first phase difference The repetition period in the vertical direction of the pixel p1 and the second phase difference pixel p2 is based on the two basic array patterns P, and the specific number of corresponding pixels is “12”.
  • line image extraction processing at the time of moving image generation is performed as follows.
  • Image data is read from a line that does not include either p1 or the second phase difference pixel p2. That is, “a horizontal pixel line including the first phase difference pixel p1 (number 1 of the A array, number 1 of the basic array pattern)”, “horizontal pixel line including the second phase difference pixel p2 (of the B array). No.
  • a pixel line (basic array pattern number 3) that includes neither the first phase difference pixel p1 nor the second phase difference pixel p2 in the extracted pixel group of this example shown in FIG.
  • the phase difference pixel p1 and the second phase difference pixel p2 are composed only of pixels (G pixels) having the same color as the G pixel, and the first phase difference pixel p1 and the second phase difference pixel p2 Adjacent to the G pixel.
  • the phase image (the first phase difference pixel p1 and the second phase difference pixel p2) is included in the line image extracted at the time of moving image generation.
  • AF control can be performed appropriately.
  • an extracted pixel line that does not include a phase difference pixel includes a filter (G filter) of the same color as that of the phase difference pixel, and in a color image (extraction pixel group) after extraction (decimation readout), the first phase difference pixel Since normal pixels (G pixels) of the same color are arranged at positions (vertical adjacent positions and oblique adjacent positions) adjacent to p1 and the second phase difference pixel p2, the interpolation accuracy can be further improved. it can.
  • FIG. 12 is a conceptual diagram related to a third arrangement example of phase difference pixels in the image sensor 16 and thinning-out reading of image data.
  • this arrangement example detailed description of the same configuration and operational effects as those of the first arrangement example shown in FIG. 10 and the second arrangement example shown in FIG. 11 is omitted.
  • the color filters are basically arranged in an array pattern corresponding to 3 ⁇ 3 (M ⁇ M) pixels in the horizontal direction and the vertical direction.
  • An array pattern P is formed.
  • This basic array pattern P has a color filter array similar to the B array in the second arrangement example shown in FIG. That is, two pixels of the four sides of the basic array pattern P and two pixels adjacent to each other are arranged at the pixel positions of the L-shaped outer peripheral portion for five pixels, and pixels other than the outer peripheral portion are arranged. Two R filters and two B filters are arranged at each position.
  • a B filter is formed on a diagonal line passing through G pixels common to two sides formed by the outer peripheral portion (G pixels forming corners among G pixels arranged in an L shape).
  • the R filter is arranged on the other diagonal line of the 2 ⁇ 2 pixel portion other than the outer periphery where the G filter is arranged.
  • the kernel period for G pixels is 3 pixel periods
  • the kernel period for R pixels and B pixels is also 3 pixel periods.
  • the kernel period of the pixel and the kernel period of the R pixel and the B pixel coincide with each other.
  • the first phase difference pixel p1 is arranged at the upper left G pixel among the four corners of the basic array pattern P.
  • the second phase difference pixel p2 is arranged in the G pixel located in the center in the vertical direction among the G pixels of the basic array pattern P.
  • the two basic array patterns P including the first phase difference pixel p1 and the second phase difference pixel p2 and neither the first phase difference pixel p1 nor the second phase difference pixel p2 are included.
  • Two basic arrangement patterns P are alternately arranged in the vertical direction, and these basic arrangement patterns P are successively arranged in the horizontal direction.
  • the G filter disposed at the corner of the basic array pattern P surrounds the 2 ⁇ 2 pixel region in which the R filter and the B filter are disposed, and a cross-shaped G filter arrangement is formed. Will be formed.
  • the first phase difference pixel p1 and the second phase difference pixel p2 are arranged as a pair on the same pixel line extending in the vertical direction, and can be used as a pair.
  • the number t1 of pixels in the vertical direction between the first phase difference pixel p1 and the second phase difference pixel p2 that form a pair in the vertical direction in this way is “4”.
  • the repetition period of the first phase difference pixel p1 and the second phase difference pixel p2 in the vertical direction is based on the four basic array patterns P, and the specific number of corresponding pixels is “12”.
  • line image extraction processing at the time of moving image generation is performed as follows.
  • all the lines of RAW data (mosaic image) having the same color array as the color filter array of the image sensor 16 can be read from the image sensor 16, but at the time of moving image shooting, as shown in FIG.
  • 1/4 thinning readout (extraction) for thinning out readout every 4 lines with respect to the vertical direction or in addition to 1/4 thinning readout with respect to the vertical direction as shown in FIG. It is possible to perform 1 ⁇ 4 decimation reading (extraction) in which one line is decimation-reading for each line.
  • Image data is read from a line that does not include either p1 or the second phase difference pixel p2. That is, in the example shown in FIG. 12B, “horizontal pixel line including the first phase difference pixel p1 (number 1 of the basic array pattern)” and “horizontal pixel line including the second phase difference pixel p2”.
  • the phase difference pixel p1 and the second phase difference pixel p2 are configured only by a pixel (G pixel) having the same color as that of the G pixel.
  • the extracted pixel group shown in FIGS. 12B and 12C is the same as the basic array pattern P shown in FIG. 12A with respect to the array pattern of the R filter, the G filter, and the B filter. Has a pattern. Therefore, common image processing (interpolation processing) can be applied before and after moving image generation, which is very convenient.
  • the phase image (the first phase difference pixel p1 and the second phase difference pixel p2) is included in the line image extracted at the time of moving image generation.
  • AF control can be performed appropriately.
  • the extracted pixel line in the horizontal direction not including the phase difference pixel is composed of only a filter (G filter) and a pixel (G pixel) having the same color as the phase difference pixel, and a color image after extraction (decimation readout) ( In the extraction pixel group), in an extraction pixel line that does not include this phase difference pixel at a position (vertical direction adjacent position and oblique direction adjacent position) adjacent to each of the first phase difference pixel p1 and the second phase difference pixel p2. Since normal pixels (G pixels) of the same color (G color) are arranged, the interpolation accuracy can be further improved.
  • the image data configured by the line pixel group extracted for moving image generation has the same array pattern as the basic array pattern P of the mosaic image data before the extraction process, before and after the moving image generation Common image processing (interpolation processing) can be applied.
  • the R pixel and the B pixel are not arranged with the same color pixel at the adjacent pixel position, and the other color pixels are arranged. Is done.
  • the G pixel and the B pixel are adjacent to the R pixel, and the G pixel and the R pixel are adjacent to the B pixel. Therefore, according to this example, it is possible to effectively improve the accuracy of the interpolation process (synchronization process) at the time of moving image generation.
  • Condition (1) is that the contribution rate for obtaining the luminance signal is 50% or more. This contribution rate of 50% is a value determined to distinguish the first color (G color, etc.) from the second color (R, B color, etc.) of the present invention, and is used to obtain luminance data. Are determined to be included in the “first color” in which the contribution ratio is relatively higher than the R color, the B color, and the like.
  • the image signal of the G pixel has a higher contribution rate when generating the luminance signal than the image signal of the R pixel and the B pixel. More specifically, the luminance signal (Y signal) of a pixel after the synchronization processing is generally expressed by the following equation based on the synchronized R, G, B image signals (R, G, B signals). Is calculated by
  • G color is the color that contributes most to the luminance signal among the three primary colors.
  • the contribution ratio of colors other than G can be obtained by experiments and simulations. Therefore, a filter having a color with a contribution ratio of 50% or more other than the G color can also be used as the first filter of the present invention. Note that the color having a contribution ratio of less than 50% is the second color (R color, B color, etc.) of the present invention, and the filter having this color is the second filter of the present invention.
  • Condition (2) is that the peak of the transmittance of the filter is in the range of wavelengths from 480 nm to 570 nm.
  • a value measured with a spectrophotometer is used as the transmittance of the filter.
  • This wavelength range is a range defined for distinguishing between the first color (G color, etc.) and the second color (R, B color, etc.) of the present invention, and the aforementioned contribution ratio is relative. This is a range determined so that peaks such as R color and B color that become lower in general are not included, and peaks such as G color in which the contribution ratio is relatively higher are included.
  • a filter having a transmittance peak within a wavelength range of 480 nm to 570 nm can be used as the first filter.
  • a filter whose transmittance peak is outside the wavelength range of 480 nm to 570 nm is the second filter (R filter, B filter) of the present invention.
  • Condition (3) is that the transmittance within the wavelength range of 500 nm to 560 nm is higher than the transmittance of the second filter (R filter or B filter). Also in this condition (3), the value measured by a spectrophotometer, for example, is used as the transmittance of the filter.
  • the wavelength range of the condition (3) is also a range determined to distinguish the first color (G color, etc.) from the second color (R, B color, etc.) of the present invention. This is a range in which the transmittance of a filter having a color whose contribution rate is relatively higher than the color or B color is higher than the transmittance of an RB filter or the like. Therefore, a filter having a relatively high transmittance within a wavelength range of 500 nm to 560 nm can be used as the first filter, and a filter having a relatively low transmittance can be used as the second filter.
  • Condition (4) is that a filter of two or more colors including a color that contributes most to the luminance signal (for example, G color of RGB) among the three primary colors and a color different from the three primary colors is used as the first filter. Is to use. In this case, a filter corresponding to a color other than each color of the first filter is the second filter.
  • Transparent filter (W filter)>
  • a color filter mainly composed of color filters corresponding to RGB colors is shown, but some of these color filters may be transparent filters (W filters corresponding to white pixels).
  • W filters corresponding to white pixels it is preferable to arrange the W filter W instead of a part of the first filter (G filter).
  • the W filter is a transparent color (first color) filter.
  • the W filter can transmit light corresponding to the wavelength range of visible light.
  • the W filter has a transmittance of 50% or more for each color of RGB. Since the transmittance of the W filter is higher than that of the G filter, the contribution rate for obtaining the luminance signal is also higher than that of the G color (60%), which satisfies the above condition (1).
  • FIG. 13 is a graph showing an example of spectral sensitivity characteristics of each photodiode having an R filter, a G filter, a B filter, and a transparent filter.
  • the transmittance peak of the W filter (the sensitivity peak of the white pixel) is in the wavelength range of 480 nm to 570 nm. Further, the transmittance of the W filter is higher than the transmittance of the RB filter within a wavelength range of 500 nm to 560 nm. For this reason, the W filter also satisfies the above-described conditions (2) and (3). The G filter satisfies the above conditions (1) to (3) as in the W filter.
  • the W filter satisfies the above-mentioned conditions (1) to (3), it can be used as the first filter of the present invention.
  • the color filter array a part of the G filter corresponding to the G color that contributes most to the luminance signal among the three primary colors of RGB is replaced with the W filter, so the above condition (4) is also satisfied.
  • the G color G filter as the first filter is not limited to one type.
  • a plurality of types of G filters may be used as the first filter. That is, the G filter of the color filter (basic array pattern) according to each of the above embodiments may be appropriately replaced with a G1 filter and a G2 filter.
  • FIG. 14 is a graph showing an example of spectral sensitivity characteristics of each photodiode having an R filter, a G1 filter, a G2 filter, and a B filter.
  • the G1 filter transmits G light in the first wavelength band
  • the G2 filter transmits G light in the second wavelength band having a high correlation with the G1 filter.
  • an existing G filter for example, the G filter of the first embodiment
  • the G2 filter a filter having a high correlation with the G1 filter
  • the peak value of the spectral sensitivity curve of the light receiving element in which the G2 filter is disposed is, for example, in a wavelength range of 500 nm to 535 nm (near the peak value of the spectral sensitivity curve of the light receiving element in which the existing G filter is disposed). It is desirable to be.
  • a method described in Japanese Patent Application Laid-Open No. 2003-284084 is used as a method for determining the color filters of four colors (R, G1, G2, and B).
  • the color of the image acquired by the color imaging device is set to four types, and the color information acquired is increased, so that the color can be more accurately compared with the case where only three types of colors (RGB) are acquired.
  • RGB three types of colors
  • the transmittance of the G1 and G2 filters is basically the same as the transmittance of the G filter of the first embodiment, so the contribution rate for obtaining the luminance signal is higher than 50%. Therefore, the G1 and G2 filters satisfy the above condition (1).
  • the transmittance peak of G1 and G2 filters (sensitivity peak of each G pixel) is in the wavelength range of 480 nm to 570 nm.
  • the transmittances of the G1 and G2 filters are higher than the transmittance of the RB filter within a wavelength range of 500 nm to 560 nm. For this reason, the G1 and G2 filters also satisfy the above conditions (2) and (3).
  • E filter a color filter mainly composed of color filters corresponding to RGB colors is shown. However, some of these color filters may be other color filters, for example, corresponding to emerald (E) colors. It is good also as a filter (E filter corresponding to E pixel). In particular, it is preferable to dispose an E filter instead of a part of the first filter (G filter). Thus, by using a color filter array of four colors in which a part of the G filter is replaced with the E filter, it is possible to improve reproduction of high-frequency components of luminance, reduce jegginess, and improve resolution. be able to.
  • FIG. 15 is a graph showing an example of spectral sensitivity characteristics of each photodiode having an R filter, a G filter, a B filter, and an E filter.
  • the peak of the transmittance of the E filter (the peak of the sensitivity of the E pixel) is in the wavelength range of 480 nm to 570 nm. Further, the transmittance of the E filter is higher than the transmittance of the RB filter within a wavelength range of 500 nm to 560 nm. For this reason, the E filter satisfies the above-mentioned conditions (2) and (3). Further, in the color filter array, a part of the G filter corresponding to the G color that contributes most to the luminance signal among the three primary colors of RGB is replaced with the E filter, so the above condition (4) is also satisfied.
  • the E filter has a peak on the shorter wavelength side than the G filter, but may have a peak on the longer wavelength side than the G filter (it looks a little yellowish).
  • an E filter that satisfies the conditions of the present invention can be selected.
  • an emerald filter E that satisfies the condition (1) can be selected.
  • the color filter array including the primary color RGB color filters has been described.
  • G is added to C (cyan), M (magenta), and Y (yellow) which are complementary colors of the primary color RGB.
  • the present invention can also be applied to a color filter array of four complementary color filters.
  • the color filter satisfying any one of the above conditions (1) to (4) is set as the first filter of the present invention, and the other color filter is set as the second filter.
  • the phase difference pixels can be made highly sensitive.
  • a mobile phone having a camera function for example, a smartphone, a PDA (Personal Digital Assistants), or a portable game machine can be cited.
  • a smartphone will be described as an example, and will be described in detail with reference to the drawings.
  • FIG. 16 shows the appearance of a smartphone 500 that is another embodiment of the imaging apparatus 10.
  • a smartphone 500 illustrated in FIG. 16 includes a flat housing 502, and a display input in which a display panel 521 as a display unit and an operation panel 522 as an input unit are integrated on one surface of the housing 502. Part 520.
  • the housing 502 includes a speaker 531, a microphone 532, an operation unit 540, and a camera unit 541.
  • the configuration of the housing 502 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent may be employed, or a configuration having a folding structure or a slide mechanism may be employed.
  • FIG. 17 is a block diagram showing a configuration of the smartphone 500 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 510, a display input unit 520, a call unit 530, an operation unit 540, a camera unit 541, a storage unit 550, and an external input / output unit. 560, a GPS (Global Positioning System) receiving unit 570, a motion sensor unit 580, a power supply unit 590, and a main control unit 501.
  • a wireless communication function for performing mobile wireless communication via the base station device BS and the mobile communication network NW is provided as a main function of the smartphone 500.
  • the wireless communication unit 510 performs wireless communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 501. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.
  • the display input unit 520 displays images (still images and moving images), character information, and the like visually under the control of the main control unit 501, and visually transmits information to the user, and detects user operations on the displayed information.
  • This is a so-called touch panel, and includes a display panel 521 and an operation panel 522.
  • the display panel 521 is preferably a 3D display panel.
  • the display panel 521 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • the operation panel 522 is a device that is placed so that an image displayed on the display surface of the display panel 521 is visible and detects one or a plurality of coordinates operated by a user's finger or stylus. When this device is operated by a user's finger or stylus, a detection signal generated due to the operation is output to the main control unit 501. Next, the main control unit 501 detects an operation position (coordinates) on the display panel 521 based on the received detection signal.
  • the display panel 521 and the operation panel 522 of the smartphone 500 integrally form the display input unit 520, but the operation panel 522 is disposed so as to completely cover the display panel 521. ing.
  • the operation panel 522 may have a function of detecting a user operation even in an area outside the display panel 521.
  • the operation panel 522 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 521 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 521. May be included).
  • the operation panel 522 may include two sensitive regions of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like.
  • examples of the position detection method employed in the operation panel 522 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. You can also
  • the call unit 530 includes a speaker 531 and a microphone 532, and converts a user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501, and outputs the voice data to the main control unit 501, or a wireless communication unit 510 or the audio data received by the external input / output unit 560 is decoded and output from the speaker 531.
  • the speaker 531 can be mounted on the same surface as the surface on which the display input unit 520 is provided, and the microphone 532 can be mounted on the side surface of the housing 502.
  • the operation unit 540 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 540 is mounted on the lower and lower side of the display unit of the housing 502 of the smartphone 500 and turns on when pressed with a finger or the like, and restores a spring or the like when the finger is released. It is a push button type switch that is turned off by force.
  • the storage unit 550 includes control programs and control data of the main control unit 501, address data in which names and telephone numbers of communication partners are associated, transmitted and received e-mail data, Web data downloaded by Web browsing, and downloaded contents Data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 550 includes an internal storage unit 551 with a built-in smartphone and an external storage unit 552 having a removable external memory slot.
  • Each of the internal storage unit 551 and the external storage unit 552 constituting the storage unit 550 includes a flash memory type (hard memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), This is realized using a storage medium such as a card type memory (for example, Micro SD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • a flash memory type hard memory type
  • hard disk type hard disk type
  • multimedia card micro type multimedia card micro type
  • a storage medium such as a card type memory (for example, Micro SD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • the external input / output unit 560 serves as an interface with all external devices connected to the smartphone 500, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE 1394, etc.
  • a network for example, the Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark) ZigBee) (registered trademark, etc.) for direct or indirect connection.
  • an external device connected to the smartphone 500 for example, a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, a memory card (Memory card) connected via a card socket, or a SIM (Subscriber).
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video equipment connected via audio / video I / O (Input / Output) terminal
  • external audio / video equipment connected wirelessly yes / no
  • the external input / output unit may transmit data received from such an external device to each component inside the smartphone 500, or may allow data inside the smartphone 500 to be transmitted to the external device. it can.
  • the GPS receiving unit 570 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 501, performs positioning calculation processing based on the received plurality of GPS signals, A position consisting of longitude and altitude is detected.
  • the GPS reception unit 570 can acquire position information from the wireless communication unit 510 or the external input / output unit 560 (for example, a wireless LAN), the GPS reception unit 570 can also detect the position using the position information.
  • the motion sensor unit 580 includes a triaxial acceleration sensor, for example, and detects the physical movement of the smartphone 500 in accordance with an instruction from the main control unit 501. By detecting the physical movement of the smartphone 500, the moving direction and acceleration of the smartphone 500 are detected. This detection result is output to the main control unit 501.
  • the power supply unit 590 supplies power stored in a battery (not shown) to each unit of the smartphone 500 in accordance with an instruction from the main control unit 501.
  • the main control unit 501 includes a microprocessor, operates according to a control program and control data stored in the storage unit 550, and controls each unit of the smartphone 500 in an integrated manner. Further, the main control unit 501 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 510.
  • the application processing function is realized by the main control unit 501 operating according to the application software stored in the storage unit 550.
  • Examples of the application processing function include an infrared communication function for controlling the external input / output unit 560 to perform data communication with the opposite device, an e-mail function for sending and receiving e-mails, a web browsing function for browsing web pages, and the present invention. And a function for generating a 3D image from the 2D image according to the above.
  • the main control unit 501 has an image processing function such as displaying video on the display input unit 520 based on image data (still image data or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 501 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 520.
  • the main control unit 501 executes display control for the display panel 521 and operation detection control for detecting a user operation through the operation unit 540 and the operation panel 522.
  • the main control unit 501 By executing the display control, the main control unit 501 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar
  • the scroll bar refers to a software key for accepting an instruction to move a display portion of an image, such as a large image that does not fit in the display area of the display panel 521.
  • the main control unit 501 detects a user operation through the operation unit 540, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 522. Or a display image scroll request through a scroll bar.
  • the main control unit 501 causes the operation position with respect to the operation panel 522 to overlap with the display panel 521 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 521.
  • a touch panel control function for controlling the sensitive area of the operation panel 522 and the display position of the software key.
  • the main control unit 501 can also detect a gesture operation on the operation panel 522 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 541 is a digital camera that performs electronic photography using an imaging device such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device), and has functions equivalent to the functions shown in the block diagram of FIG. ing.
  • an imaging device such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device)
  • the color filter array of the image sensor, the array of phase difference pixels, and the like in the camera unit 541 can use the same mode as that of the image capturing apparatus 10, and image processing / control processing ( Thinning readout, phase difference detection, focus adjustment, and the like) can be performed in the same manner as described above for the imaging apparatus 10.
  • the camera unit 541 converts image data obtained by imaging into compressed image data such as JPEG (Joint Photographic Coding Experts Group) under the control of the main control unit 501, and records the data in the storage unit 550 or externally.
  • the data can be output through the input / output unit 560 and the wireless communication unit 510.
  • the camera unit 541 is mounted on the same surface as the display input unit 520, but the mounting position of the camera unit 541 is not limited to this and may be mounted on the back surface of the display input unit 520.
  • a plurality of camera units 541 may be mounted. Note that when a plurality of camera units 541 are mounted, the camera unit 541 used for shooting may be switched to shoot alone, or a plurality of camera units 541 may be used for shooting simultaneously. it can.
  • the camera unit 541 can be used for various functions of the smartphone 500.
  • an image acquired by the camera unit 541 can be displayed on the display panel 521, or the image of the camera unit 541 can be used as one of operation inputs of the operation panel 522.
  • the GPS receiving unit 570 detects the position, the position can also be detected with reference to an image from the camera unit 541.
  • the optical axis direction of the camera unit 541 of the smartphone 500 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 541 can be used in the application software.
  • the above-described present invention can be applied to the color filter provided in the image sensor of the camera unit 541, and various color filters are arranged in a predetermined pattern. Can be disposed in the camera portion 541. Note that thinning (extraction) reading of image data at the time of moving image generation or the like can be realized by the main control unit 501 in accordance with an operation instruction signal from the operation unit 540, for example.
  • the phase difference AF can be accurately performed during moving image shooting as in the case of the imaging device 10, and the deterioration of the image quality of the captured image due to the phase difference pixels can be prevented or reduced. be able to.
  • pixel signals are directly thinned and read out from the image sensor in accordance with the thinning pattern during moving image shooting.
  • a pixel signal may be extracted according to a pattern, and a color image having a predetermined color array including phase difference pixels may be acquired. Even in this case, since the image size of the target image for signal processing including synchronization processing can be reduced, the processing time of the moving image can be shortened.
  • the pixel signal according to the thinning pattern may be extracted by a pixel mixing process in which output signals of a plurality of peripheral same-color pixels are added or mixed. . In particular, it is possible to further reduce the processing time of a moving image by performing pixel mixing processing immediately after reading by the image sensor.
  • the color filter array of the image sensor to which the present invention is applied is not limited to the example shown in FIGS. 10 to 12, and for example, an A array or B of 3 ⁇ 3 pixels in the basic array pattern P shown in FIG. Only the array or only the B array of 3 ⁇ 3 pixels in the basic array pattern P shown in FIG. 11 may have a color filter array that is repeatedly arranged in the horizontal direction and the vertical direction.
  • the point is a color filter array in which a basic array pattern of M ⁇ N pixels (M, N: an integer of 3 or more) is repeatedly arranged.
  • the first color in this embodiment, a G filter, a W filter, and a G1 filter).
  • the basic array pattern size (M ⁇ N pixels) may be arranged in an array pattern corresponding to the number of other pixels.
  • the size of the basic array pattern is preferably 10 ⁇ 10 pixels or less, more preferably 6 ⁇ 6 pixels or less, and the minimum basic array pattern is 3 ⁇ 3 pixels. It is preferable to make it.
  • the filter corresponding to the second color may include a filter of a color other than the R filter and the B filter.
  • the pixel interval between the first phase difference pixel p1 and the second phase difference pixel p2 is 4, the repetition period of the phase difference pixel is 12, and the extraction pixel cycle (vertical readout cycle) is. Although the case of 4 was demonstrated, these periods are not specifically limited.
  • the common multiple (preferably the least common multiple) with the number of pixels in the vertical direction of the basic array pattern is sufficient.
  • a color filter array in which C (cyan), M (magenta), and Y (yellow) complementary color filters which are complementary colors of the primary colors RGB, and other color filters are added to the complementary color filter.
  • C cyan
  • M magenta
  • Y yellow
  • the present invention can also be applied to an image pickup device having the same.
  • the arrangement position of the phase difference pixels is not particularly limited as long as it is arranged on a line that is thinned and read out during moving image shooting.
  • the image pickup element applied to the present invention is not limited to a pixel in which a plurality of pixels and color filters are arranged in a square lattice shape in the horizontal direction and the vertical direction as shown in FIG. It may be arranged (specifically, the color filter array shown in FIG. 10 or the like rotated by 45 °).
  • the basic array pattern is also an oblique lattice pattern.
  • SYMBOLS 10 Imaging device, 12 ... Shooting lens, 14 ... Aperture, 15 ... Mechanical shutter, 16 ... Imaging element, 24 ... Digital signal processing part, 30 ... Liquid crystal monitor, 32 ... Sensor drive part, 33 ... Shutter drive part, 34 ... Diaphragm Drive unit 36 ... Lens drive unit 40 ... Central processing unit (CPU) 42 ... AF processing unit 47 ... ROM (EEPROM) 48 ... Memory 500 ... Smartphone

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

 本発明によれば、ライブビュー表示を含め動画用のカラー画像に第1、第2の位相差画素を含む画素ラインによる画像データが含まれるため、動画の撮影中であっても精度良く位相差AFを行うことができる。また、動画用のカラー画像は、第1、第2の位相差画素を含む画素ラインの画像データだけではなく、第1、第2の位相差画素を含まない通常の画素のみを含む画素ラインの画像データも含むため、動画用のカラー画像の画質が向上し、画像補間処理を精度良く行うことができ、位相差画素による撮影画像(静止画及び動画)の画質の低下を防止し、又は軽減することができる。

Description

撮像装置及び画像処理方法
 本発明は撮像装置及び画像処理方法に係り、特に動画の生成と位相差に基づく焦点調節とを並行して行う撮像装置及び画像処理方法に関する。
 従来、撮像素子の一部に、撮影レンズの左右の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を設け、第1、第2の位相差画素の出力信号の位相差を検出し、検出した位相差に基づいてフォーカスレンズの焦点位置を調節する自動焦点調節(位相差AF)が知られている。
 特許文献1に記載の撮像素子は、一般的なベイヤ配列のカラーフィルタを有し、水平方向及び垂直方向において、第1の焦点検出用画素(瞳分割左側の画素)と第2の焦点検出用画素(瞳分割右側の画素)とが、一定の周期(水平方向に6画素の周期、垂直方向に3画素の周期)で交互に配置されている。また、第1、第2の焦点検出用画素は、緑(G)フィルタがある画素位置に配置されている。
 そして、特許文献1に記載の電子カメラは、焦点検出を行う場合には第1、第2の焦点検出用画素が配置された行の画像(ライン画像)を間引き読み出しし、間引き読み出ししたライン画像中の第1、第2の焦点検出用画素の画像信号に基づいて焦点位置を検出してフォーカスレンズの位置を制御するとともに、間引き読み出ししたライン画像(第1、第2の焦点検出用画素を含む)の画像信号に基づいてリアルタイムにライブビュー表示を行うようにしている。また、焦点検出を行わない場合には、第1、第2の焦点検出用画素が配置されていないライン画像を読み出し、そのライン画像の画像信号によりライブビュー表示を行うようにしている。
 なお、特許文献1に記載の電子カメラは、焦点検出を行う場合には、間引き読み出ししたライン画像のうち、第1又は第2の焦点検出用画素(G画素)と、このG画素と隣接する赤画素(R画素)又は青画素(B画素)とをペアにして抽出し、これらの抽出した画素の画像信号によりライブビュー表示を行うようにしている。したがって、焦点検出を行った時のライブビュー表示には、通常のG画素(第1又は第2の焦点検出用画素以外のG画素)の画像信号は使用されていない。
特開2009-89144号公報
 特許文献1に記載の発明は、焦点検出を行うとともに、ライブビュー表示を行う場合には、間引き読み出しした第1又は第2の焦点検出用画素をG画素として使用しているが、焦点検出用画素は、通常の画素とは構造が異なるため、焦点検出用画素をそのままG画素として使用するのは適切でない。
 また、特許文献1に記載の撮像素子のカラーフィルタの配列はベイヤ配列であるため、間引き読み出し後の画像もベイヤ配列になる。したがって、仮に焦点検出用画素の画像信号を、周囲の同じ色の画素の画像信号を補間して求める場合であっても、上下左右に隣接する画素に同色の画素が存在しないため、補間による偽色等が発生しやすいという問題がある。
 本発明はこのような事情に鑑みてなされたもので、ライブビュー表示を含め動画の撮影中に精度良く位相差AFを行うことができ、かつ位相差画素による撮影画像の画質の低下を防止し、又は軽減することができる撮像装置及び画像処理方法を提供することを目的とする。
 本発明の一態様は、撮影レンズと、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子と、撮像素子から、間引きパターンにしたがって複数の画素から画素信号を間引き読み出しし、又は撮像素子から読み出した所定のカラーフィルタ配列に対応するカラー画像から間引きパターンにしたがって複数の画素から画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得手段と、間引かれたカラー画像に基づいて動画データを生成する動画生成手段と、間引かれたカラー画像中に含まれる第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出手段と、位相差検出手段により検出された位相差に基づいて撮影レンズの焦点位置を調節する焦点調節手段と、を備え、所定のカラーフィルタ配列は、1色以上の第1の色に対応する第1のフィルタと、輝度信号を得るための寄与率が第1の色よりも低い2色以上の第2の色に対応する第2のフィルタとを有し、第1のフィルタと第2のフィルタとが配列された基本配列パターンを含み、基本配列パターンが第1の方向及び第2の方向に繰り返されて配置され、複数の画素のうちカラー画像取得手段により間引き読み出し又は抽出される画素信号に対応する画素から成る抽出画素群は、第1の位相差画素を含む第1の方向に延在する画素ラインと、第2の位相差画素を含む第1の方向に延在する画素ラインと、第1の位相差画素及び第2の位相差画素のいずれも含まず第1の方向に延在する画素ラインとを周期的に有する撮像装置に関する。
 本発明の別の態様は、撮影レンズと、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子と、撮像素子から、間引きパターンにしたがって複数の画素から画素信号を間引き読み出しし、又は撮像素子から読み出した所定のカラーフィルタ配列に対応するカラー画像から間引きパターンにしたがって複数の画素から画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得手段と、間引かれたカラー画像に基づいて動画データを生成する動画生成手段と、間引かれたカラー画像中に含まれる第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出手段と、位相差検出手段により検出された位相差に基づいて撮影レンズの焦点位置を調節する焦点調節手段と、を備え、所定のカラーフィルタ配列は、透過率のピークが波長480nm以上570nm以下の範囲内にある1色以上の第1の色に対応する第1のフィルタと、透過率のピークが範囲外にある2色以上の第2の色に対応する第2のフィルタとを有し、第1のフィルタと第2のフィルタとが配列された基本配列パターンを含み、基本配列パターンが第1の方向及び第2の方向に繰り返されて配置され、複数の画素のうちカラー画像取得手段により間引き読み出し又は抽出される画素信号に対応する画素から成る抽出画素群は、第1の位相差画素を含む第1の方向に延在する画素ラインと、第2の位相差画素を含む第1の方向に延在する画素ラインと、第1の位相差画素及び第2の位相差画素のいずれも含まず第1の方向に延在する画素ラインとを周期的に有する撮像装置に関する。
 本発明の別の態様は、撮影レンズと、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子と、撮像素子から、間引きパターンにしたがって複数の画素から画素信号を間引き読み出しし、又は撮像素子から読み出した所定のカラーフィルタ配列に対応するカラー画像から間引きパターンにしたがって複数の画素から画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得手段と、間引かれたカラー画像に基づいて動画データを生成する動画生成手段と、間引かれたカラー画像中に含まれる第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出手段と、位相差検出手段により検出された位相差に基づいて撮影レンズの焦点位置を調節する焦点調節手段と、を備え、所定のカラーフィルタ配列は、1色以上の第1の色に対応する第1のフィルタと、波長500nm以上560nm以下の範囲内で透過率が第1のフィルタよりも低くなる2色以上の第2の色に対応する第2のフィルタとを有し、第1のフィルタと第2のフィルタとが配列された基本配列パターンを含み、基本配列パターンが第1の方向及び第2の方向に繰り返されて配置され、複数の画素のうちカラー画像取得手段により間引き読み出し又は抽出される画素信号に対応する画素から成る抽出画素群は、第1の位相差画素を含む第1の方向に延在する画素ラインと、第2の位相差画素を含む第1の方向に延在する画素ラインと、第1の位相差画素及び第2の位相差画素のいずれも含まず第1の方向に延在する画素ラインとを周期的に有する撮像装置に関する。
 本発明の別の態様は、撮影レンズと、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子と、撮像素子から、間引きパターンにしたがって複数の画素から画素信号を間引き読み出しし、又は撮像素子から読み出した所定のカラーフィルタ配列に対応するカラー画像から間引きパターンにしたがって複数の画素から画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得手段と、間引かれたカラー画像に基づいて動画データを生成する動画生成手段と、間引かれたカラー画像中に含まれる第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出手段と、位相差検出手段により検出された位相差に基づいて撮影レンズの焦点位置を調節する焦点調節手段と、を備え、所定のカラーフィルタ配列は、3原色のうち最も輝度信号に寄与する色と3原色とは異なる色の第4色とを含む2色以上の第1の色に対応する第1のフィルタと、第1の色以外の2色以上の第2の色に対応する第2のフィルタとを有し、第1のフィルタと第2のフィルタとが配列された基本配列パターンを含み、基本配列パターンが第1の方向及び第2の方向に繰り返されて配置され、複数の画素のうちカラー画像取得手段により間引き読み出し又は抽出される画素信号に対応する画素から成る抽出画素群は、第1の位相差画素を含む第1の方向に延在する画素ラインと、第2の位相差画素を含む第1の方向に延在する画素ラインと、第1の位相差画素及び第2の位相差画素のいずれも含まず第1の方向に延在する画素ラインとを周期的に有する撮像装置に関する。
 これらの態様によれば、ライブビュー表示を含む動画用に抽出されるライン画像中に第1、第2の位相差画素による画像データが配置されるため、動画撮影中であっても精度良く位相差AFを行うことができる。また、間引き読み出し又は抽出されたライン画像から成るカラー画像は、第1、第2の位相差画素を含む画素ラインの画像データだけではなく、第1、第2の位相差画素を含まない通常の画素のみを含む画素ラインの画像データも含むため、通常画素の画像データを用いて精度良く画像補間処理を行うことができ、これにより位相差画素による撮影画像(静止画及び動画)の画質の低下を防止し、又は軽減することができる。なお、これらの態様において、例えば第1のフィルタを緑(G)フィルタ、第2のフィルタを赤(R)フィルタ及び青(B)フィルタとすることができるが、第1のフィルタ及び第2のフィルタはこれらの色フィルタに限定されるものではない。
 望ましくは、間引かれたカラー画像は、第1、第2の位相差画素に隣接して第1、第2の位相差画素の位置における画素の色と同じ色の画素が配置され、間引かれたカラー画像中の第1、第2の位相差画素の位置における画素の画素値を、第1、第2の位相差画素に隣接する同じ色の画素を含む周辺画素の画素値を補間して算出する補間演算手段を備え、動画生成手段は、間引かれたカラー画像中の第1、第2の位相差画素の位置における画素の画素値として補間演算手段により算出された値を使用したカラー画像に基づいて動画データを生成する。
 本態様によれば、第1、第2の位相差画素に隣接する画素に第1、第2の位相差画素の色と同じ色の画素が配置されるため、第1、第2の位相差画素の画素データの補間処理を精度良く行うことができる。
 望ましくは、間引きパターンは、画素信号の間引き読み出し又は抽出に関する第2の方向の周期を規定する抽出画素周期を有し、第1の位相差画素と第2の位相差画素との間の第2の方向に関する画素数t1と、抽出画素周期の第2の方向に関する対応画素数t2とは、t1=t2×I(Iは、1以上の整数)を満たす。
 本態様によれば、第1の位相差画素と第2の位相差画素との間の画素数が抽出画素周期の対応画素数の整数倍となるため、第1の位相差画素を含む画素ライン及び第2の位相差画素を含む画素ラインの画像データを効率良く読み出すことができる。
 望ましくは、間引きパターンは、画素信号の間引き読み出し又は抽出に関する第2の方向の周期を規定する抽出画素周期を有し、第1の位相差画素及び第2の位相差画素の第2の方向に関する繰り返し周期に対応する画素数は、抽出画素周期の第2の方向に関する対応画素数と基本配列パターンの第2の方向の画素数との公倍数である。
 本態様によれば、位相差画素の第2の方向に関する繰り返し周期が、抽出画素周期及び基本配列パターンの第2の方向の画素数の公倍数となるため、第1の位相差画素及び第2の位相差画素を含む画素ラインの画像データを効率良く読み出すことができる。
 望ましくは、第1の位相差画素と第2の位相差画素との間の第2の方向に関する画素数は、基本配列パターンの第2の方向の画素数とは異なる。
 本態様によれば、第1の位相差画素及び第2の位相差画素は基本配列パターン内において異なる位置に配置される。
 望ましくは、抽出画素群は、第1のフィルタ及び第2のフィルタの配列パターンに関し、基本配列パターンと同じ配列パターンを有する。
 本態様によれば、抽出画素群が基本配列パターンと同じ配列パターンを有するため、間引き抽出前後のカラー画像に対して共通の画像処理を適用することが可能である。
 望ましくは、カラーフィルタ配列において、第1のフィルタに対応する第1の色の全画素数の比率は、第2のフィルタに対応する第2の色の各色の画素数の比率よりも大きく、第1、第2の位相差画素は、第1のフィルタの位置に配置される。
 本態様によれば、第1の色の画素数の比率が第2の色の各色の画素数の比率よりも大きいため、第1の色の画素データをより有効に活用することができる。また、そのような第1の色に対応する第1のフィルタの位置に位相差画素を配置することで、多数存在する同色の第1の色の画素を有効活用して、位相差画素の画素データの補間処理を効果的に行うことができる。
 望ましくは、第1のフィルタは、M×N画素(M、N:3以上の整数)内に複数配置され、M×N画素が第1、第2の方向に繰り返し配置される。
 本態様によれば、M×N画素周期で第1のフィルタが配置される。
 望ましくは、第1、第2の位相差画素のうちの一方の位相差画素が、M×N画素内に1又は2つ配置される。
 本態様によれば、M×N画素に基づく周期で第1の位相差画素及び第2の位相差画素を配置することができる。
 望ましくは、第1、第2の位相差画素は、第2の方向に一対となって配置される。
 本態様によれば、第2の方向に関して、第1、第2の位相差画素を用いたAF(オートフォーカス)制御を精度良く行うことができる。
 望ましくは、第1、第2の位相差画素は、第1の方向に延在する1画素ライン上に交互に配置される。
 本態様によれば、第1の方向に関して、第1、第2の位相差画素を用いたAF(オートフォーカス)制御を精度良く行うことができる。
 望ましくは、第1の位相差画素及び第2の位相差画素には第1のフィルタが配置され、抽出画素群のうち第1の位相差画素及び第2の位相差画素のいずれも含まない画素ラインは第1のフィルタに対応する画素を含む。
 より望ましくは、抽出画素群において、第1の位相差画素及び第2の位相差画素のいずれも含まない画素ラインの第1のフィルタに対応する画素は、第1の位相差画素又は第2の位相差画素に隣接する位置に配置される。
 本態様によれば、第1の位相差画素及び第2の位相差画素に配置される第1のフィルタと、第1の位相差画素及び第2の位相差画素のいずれも含まない画素ラインに含まれる第1のフィルタとが共通するため、位相差画素の補間処理の際に、第1の位相差画素及び第2の位相差画素のいずれも含まない画素ラインに含まれる画素データを有効に使用することが可能となる。
 ここで画素が隣接する場合とは、対象となるフィルタや画素の4辺に対し辺で接する位置に画素がある場合を含み、更に対象となるフィルタや画素の中心から√2画素離れた位置に中心を持つ画素がある場合も含まれる。例えば正方配列の場合、対象となるフィルタや画素の上下左右(第1の方向及び第2の方向)に隣接する位置や、更に斜め右上左下左上右下に隣接する位置に配置されるフィルタや画素が、対象となるフィルタや画素に隣接することとなる。
 望ましくは、基本配列パターンは、カラーフィルタが第1の方向及び第2の方向にM×M(Mは3以上の整数)画素に対応する配列パターンで配列されてなり、第1の位相差画素が配置される基本配列パターンと、第2の位相差画素が配置される基本配列パターンと、第1の位相差画素及び第2の位相差画素のいずれも含まない少なくとも1つの基本配列パターンとが第2の方向に並置される。
 望ましくは、基本配列パターンは、カラーフィルタが第1の方向及び第2の方向にM×N(Mは3以上の整数、Nは6以上の偶数)画素に対応する配列パターンで配列されてなり、基本配列パターンは、カラーフィルタがM×(N/2)画素に対応する配列パターンで配列された2種類のサブ配列である第1のサブ配列及び第2のサブ配列をそれぞれ1つずつ含み、第1のサブ配列及び第2のサブ配列の各々において、第1のフィルタ及び第2の色の各色に対応する第2のフィルタの各々が少なくとも1画素分配置され、第1の位相差画素及び第2の位相差画素を含む基本配列パターンと、第1の位相差画素及び第2の位相差画素のいずれも含まない基本配列パターンとが第2の方向に並置され、第1の位相差画素は第1のサブ配列に配置され、第2の位相差画素は第2のサブ配列に配置される。
 望ましくは、基本配列パターンは、カラーフィルタが第1の方向及び第2の方向にM×M(Mは6以上の偶数)画素に対応する配列パターンで配列されてなり、基本配列パターンは、カラーフィルタが(M/2)×(M/2)画素に対応する配列パターンで配列された2種類のサブ配列である第1のサブ配列及び第2のサブ配列をそれぞれ2つずつ含み、第1のサブ配列及び第2のサブ配列の各々において、第1のフィルタ及び第2の色の各色に対応する第2のフィルタの各々が少なくとも1画素分配置され、第1の位相差画素を含む第1のサブ配列と、第1の位相差画素及び第2の位相差画素のいずれも含まない第2のサブ配列と、第2の位相差画素を含む第1のサブ配列と、第1の位相差画素及び第2の位相差画素のいずれも含まない第2のサブ配列とが第2の方向に並置される。
 望ましくは、第1の色は緑(G)色であり、第2の色は赤(R)色及び青(B)色であり、第1のフィルタはGフィルタであり、第2のフィルタはRフィルタ及びBフィルタであり、基本配列パターンは、カラーフィルタが第1の方向及び第2の方向に6×6画素に対応する配列パターンで配列されてなり、第1のサブ配列及び第2のサブ配列は第1の方向及び第2の方向に3×3画素に対応する配列パターンで配列されてなり、第1のサブ配列は、基本配列パターンの一方の対角線方向に並置され、第2のサブ配列は、基本配列パターンの他方の対角線方向に並置され、Gフィルタは、第1のサブ配列及び第2のサブ配列の各々の中央画素及び4隅の画素に配置され、Rフィルタは、第1のサブ配列における中央画素に対し第2の方向に隣接する画素、及び第2のサブ配列における中央画素に対し第1の方向に隣接する画素に配置され、Bフィルタは、第1のサブ配列における中央画素に対し第1の方向に隣接する画素、及び第2のサブ配列における中央画素に対し第2の方向に隣接する画素に配置され、第1の位相差画素及び第2の位相差画素にはGフィルタが配置される。
 望ましくは、第1、第2の位相差画素には、透明フィルタを有する画素を使用する。
 本態様によれば、透明フィルタは可視光波長域の光を高効率に透過するため、第1の位相差画素及び第2の位相差画素の画素データを効率良く取得することが可能となる。
 本発明の別の態様は、撮影レンズと、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子とを備えた撮像装置における画像処理方法であって、撮像素子から、間引きパターンにしたがって複数の画素から画素信号を間引き読み出しし、又は撮像素子から読み出した所定のカラーフィルタ配列に対応するカラー画像から間引きパターンにしたがって複数の画素から画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得工程と、間引かれたカラー画像に基づいて動画データを生成する動画生成工程と、間引かれたカラー画像中に含まれる第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出工程と、位相差検出工程により検出された位相差に基づいて撮影レンズの焦点位置を調節する焦点調節工程であって、動画生成工程による動画データの生成と並行して撮影レンズの焦点位置を調節する焦点調節工程と、を含み、所定のカラーフィルタ配列は、1色以上の第1の色に対応する第1のフィルタと、輝度信号を得るための寄与率が第1の色よりも低い2色以上の第2の色に対応する第2のフィルタとを有し、第1のフィルタと第2のフィルタとが配列された基本配列パターンを含み、基本配列パターンが第1の方向及び第2の方向に繰り返されて配置され、複数の画素のうちカラー画像取得工程で間引き読み出し又は抽出される画素信号に対応する画素から成る抽出画素群は、第1の位相差画素を含む第1の方向に延在する画素ラインと、第2の位相差画素を含む第1の方向に延在する画素ラインと、第1の位相差画素及び第2の位相差画素のいずれも含まず第1の方向に延在する画素ラインとを周期的に有する画像処理方法に関する。
 本発明の別の態様は、撮影レンズと、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子とを備えた撮像装置における画像処理方法であって、撮像素子から、間引きパターンにしたがって複数の画素から画素信号を間引き読み出しし、又は撮像素子から読み出した所定のカラーフィルタ配列に対応するカラー画像から間引きパターンにしたがって複数の画素から画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得工程と、間引かれたカラー画像に基づいて動画データを生成する動画生成工程と、間引かれたカラー画像中に含まれる第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出工程と、位相差検出工程により検出された位相差に基づいて撮影レンズの焦点位置を調節する焦点調節工程であって、動画生成工程による動画データの生成と並行して撮影レンズの焦点位置を調節する焦点調節工程と、を含み、所定のカラーフィルタ配列は、透過率のピークが波長480nm以上570nm以下の範囲内にある1色以上の第1の色に対応する第1のフィルタと、透過率のピークが範囲外にある2色以上の第2の色に対応する第2のフィルタとを有し、第1のフィルタと第2のフィルタとが配列された基本配列パターンを含み、基本配列パターンが第1の方向及び第2の方向に繰り返されて配置され、複数の画素のうちカラー画像取得工程で間引き読み出し又は抽出される画素信号に対応する画素から成る抽出画素群は、第1の位相差画素を含む第1の方向に延在する画素ラインと、第2の位相差画素を含む第1の方向に延在する画素ラインと、第1の位相差画素及び第2の位相差画素のいずれも含まず第1の方向に延在する画素ラインとを周期的に有する画像処理方法に関する。
 本発明の別の態様は、撮影レンズと、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子とを備えた撮像装置における画像処理方法であって、撮像素子から、間引きパターンにしたがって複数の画素から画素信号を間引き読み出しし、又は撮像素子から読み出した所定のカラーフィルタ配列に対応するカラー画像から間引きパターンにしたがって複数の画素から画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得工程と、間引かれたカラー画像に基づいて動画データを生成する動画生成工程と、間引かれたカラー画像中に含まれる第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出工程と、位相差検出工程により検出された位相差に基づいて撮影レンズの焦点位置を調節する焦点調節工程であって、動画生成工程による動画データの生成と並行して撮影レンズの焦点位置を調節する焦点調節工程と、を含み、所定のカラーフィルタ配列は、1色以上の第1の色に対応する第1のフィルタと、波長500nm以上560nm以下の範囲内で透過率が第1のフィルタよりも低くなる2色以上の第2の色に対応する第2のフィルタとを有し、第1のフィルタと第2のフィルタとが配列された基本配列パターンを含み、基本配列パターンが第1の方向及び第2の方向に繰り返されて配置され、複数の画素のうちカラー画像取得工程で間引き読み出し又は抽出される画素信号に対応する画素から成る抽出画素群は、第1の位相差画素を含む第1の方向に延在する画素ラインと、第2の位相差画素を含む第1の方向に延在する画素ラインと、第1の位相差画素及び第2の位相差画素のいずれも含まず第1の方向に延在する画素ラインとを周期的に有する画像処理方法に関する。
 本発明の別の態様は、撮影レンズと、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子とを備えた撮像装置における画像処理方法であって、撮像素子から、間引きパターンにしたがって複数の画素から画素信号を間引き読み出しし、又は撮像素子から読み出した所定のカラーフィルタ配列に対応するカラー画像から間引きパターンにしたがって複数の画素から画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得工程と、間引かれたカラー画像に基づいて動画データを生成する動画生成工程と、間引かれたカラー画像中に含まれる第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出工程と、位相差検出工程により検出された位相差に基づいて撮影レンズの焦点位置を調節する焦点調節工程であって、動画生成工程による動画データの生成と並行して撮影レンズの焦点位置を調節する焦点調節工程と、を含み、所定のカラーフィルタ配列は、3原色のうち最も輝度信号に寄与する色と3原色とは異なる色の第4色とを含む2色以上の第1の色に対応する第1のフィルタと、第1の色以外の2色以上の第2の色に対応する第2のフィルタとを有し、第1のフィルタと第2のフィルタとが配列された基本配列パターンを含み、基本配列パターンが第1の方向及び第2の方向に繰り返されて配置され、複数の画素のうちカラー画像取得工程で間引き読み出し又は抽出される画素信号に対応する画素から成る抽出画素群は、第1の位相差画素を含む第1の方向に延在する画素ラインと、第2の位相差画素を含む第1の方向に延在する画素ラインと、第1の位相差画素及び第2の位相差画素のいずれも含まず第1の方向に延在する画素ラインとを周期的に有する画像処理方法に関する。
 上記各態様の画像処理方法によっても、上述した撮像装置と同様に、動画の撮影中に精度良く位相差AFを行うことができ、かつ位相差画素による撮影画像の画質の低下を防止し、又は軽減することができる。
 本発明によれば、ライブビュー表示を含む動画用のカラー画像に第1、第2の位相差画素を含む画素ラインによる画像データが含まれるため、動画の撮影中であっても精度良く位相差AFを行うことができる。また、ライブビュー表示を含む動画用のカラー画像は、第1、第2の位相差画素を含む画素ラインの画像データだけではなく、第1、第2の位相差画素を含まない通常の画素のみを含む画素ラインの画像データも含むため、動画用のカラー画像の画質が向上し、画像補間処理を精度良く行うことができ、位相差画素による撮影画像(静止画及び動画)の画質の低下を防止し、又は軽減することができる。
撮像装置の一例を示す斜視図である。 図1に示した撮像装置の背面図である。 図1に示した撮像装置の内部構成の一例を示すブロック図である。 撮像素子に配置されたカラーフィルタ配列の一例を示す図である。 図4のカラーフィルタ配列の基本配列パターンの一例を示す図である。 位相差画素の構成例を示す図であり、(a)は第1の位相差画素を示し、(b)は第2の位相差画素を示す。 撮像素子の撮像領域とAF領域を示す図である。 AF領域の他の例を示す図である。 本発明の一実施形態に係る画像処理方法を示すフローチャートである。 位相差画素の第1の配置例と画像データを間引き読み出しとを示す概念図である。 位相差画素の第2の配置例と画像データを間引き読み出しとを示す概念図である。 位相差画素の第3の配置例と画像データを間引き読み出しとを示す概念図である。 Rフィルタ、Gフィルタ、Bフィルタ及び透明フィルタが配設されるフォトダイオードの分光感度特性の一例を示すグラフである。 Rフィルタ、G1フィルタ、G2フィルタ及びBフィルタが配設されるフォトダイオードの分光感度特性の一例を示すグラフである。 Rフィルタ、Gフィルタ、Bフィルタ及びEフィルタが配設されるフォトダイオードの分光感度特性の一例を示すグラフである。 撮像装置の他の例であるスマートフォンの外観図である。 スマートフォンの要部構成を示すブロック図である。
 以下、添付図面に従って本発明に係る撮像装置及び画像処理方法の好ましい実施形態について詳説する。
 [撮像装置]
 図1及び図2は、それぞれ撮像装置の一例(デジタルカメラ)を示す斜視図及び背面図である。この撮像装置10は、レンズを通った光を撮像素子で受け、デジタル信号に変換して静止画又は動画の画像データとして記録メディアに記録するデジタルカメラである。
 図1に示すように撮像装置10は、その正面に撮影レンズ12、ストロボ1等が配設され、上面にはシャッタボタン2、電源/モードスイッチ3、モードダイヤル4等が配設されている。一方、図2に示すように、カメラ背面には、3D表示用の液晶モニタ30、ズームボタン5、十字ボタン6、MENU/OKボタン7、再生ボタン8、BACKボタン9等が配設されている。
 撮影レンズ12は、沈胴式のズームレンズで構成されており、電源/モードスイッチ3によってカメラの作動モードを撮影モードに設定することにより、カメラ本体から繰り出される。ストロボ1は、主要被写体にストロボ光を照射するものである。
 シャッタボタン2は、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成される。撮像装置10は、撮影モードで駆動しているときは、このシャッタボタン2を途中まで押し込む「半押し」がされることによりAE/AFが作動し、「半押し」からさらに押し込む「全押し」がされることにより、撮影を実行する。また、撮像装置10は、撮影モードで駆動しているときは、このシャッタボタン2が「全押し」されることにより、撮影を実行する。
 電源/モードスイッチ3は、撮像装置10の電源をON/OFFする電源スイッチとしての機能と、撮像装置10のモードを設定するモードスイッチとしての機能とを併せ持っており、「OFF位置」と「再生位置」と「撮影位置」との間をスライド自在に配設されている。撮像装置10は、電源/モードスイッチ3をスライドさせて、「再生位置」又は「撮影位置」に合わせることにより、電源がONになり、「OFF位置」に合わせることにより、電源がOFFになる。そして、電源/モードスイッチ3をスライドさせて、「再生位置」に合わせることにより、「再生モード」に設定され、「撮影位置」に合わせることにより、「撮影モード」に設定される。
 モードダイヤル4は、撮像装置10の撮影モードを設定する撮影モード設定手段として機能し、このモードダイヤルの設定位置により、撮像装置10の撮影モードが様々なモードに設定される。例えば、静止画撮影を行う「静止画撮影モード」、動画撮影を行う「動画撮影モード」等である。
 液晶モニタ30は、撮影モード時のライブビュー画像(スルー画像)の表示、再生モード時の静止画又は動画の表示を行うとともに、メニュー画面の表示等を行うことでグラフィカルユーザーインターフェース(GUI)の一部として機能する。
 ズームボタン5は、ズームを指示するズーム指示手段として機能し、望遠側へのズームを指示するテレボタン5Tと、広角側へのズームを指示するワイドボタン5Wとからなる。撮像装置10は、撮影モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、撮影レンズ12の焦点距離が変化する。また、再生モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、再生中の画像が拡大、縮小する。
 十字ボタン6は、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。
 MENU/OKボタン7は、液晶モニタ30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作ボタンである。
 再生ボタン8は、撮影記録した静止画又は動画を液晶モニタ30に表示させる再生モードに切り替えるためのボタンである。
 BACKボタン9は、入力操作のキャンセルや一つ前の操作状態に戻すことを指示するボタンとして機能する。
 なお本実施の形態に係る撮像装置10において、ボタン/スイッチ類に対し固有の部材を設けるのではなく、タッチパネルを設けこれを操作することでそれらボタン/スイッチ類の機能を実現するようにしてもよい。
 [撮像装置の内部構成]
 図3は上記撮像装置10の内部構成の実施形態を示すブロック図である。この撮像装置10は、撮像した画像をメモリカード54に記録するもので、装置全体の動作は、中央処理装置(CPU)40によって統括制御される。
 撮像装置10には、前述したシャッタボタン2、電源/モードスイッチ3、モードダイヤル4、テレボタン5T、ワイドボタン5W、十字ボタン6、MENU/OKボタン7、再生ボタン8、BACKボタン9等の操作部38が設けられている。この操作部38からの信号はCPU40に入力され、CPU40は入力信号に基づいて撮像装置10の各回路を制御し、例えば、イメージセンサの駆動制御、レンズ駆動制御、絞り駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、液晶モニタ30の表示制御などを行う。
 電源/モードスイッチ3により撮像装置10の電源がONされると、図示しない電源部から各ブロックへ給電され、撮像装置10の駆動が開始される。
 撮影レンズ12、絞り14、メカシャッタ(機械的シャッタ)15等を通過した光束は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサである撮像素子16に結像される。なお、撮像素子16は、CMOS型に限らず、XYアドレス型、又はCCD(Charge Coupled Device)型のカラーイメージセンサでもよい。
 撮像素子16は、多数の受光素子(フォトダイオード)が2次元配列されており、各フォトダイオードの受光面に結像された被写体像は、その入射光量に応じた量の信号電圧(又は電荷)に変換され、撮像素子16内のA/D変換器を介してデジタル信号に変換されて出力される。
 <撮像素子の実施形態>
 撮像素子16は、水平方向(第1の方向)及び垂直方向(第2の方向)に配列された光電変換素子(フォトダイオード)で構成される複数の画素上に、以下に例示するカラーフィルタ配列のカラーフィルタが配設されて構成される。
 図4は、上記撮像素子16の一例を示す図であり、特に撮像素子16の受光面上に配置されている新規のカラーフィルタ配列を示す。
 この撮像素子16のカラーフィルタ配列は、カラーフィルタが水平方向及び垂直方向に6×6(M×M)画素に対応する配列パターンで配列されてなる基本配列パターンP(太枠で示したパターン)を含み、この基本配列パターンPが水平方向(左右方向:第1の方向)及び垂直方向(上下方向:第2の方向)に繰り返し配置されている。即ち、このカラーフィルタ配列は、赤(R)、緑(G)、青(B)の各色のフィルタ(Rフィルタ、Gフィルタ、Bフィルタ)が周期性をもって配列されている。このようにRフィルタ、Gフィルタ、Bフィルタが周期性をもって配列されるため、撮像素子16から読み出されるRGBのRAWデータ(モザイク画像)の画像処理等を行う際に、繰り返しパターンに従って処理を行うことができる。
 なお、6×6画素の基本配列パターンは、上記基本配列パターンPに限らず、基本配列パターンPとは異なる位置から切り出した6×6画素の基本配列パターンP’(図4参照)を基本配列パターンとして捉えることもできる。
 図4に示すカラーフィルタ配列は、輝度信号を得るために最も寄与する色(この実施形態では、Gの色)に対応するGフィルタが、カラーフィルタ配列の水平、垂直、斜め右上、及び斜め左上方向の各画素ライン内に1以上配置されている。ここで、画素ラインとは、水平、垂直、斜め右上、又は斜め左上方向に一列に画素が配列されているラインをいい、以下、単に「ライン」ともいう。
 また、この実施形態での斜め右上方向及び斜め右下方向は、水平方向及び垂直方向に対してそれぞれ45°傾いた方向である。これは、複数の画素及びカラーフィルタが水平方向及び垂直方向に正方格子状に配列されているからである。従って、複数の画素及びカラーフィルタが矩形格子状に配列されている場合には、その矩形格子(単位画素)の対角線の方向が、斜め右上方向及び斜め右下方向に対応する。
 輝度系画素に対応するGフィルタが、カラーフィルタ配列の水平、垂直、及び斜め右上、及び斜め左上方向の各ライン内に配置されるため、入力像において高周波となる方向によらず高周波領域での同時化処理の再現精度を向上させることができる。ここで、同時化処理とは、単板式のカラー撮像素子のカラーフィルタ配列に伴うRGBのモザイク画像から画素毎にRGBの全ての色情報を算出(同時式に変換)する処理であって、デモザイク処理、デモザイキング処理とも言う(本明細書内において同じ)。
 また、図4に示すカラーフィルタ配列は、上記Gの色以外の2色以上の他の色(この実施形態では、R、Bの色)に対応するRフィルタ、Bフィルタが、それぞれ基本配列パターンPの水平、及び垂直方向の各画素ライン内に1つ以上配置されている。
 Rフィルタ、Bフィルタが、カラーフィルタ配列の水平、及び垂直方向の各画素ライン内に配置されるため、偽色(色モワレ)の発生を低減することができる。これにより、偽色の発生を低減(抑制)するための光学ローパスフィルタを省略することができる。なお、光学ローパスフィルタを適用する場合でも偽色の発生を防止するための高周波数成分をカットする働きの弱いものを適用することができ、解像度を損なわないようにすることができる。
 更に、図4に示すカラーフィルタ配列の基本配列パターンPは、その基本配列パターン内におけるR、G、Bフィルタに対応するR画素、G画素、B画素の画素数が、それぞれ8画素、20画素、8画素になっている。即ち、RGB画素の各画素数の比率は、2:5:2になっており、輝度信号を得るために最も寄与するG画素の画素数の比率は、他の色のR画素、B画素のそれぞれの画素数の比率よりも大きくなっている。
 上記のようにG画素の画素数とR、B画素の画素数との比率が異なり、特に輝度信号を得るために最も寄与するG画素の画素数の比率を、R、B画素の画素数の比率よりも大きくするようにしたため、同時化処理時におけるエリアシングを抑制することができるとともに、高周波再現性もよくすることができる。
 図5は、図4に示した基本配列パターンPを3×3((M/2)×(M/2))画素に4分割した状態、及び後述する位相差画素の第1の配置例を示す。
 基本配列パターンPは、図5に示すように水平方向及び垂直方向に3×3画素に対応する配列パターンで配列されてなる実線の枠で囲んだA配列(第1のサブ配列)と、破線の枠で囲んだ3×3画素のB配列(第2のサブ配列)とが、水平方向及び垂直方向に交互に並べられた配列となっていると捉えることもできる。これにより、A配列は、基本配列パターンPの一方の対角線方向に配置され、B配列は、基本配列パターンPの他方の対角線方向に配置される。
 A配列及びB配列の各々において、Gフィルタ(第1の色)は、4隅及び中央の画素に配置されており、両対角線上に配置される。また、A配列は、中央のGフィルタを挟んでRフィルタ(第1の構成色)が垂直方向に配列され、Bフィルタ(第2の構成色)が水平方向に配列される。一方、B配列は、中央のGフィルタを挟んでBフィルタが垂直方向に配列され、Rフィルタが水平方向に配列されている。したがって、Rフィルタは、A配列において中央画素に対し垂直方向に隣接する画素、及びB配列において中央画素に対し水平方向に隣接する画素に配置される。またBフィルタは、A配列において中央画素に対し水平方向に隣接する画素、及びB配列において中央画素に対し垂直方向に隣接する画素に配置される。即ち、A配列とB配列とは、RフィルタとBフィルタとの位置関係が逆転しているが、Gフィルタの配置は同じである。
 また、A配列とB配列の4隅のGフィルタは、A配列とB配列とが水平方向及び垂直方向に交互に配置されることにより、2×2画素に対応する正方配列のGフィルタとなる。
 上述の配列パターンを有するカラーフィルタ配列において、G画素に関するカーネル周期(規則性を有する画像処理単位)は3画素周期となっているが、R画素及びB画素に関するカーネル周期は6画素周期となっており、G画素のカーネル周期とR画素及びB画素のカーネル周期とは必ずしも一致しない。
 また本実施形態に係るカラーフィルタ配列は、後述のAF制御のための複数の位相差画素(第1の位相差画素p1及び第2の位相差画素p2)を含み、これらの位相差画素は水平方向及び垂直方向に関して周期的に配置される。第1の位相差画素p1及び第2の位相差画素p2の配置に関して、基本配列パターンPは「第1の基本配列パターンP1」と「第2の基本配列パターンP2」とに分類可能である。本実施形態に係るカラーフィルタ配列では、第1の位相差画素p1及び第2の位相差画素p2の配置が異なる「第1の基本配列パターンP1」と「第2の基本配列パターンP2」とが垂直方向に交互に配置され、また水平方向に関しては「第1の基本配列パターンP1」及び「第2の基本配列パターンP2」の各々が連続的に並置される(図10参照)。
 第1の位相差画素p1は、第1の基本配列パターンP1の一方のA配列及び第2の基本配列パターンP2の一方のB配列に配置される。また第2の位相差画素p2は、第1の基本配列パターンP1の一方のB配列及び第2の基本配列パターンP2の一方のA配列に配置される。具体的には、第1の基本配列パターンP1では、垂直方向上側に配置されるA配列の左下隅のG画素の位置に第1の位相差画素p1が配置され、垂直方向上側に配置されるB配列の左下隅のG画素の位置に第2の位相差画素p2が配置される。また、第2の基本配列パターンP2では、垂直方向上側に配置されるA配列の左上隅のG画素の位置に第2の位相差画素p2が配置され、垂直方向上側に配置されるB配列の左上隅のG画素の位置に第1の位相差画素p1が配置される。
 したがって、第1の位相差画素p1及び第2の位相差画素p2は、Gフィルタが水平方向に関して密に配置される(比較的多数配置される)画素ラインに位置し、Gフィルタが水平方向に関して疎に配置される(比較的少数配置される)画素ラインには位置しないこととなる。これにより、第1の位相差画素p1及び第2の位相差画素p2の周辺に同色のG画素が多く配置され、本例では図10の(a)に示すように第1の位相差画素p1及び第2の位相差画素p2の各々に対して「左画素(水平方向画素)、下画素(垂直方向画素)及び左下画素(斜め方向画素)」又は「左画素(水平方向画素)、上画素(垂直方向画素)及び左上画素(斜め方向画素)」に同色のG画素が配置される。したがって、後述の動画撮影時のようなライン画像の間引き読み出し(抽出)を行わない静止画撮影時においても、第1の位相差画素p1及び第2の位相差画素p2の周辺の同色画素の画像データを使って、これらの位相差画素の画像データの補間処理を高精度に行うことができる。
 図5に示すカラーフィルタ配列において、第1の位相差画素p1及び第2の位相差画素p2は、垂直方向に延在する1画素ライン上に交互に配置される。例えば第1の基本配列パターンP1の第1の位相差画素p1と第2の基本配列パターンP2の第2の位相差画素p2、また第1の基本配列パターンP1の第2の位相差画素p2と第2の基本配列パターンP2の第1の位相差画素p1とは、垂直方向に一対となって配置され、位相差画素ペアとして活用することができる。また、第1の位相差画素p1及び第2の位相差画素p2は、水平方向に延在する1画素ライン上に交互に配置される。例えば第1の基本配列パターンP1のA配列の第1の位相差画素p1とB配列の第2の位相差画素p2、また第2の基本配列パターンP2のA配列の第2の位相差画素p2とB配列の第1の位相差画素p1とは、水平方向に一対となって配置され、位相差画素ペアとして活用することができる。
 この場合、垂直方向にペアを形成する第1の位相差画素p1と第2の位相差画素p2との間の垂直方向に関する画素数t1は、「4」であり、2の倍数(偶数)となっている。また、第1の位相差画素p1及び第2の位相差画素p2の垂直方向に関する繰り返し周期は、2つの基本配列パターンPが基準になり、具体的な対応画素数は「12」である。
 したがって、第1の位相差画素p1の第1の基本配列パターンP1における位置と、第2の位相差画素p2の第2の基本配列パターンP2における位置とは異なることとなる。また、第1の位相差画素p1と第2の位相差画素p2との間の垂直方向に関する画素数t1(=4)は、基本配列パターンPの垂直方向の画素数(=6)及び基本配列パターンPを構成するA配列及びB配列の垂直方向の画素数(=3)とは異なることとなる。
 図6の(a)及び(b)はそれぞれ第1の位相差画素p1及び第2の位相差画素p2の構成を示す要部拡大図である。
 図6の(a)に示すように第1の位相差画素p1のフォトダイオードPDの前面側(マイクロレンズL側)には、遮光部材16Aが配設され、一方、図6の(b)に示すように第2の位相差画素p2のフォトダイオードPDの前面側には、遮光部材16Bが配設される。マイクロレンズL及び遮光部材16A、16Bは瞳分割手段としての機能を有し、図6の(a)に示すように遮光部材16Aは、フォトダイオードPDの受光面の左半分を遮光する。そのため、第1の位相差画素p1には、撮影レンズ12の射出瞳を通過する光束のうちの光軸の左側を通過する光束のみが受光される。図6の(b)に示すように遮光部材16Bは、第2の位相差画素p2のフォトダイオードPDの受光面の右半分を遮光する。そのため、第2の位相差画素p2には、撮影レンズ12の射出瞳を通過する光束のうちの光軸の右側を通過する光束のみが受光される。このように、瞳分割手段であるマイクロレンズL及び遮光部材16A、16Bにより、射出瞳を通過する光束が左右に分割され、それぞれ第1の位相差画素p1及び第2の位相差画素p2に入射する。
 第1の位相差画素p1及び第2の位相差画素p2は、図7に示すように撮像素子16の撮像領域内の中央部のAF領域(焦点検出領域)に設けられている。第1の位相差画素p1及び第2の位相差画素p2は、位相差検出方向に数10画素から100画素程度配置することが好ましく、また、垂直方向に一対の位相差画素が、複数対配置することが好ましい。
 なお、AF領域は、図7に示す例に限らず、図8の(a)~(c)に示すように撮影領域内に複数設けるようにしてもよく、また、撮影領域の全域に設けるようにしてもよい。
 図3に戻って、センサ駆動部32は、CPU40からの読み出し指令により撮像素子16からデジタル信号(画像信号)を読み出すカラー画像取得手段であり、撮像素子16から画素ライン毎に順次画像信号を読み出すが、例えば1/4間引き等の間引き読み出し指令がCPU40から加えられると、後述する間引きパターン(抽出パターン)に対応する画素ラインの画像信号を選択的に読み出す。
 CMOSイメージセンサにおける読み出し方式は、上方から1画素ライン毎に順次リセット、順次読み出しを行う、ローリングシャッタ方式となる事が知られている。このローリングシャッタ方式は、画素ライン毎に露光タイミングに時間差があるため、動く被写体の場合には、被写体の画像が歪むという問題がある。したがって、静止画撮影時には、シャッタ駆動部33によりメカシャッタ15を開閉制御(露光時間を制御)してローリングシャッタによる歪みが発生しないようにしている。なおローリングシャッタ方式とは、MOS型の撮像素子において、少なくとも1つ以上の走査ラインや画素毎に順次露光動作を行う、すなわち走査ラインや画素毎に順次リセットを行い電荷の蓄積を開始し蓄積した電荷を読み出す方式である(フォーカルプレーンシャッター方式とも言う)。
 撮像素子16から読み出された画像信号(R、G、B信号)は画像入力コントローラ22に出力される。
 デジタル信号処理部24は、画像入力コントローラ22を介して入力するデジタルの画像信号に対して、オフセット処理、ホワイトバランス補正、ガンマ補正処理、同時化処理、YC処理等の信号処理及び動画の生成処理等を行う。
 デジタル信号処理部24により処理された画像データは、VRAM50に入力される。VRAM50には、それぞれが1コマ分の画像を表す画像データを記録するA領域とB領域とが含まれている。VRAM50において1コマ分の画像を表す画像データがA領域とB領域とで交互に書き換えられる。VRAM50のA領域及びB領域のうち、画像データが書き換えられている方の領域以外の領域から、書き込まれている画像データが読み出される。
 VRAM50から読み出された画像データは、ビデオエンコーダ28においてエンコーディングされ、カメラ背面に設けられている液晶モニタ30に出力され、これにより被写体像が連続的に液晶モニタ30の表示画面上に表示される。
 CPU40は、スルー画像(ライブビュー画像)の撮影/表示中及び動画の撮影/記録(録画)中、常時AF動作及びAE(自動露出)動作を行う。
 AF処理部(位相差検出手段)42は、本発明に係る位相差AF処理を行う部分であり、図5に示した第1の位相差画素p1、第2の位相差画素p2の各出力信号を使用して位相差を検出する。なお、AF処理部42による位相差検出の詳細については後述する。CPU40は、AF処理部42から位相差を示す位相差データが入力されると、位相差データに基づいて位相差AFを行う焦点調節手段として機能する。即ち、CPU40は、位相差データに基づいて撮影レンズ12によるピント位置と撮像素子16の結像面とのずれ量(デフォーカス量)を算出し、算出したデフォーカス量がゼロになるようにレンズ駆動部36を介して撮影レンズ12内のフォーカスレンズを移動させる。なお、デフォーカス量の算出は、AF処理部42で行ってもよい。
 AE検出部44では、画面全体のG信号を積算し、又は画面中央部と周辺部とで異なる重みづけをしたG信号を積算し、その積算値をCPU40に出力する。CPU40は、AE検出部44から入力される積算値より被写体の明るさ(撮影Ev値)を算出する。撮影モードが静止画撮影モードの場合には、シャッタボタン2の第1段階の押下(半押し)があると、CPU40は、前述のAF制御を再度行い、シャッタボタン2の全押しがあると、被写体の明るさ(撮影Ev値)を算出し、算出した撮影EV値に基づいて絞り14のF値及びメカシャッタ15による露光時間(シャッタ速度)をプログラム線図にしたがって決定し、静止画の撮影(露出制御)を行う。
 一方、撮影モードが動画撮影モードの場合には、シャッタボタン2の全押しがあると、CPU40は、動画の撮影/記録(録画)を開始させる。なお、動画撮影時には、メカシャッタ15を開放し、撮像素子16から画像データを連続的に読み出し(例えば、フレームレートとして30フレーム/秒、60フレーム/秒)、連続的に位相差AFを行うとともに、被写体の明るさを算出し、シャッタ駆動部33によりシャッタ速度(ローリングシャッタによる電荷蓄積時間)及び/又は絞り駆動部34による絞り14を制御する。
 CPU40は、ズームボタン5からのズーム指令に応じてレンズ駆動部36を介してズームレンズを光軸方向に進退動作させ、焦点距離を変更させる。
 また、47は、カメラ制御プログラム、撮像素子16の欠陥情報、画像処理等に使用する各種のパラメータやテーブル、動画の間引き読み出し用の間引きパターン等が記憶されているROM(EEPROM)である。
 動画又は静止画の撮影時に撮像素子16から出力される画像データは、画像入力コントローラ22からメモリ(SDRAM)48に入力され、一時的に記憶される。
 メモリ48に一時的に記憶された画像データは、デジタル信号処理部24により適宜読み出され、ここで、オフセット処理、ホワイトバランス補正、感度補正を含むゲイン・コントロール処理、ガンマ補正処理、同時化処理(原色フィルタの配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理(又はデモザイク処理とも呼ばれる))、エッジ強調の画像処理、及びYC処理(画像データの輝度データ及び色差データの生成処理)を含む信号処理が行われ、YC処理された画像データ(YCデータ)は、再びメモリ48に記憶される。すなわち、デジタル信号処理部24は、入力モザイク画像に所要の信号処理を施して、画素毎にRGB全ての色情報を有するRGB画素信号を生成し、これに基づいて輝度データ(Yデータ)と色差データ(Cr、Cbデータ)とからなる画像データを生成し、この画像データをメモリ48に記憶する。
 メモリ48に記憶されたYCデータは、圧縮伸張処理部26に出力され、JPEG (Joint Photographic Experts Group)などの圧縮処理が実行された後、再びメモリ48に記憶される。メモリ48に記憶されたYCデータ(圧縮データ)から画像ファイルが生成され、その画像ファイルは、メディアコントローラ52により読み出され、メモリカード54に記録される。
 [位相差AF処理]
 図9は、本発明に係る画像処理方法を示すフローチャートであり、特に動画撮影時の画像処理に関して示す。
 動画撮影時にCPU40は、撮像素子16から画素データ(画像データ)を間引き読み出しするための間引き率を取得する(図9のステップS10)。この間引き率は、予め設定された固定値でもよいし、複数の間引き率からユーザにより選択できるようにしてもよい。例えば、動画の画像サイズの選択、あるいはフレームレートの選択に連動して最適な間引き率を設定することができる。
 続いて、CPU40は、間引き率に応じた間引きパターン(抽出パターン)を示す読み出し指令をセンサ駆動部32に出力し、撮像素子16から画像データを間引き読み出しする(ステップS12)。
 図10は、撮像素子16における位相差画素の第1の配置例、及び画像データの間引き読み出しに関する概念図である。
 図10の(a)に示すように、撮像素子16のカラーフィルタ配列と同じカラー配列のRAWデータ(モザイク画像)の全ライン(全水平画素ライン)を撮像素子16から読み出すことができるが、動画撮影時には、図10の(b)に示すように垂直方向に関して4ライン毎に1ラインを抽出読み出しする1/4間引き読み出し、又は図10の(c)に示すように垂直方向への1/4間引き抽出読み出しに加えて水平方向に関して2ライン毎に1ラインを抽出読み出しする1/2間引き読み出しを行うことができる。例えば、高解像度の撮影モードでは図10の(b)に示す間引き読出しを行い、低解像度の撮影モードやライブビュー表示モードでは図10の(c)に示す間引き読出しを行うように、切替えてもよい。
 第1の位相差画素p1及び第2の位相差画素p2は、それぞれ3×3画素のA配列及びB配列の左下のG画素の位置又は左上のG画素の位置に配置されている(図5参照)。そして、垂直方向の間引き読み出し時には、第1の位相差画素p1及び第2の位相差画素p2を含む水平画素ラインと、第1の位相差画素p1及び第2の位相差画素p2のいずれも含まない水平画素ラインとの両者が読み出される。即ち、間引き率に対応して、いずれのラインを読み出すかを示す間引きパターンが予め設定されており、本例では「水平方向の画素ライン」又は「水平方向の画素ライン及び垂直方向の画素ライン」から間引きパターンが構成され、間引きパターンに応じた画素ラインの画素データ(画像データ)のみが間引き読み出しされる。
 図10の(a)において、A配列又はB配列(サブ配列)に対応する3画素ライン(水平方向/垂直方向)に番号1~3を付し、基本配列パターンPに対応する6画素ライン(水平方向/垂直方向)に番号1~6を付す。
 第1の位相差画素p1及び第2の位相差画素p2は、A配列の番号1又は3に対応する水平方向画素ラインのみに配置されている。したがって、図10の(a)の黒丸が付された水平方向画素ラインのみを抽出する1/4間引き読み出しの場合には、図10の(b)に示すように「A配列の番号3であって基本配列パターンPの番号3に対応する水平方向画素ライン」、「A配列の番号1であって基本配列パターンPの番号1に対応する水平方向画素ライン」及び「B配列の番号2であって基本配列パターンPの番号5に対応する水平方向画素ライン」の画像データ(画素信号)が周期的に読み出される。
 すなわち本例では、カラー画像取得手段(センサ駆動部32)によって撮像素子16から読み出し抽出されるライン画像は、第1の基本配列パターンP1の第1の位相差画素p1を含む水平方向に延在する画素ライン(サブ配列の番号3、基本配列パターンの番号3)の画像データと、第2の基本配列パターンP2の第2の位相差画素p2を含む水平方向に延在する画素ライン(サブ配列の番号1、基本配列パターンの番号1)の画像データと、第1の位相差画素p1及び第2の位相差画素p2のいずれも含まず水平方向に延在する第2の基本配列パターンP2の画素ライン(サブ配列の番号2、基本配列パターンの番号5)の画像データとによって構成される。したがって、間引き読み出し又は抽出される画素信号に対応する画素から成る画素群であって動画生成時に使用される画像データに対応する画素群(抽出画素群)は、これらの読み出し抽出対象の複数の画素ライン(本例では3つの水平方向画素ライン)が周期的に配列されて構成される。本例では、この抽出画素群のうち第1の位相差画素p1及び第2の位相差画素p2のいずれも含まない画素ラインが、第1の位相差画素p1及び第2の位相差画素p2が配置される画素(G画素)と同色の画素(G画素)を含み、このG画素は、斜め方向に関して第1の位相差画素p1及び第2の位相差画素p2と隣接して配置される。
 なお本例では、水平方向に関しては間引かれずに同時化処理が行われ、その後、画素データを水平方向に縮小する処理が行われることで動画データが生成される。したがって、デジタル信号処理部24において、所定のカラー配列のカラー画像が抽出取得され、この抽出取得されたカラー画像に基づいて動画データが生成される。
 同様に、図10の(a)の黒丸が付された水平方向画素ライン(1/4間引き)及び垂直方向画素ライン(1/2間引き)のみを抽出する場合には、図10の(c)に示すように「A配列の番号3であって基本配列パターンPの番号3に対応する水平方向画素ライン」、「A配列の番号1であって基本配列パターンPの番号1に対応する水平方向画素ライン」及び「B配列の番号2であって基本配列パターンPの番号5に対応する水平方向画素ライン」の画像データ(画素信号)が周期的に読み出されると共に、「A配列の番号2であって基本配列パターンPの番号2に対応する垂直方向画素ライン」、「B配列の番号1であって基本配列パターンPの番号4に対応する垂直方向画素ライン」及び「B配列の番号3であって基本配列パターンPの番号6に対応する垂直方向画素ライン」の画像データ(画素信号)が周期的に読み出される。したがって、本例においても、この抽出画素群のうち第1の位相差画素p1及び第2の位相差画素p2のいずれも含まない(水平方向)画素ラインが、第1の位相差画素p1及び第2の位相差画素p2が配置される画素(G画素)と同色の画素(G画素)を含み、このG画素は、斜め方向に関して第1の位相差画素p1及び第2の位相差画素p2と隣接して配置される。
 なお本例では、デジタル信号処理部24において、図10の(c)に示すような抽出画素データに基づいて同時化処理が行われ、その後、水平方向及び垂直方向の両者の間で間引き縮小の程度を揃えるための画素データの縮小処理が行われることで動画データが生成される。
 このように、間引き率に応じた間引きパターンは、ライン画像の抽出に関する垂直方向の周期(抽出画素周期)を有し、抽出画素周期の垂直方向に関する対応画素数t2(=4)は、基本配列パターンPの垂直方向に関する画素数(=6)と異なる。また、第1の位相差画素p1と第2の位相差画素p2との間の垂直方向に関する画素数t1(=4)と、抽出画素周期の垂直方向に関する対応画素数t2(=4)とは、t1=t2×1の関係を満たす。
 また、第1の位相差画素p1及び第2の位相差画素p2の垂直方向に関する繰り返し周期に対応する画素数(=12)は、抽出画素周期の垂直方向に関する対応画素数t2(=4)と基本配列パターンPの垂直方向の画素数(=6)との最小公倍数(=12)となる。したがって、位相差画素の垂直方向に関する繰り返し周期や抽出画素周期は、上述のG画素のカーネル周期やR画素及びB画素のカーネル周期と一致しない。
 図9に戻って、ステップS12により1フレーム分の画像データが間引き読出しされると、以下に示すようにAF動作と動画生成の処理とが並列して行われる。
 AF処理部42は、間引き読み出しされた1フレーム分の画像データのうちのAF領域内の第1の位相差画素p1及び第2の位相差画素p2の画像データ(出力データ)を抽出し、第1の位相差画素p1の出力データと第2の位相差画素p2の出力データとの位相差を検出する(ステップS14)。例えば、上下一対の第1の位相差画素p1と第2の位相差画素p2の各出力データの相関が最大になるとき(上下一対の位相差画素の各出力データの差分絶対値の積算値が最小になるとき)の各出力データ間の左右方向のシフト量から位相差を求める。
 また、図10の(b)に示すように1/4間引き読み出しにより水平方向に第1の位相差画素p1と第2の位相差画素p2とが交互に配置される場合には、水平方向の第1の位相差画素p1の出力データと第2の位相差画素p2の出力データとの相関が最大になる時の各出力データ間の左右方向のシフト量から位相差を求め、求めたシフト量を、第1の位相差画素p1と第2の位相差画素p2との水平方向の位置ずれ分だけ補正した値を位相差として算出することができる。なお、位相差の算出方法は、上記の方法に限らず、種々の方法を適用することができる。
 続いて、CPU40は、ステップS14で検出した位相差からCPU40は、位相差データに基づいて撮影レンズ12によるピント位置と撮像素子16の結像面とのずれ量(デフォーカス量)を算出する(ステップS16)。なお、デフォーカス量の算出は、AF処理部42で行ってもよい。
 CPU40は、算出したデフォーカス量から撮影レンズ12内のフォーカスレンズが合焦位置にあるか否かを判別する(ステップS18)。合焦位置にないと判別すると(「No」の場合)、算出したデフォーカス量がゼロになるようにレンズ駆動部36を介して撮影レンズ12内のフォーカスレンズを移動させる(ステップS20)。合焦位置にあると判別すると(「Yes」の場合)、ステップS32に遷移する。
 上記ステップS14からステップS20の処理と並行し動画生成の処理が行われる。
 ステップS12により1フレーム分の画像データが間引き読出しされると、ステップS22では、デジタル信号処理部24中の補間演算手段により第1の位相差画素p1及び第2の位相差画素p2の画素位置における画素(G画素)の画素値(画像データ)の算出が行われる。即ち、第1の位相差画素p1及び第2の位相差画素p2の出力データは、G画素の画像データとしては使用できないため、第1の位相差画素p1及び第2の位相差画素p2の画素位置におけるG画素の画像データを、周囲の複数のG画素(この実施形態の場合には、隣接G画素を含む複数のG画素)の画像データの補間により算出する。算出した画像データは、第1の位相差画素p1及び第2の位相差画素p2の画素位置におけるG画素の画像データとする。
 このように間引き読み出し後のカラー画像は、第1の位相差画素p1及び第2の位相差画素p2に隣接して、第1の位相差画素p1及び第2の位相差画素p2の位置における画素の色(G)と同じ色の画素が配置されており、間引き読み出し後のカラー画像中の第1の位相差画素p1及び第2の位相差画素p2の位置における画素の画素値は、第1の位相差画素p1及び第2の位相差画素p2に隣接する同じ色(G)の画素を含む周辺画素の画素値が補間処理に使用され、デジタル信号処理部24中の補間演算手段(例えば補間演算回路)により算出される。
 次に、デジタル信号処理部24は、間引き読み出し(抽出)されたR、G、Bの画像データ(位相差画素の画素位置のG画素は、補間された画像データ)に基づいて、ホワイトバランス補正、ガンマ補正処理、同時化処理、YC処理等の信号処理を施した動画の生成処理を行う。このとき、デジタル信号処理部24(動画生成手段)は、第1の位相差画素p1及び第2の位相差画素p2の位置における画素の画素値として補間演算手段により算出された値を使用した間引き読み出し後のカラー画像に基づいて、縮小した動画データを生成する(ステップS24)。
 図10の(b)及び図10の(c)に示すように間引き読み出し後のR、G、Bのモザイク画像は、位相差画素の周辺に通常画素のG画素が多く配置されるため、位相差画素の補間の精度を高くすることができ、また、水平方向の全ライン上にR、G、Bの画素が配置されるため、同時化処理(デモザイク処理)の精度を高くすることができる。
 また、デジタル信号処理部24は、同時化処理後に垂直方向のラインの画像を、水平方向のラインの間引き読み出し(本例では1/4間引き)と同様に間引き読み出しし(抽出し)、それぞれ水平方向及び垂直方向に間引かれた画像(縮小された画像)を生成する。
 デジタル信号処理部24により生成された動画は、圧縮伸張処理部26によりモーションJPEG、MPEG(Moving Picture Experts Group)-4などの圧縮された動画データに変換された後、メディアコントローラ52を介してメモリカード54に記録される(ステップS26)。
 また、デジタル信号処理部24は、上記記録用の動画の生成と並行して、液晶モニタ30に表示する表示用の動画を生成する(ステップS28)。表示用の動画は、液晶モニタ30の表示サイズに合わせて更に縮小された画像である。生成された表示用の動画は、ビデオエンコーダ28を介して液晶モニタ30に出力され、スルー画像として表示される(ステップS30)。
 ユーザは液晶モニタ30に表示されるスルー画像により動画撮影中の画像を確認することができる。
 次に、CPU40は、操作部38から動画の撮影終了の指示入力(シャッタボタン2の再度の押下)があったか否かを判別する(ステップS32)。そして、動画の撮影終了の指示入力があった場合(「Yes」の場合)には動画の撮影/記録を終了し、一方、動画の撮影終了の指示入力がない場合(「No」の場合)には、ステップS12に遷移させ、動画の撮影/記録を継続する。
 以上説明したように本実施形態によれば、動画の生成に使用する間引き抽出画像(図10の(b)に示す例では垂直方向に関して1/4間引き読み出し(4ラインのうち1ラインのみを抽出)した画像、図10の(c)に示す例では垂直方向に関して1/4間引き読み出し(4水平方向画素ラインのうち1ラインのみを抽出)及び水平方向に関しては1/2間引き読み出し(2垂直方向画素ラインのうち1ラインのみを抽出)した画像)における高い同時化処理精度を確保しつつ、その抽出画像において位相差画素を効率良く利用した正確なAF制御を行うことができる。
 すなわち、動画生成時に抽出されるライン画像に位相差画素(第1の位相差画素p1及び第2の位相差画素p2)が含まれるため、動画像撮影時においても適切にAF制御を行うことができる。特に、垂直方向に関し、第1の位相差画素p1と第2の位相差画素p2との間の画素数t1と動画生成時のライン画像の抽出周期(抽出画素周期)の対応画素数t2とが「t1=t2×I(Iは、1以上の整数;本実施形態ではI=1)」を満たすため、位相差画素を動画生成時の抽出画素ラインに効率良く含めることができる。
 また、垂直方向に関し、位相差画素(第1の位相差画素p1及び第2の位相差画素p2)の繰り返し周期と動画生成時のライン画像の抽出周期(抽出画素周期)とがズレている(異なる)ため、位相差画素を含む画素ラインだけではなく、位相差画素を含まずに通常の画素のみを含む画素ラインも動画生成時には抽出される。これにより、動画像の画質を良化することができ、また位相差画素の画像データを、周囲の画素データに基づいて補間処理により算出取得する際に、「位相差画素を含まずに通常の画素のみを含む画素ライン」の画像データを有効に活用することができ、画像データ(画素データ)の補間精度を向上させることができる。特に本例では、位相差画素を含まない抽出画素ラインが位相差画素と同じ色のフィルタ(Gフィルタ)が第1の位相差画素p1又は第2の位相差画素p2と隣接し、また抽出(間引き)後のカラー画像(抽出画素群)では、第1の位相差画素p1及び第2の位相差画素p2の各々に隣接する位置に同色画素(G画素)が配置されるため、より一層、補間精度を高めることができる。
 また、垂直方向にペアを形成する第1の位相差画素p1と第2の位相差画素p2との間の画素数t1(本例ではt1=4)を偶数にすることで、これらの位相差画素に対する画像処理を簡便にすることが可能である。すなわち、撮像素子16の受光素子に設けられるアンプ(増幅器)等を含む下地構造は、垂直方向に隣接する2画素及び水平方向に隣接する2画素(計2×2=4画素)の受光素子で共有させることが行われている。この場合、この下地構造に対する受光素子の相対位置(配置特性)を考慮した信号処理を、各受光素子から出力される信号に対して施すことで、画質を向上させることができる。そのため、下地構造に対する第1の位相差画素p1及び第2の位相差画素p2の相対位置を共通化することで、配置特性を考慮した信号処理を簡便にすることが可能であり、補間処理精度を向上させることができる。したがって、垂直方向に隣接する2画素間でアンプ等を共有させる場合に、本例のように第1の位相差画素p1と第2の位相差画素p2との画素間隔を偶数画素数にすることで、またペアとなる第1の位相差画素p1及び第2の位相差画素p2を垂直方向に延在する同一画素ライン上に配置することで、第1の位相差画素p1及び第2の位相差画素p2の下地構造に対する相対位置を共通化することができ、信号処理を簡便にすることが可能である。ここで、画素間隔とは、基準画素の中心点から隣接画素の中心点まで画素間隔(ピッチ)をいう。
 更に、図10の(b)に示す例によれば、動画生成のために(間引き)抽出されるライン画素群において、全ての水平方向画素ラインの各々に、R画素、G画素及びB画素の全ての色の画素が含まれる。また図10の(b)及び図10の(c)のいずれの場合においても、間引き読み出し後の配列(抽出画素群)において、G画素及び位相差画素の各々がR画素及びB画素と垂直・水平・斜め方向のいずれかの方向に隣接し、R画素、G画素及びB画素の各々は垂直方向に関してストライプ状にならない(R画素、G画素及びB画素のうちの単一色のみの画素が垂直方向において並置される状態にはならない)ので同時化精度を高くすることができる。したがって、本例によれば、色再現性に優れた高画質の動画を生成することができる。
 以上説明したように本実施形態の撮像装置10によれば、間引かれたカラー画像を動画処理の対象画像とすることにより、1フレーム当りの処理時間の短縮化を図ることができ、フレームレートが低下しないようにすることができる。また、撮像素子16から画素を間引き読出しすることにより、撮像素子16からの画像の読出し時間の短縮化を図ることができる。
 また、取得したカラー画像の少なくともAF領域内には、間引きパターン上であって、第1の方向(水平方向)の画素ライン上の同一の色のフィルタの位置に、第1、第2の位相差画素p1、p2が配置されているため、第1、第2の位相差画素に対応する出力信号を第1の方向及び第2の方向(垂直方向)の2次元で取得することができ、この出力信号に基づいて精度よく各出力信号の位相差を検出することができる。これにより撮像装置10では、動画の撮影中に精度よく位相差AFを行うことができる。
 更に、第1のフィルタ(G色のGフィルタ)及び第2の色の各色(R色、B色)に対応する第2のフィルタ(Rフィルタ、Bフィルタ)のそれぞれは、基本配列パターンP、P’内の第1の方向及び第2の方向の各画素ライン内にそれぞれ1以上配置されているため、間引かずに全画素を用いた撮影(例えば静止画)を行う場合には、その撮影画像(静止画など)での偽色の発生の低減及び高解像度化を図ることができ、また、第1、第2の位相差画素の周辺画素として通常の画素(第1、第2の位相差画素以外の画素)を配置することができ、第1、第2の位相差画素の位置のカラー画素の画素値を、隣接する画素を含む周辺画素の画素値の補間により生成する際に精度よく求めることができる。これにより撮像装置10では、位相差画素p1,p2による撮影画像の画質の低下を防止し、又は軽減することができる。
 [位相差画素の第2の配置例]
 図11は、撮像素子16における位相差画素の第2の配置例、及び画像データの間引き読み出しに関する概念図である。なお本配置例に関し、図10に示す第1の配置例と同様の構成及び作用効果についての詳細な説明は省略する。
 図11の(a)に示すように本例の撮像素子16のカラーフィルタ配列では、カラーフィルタが水平方向及び垂直方向に3×6(M×N)画素に対応する配列パターンで配列されて基本配列パターンPが構成される。この基本配列パターンPは、カラーフィルタが3×3(M×(N/2))画素に対応する配列パターンで配列された2種類のサブ配列であるA配列(第1のサブ配列)及びB配列(第2のサブ配列)を、それぞれ1つずつ含む。
 A配列及びB配列の各々では、4辺のうちの2辺であって相互に隣接する2辺を構成するL字状の外周部の画素位置にGフィルタが5画素分配置され、外周部以外の画素位置にRフィルタ及びBフィルタがそれぞれ2画素ずつ配置される。A配列では、Gフィルタが配置される外周部以外の2×2画素の箇所の一方の対角線上にRフィルタが配置され、他方の対角線上にBフィルタが配置される。特に本例のA配列では、外周部によって構成される2辺に共通なG画素(L字状に配置されるG画素のうち角部を形成するG画素)を通る対角線上にRフィルタが配置される。一方、B配列でも、Gフィルタが配置される外周部以外の2×2画素の箇所の一方の対角線上にRフィルタが配置され、他方の対角線上にBフィルタが配置されるが、外周部によって構成される2辺に共通なG画素を通る対角線上にBフィルタが配置される。したがって、A配列とB配列とは、RフィルタとBフィルタとの位置関係が逆転しているが、Gフィルタの配置は同様になっている。
 上記の配列パターンを有する本例のカラーフィルタ配列では、G画素に関するカーネル周期は3画素周期であり、R画素及びB画素に関するカーネル周期も3画素周期となっており、G画素のカーネル周期とR画素及びB画素のカーネル周期とは一致する。
 位相差画素の配置に関して本例のカラーフィルタ配列では、第1の位相差画素p1がA配列の4隅のうちの左上のG画素に配置され、また第2の位相差画素p2がB配列のG画素のうち垂直方向に関して中央に位置するG画素に配置される。したがって、図11の(a)に示すように第1の位相差画素p1及び第2の位相差画素p2の各々に対して上下画素(垂直方向画素)及び斜め方向画素(左右上画素又は左右下画素)に同色のG画素が配置される。これにより、ライン画像の間引き読み出し(抽出)を行わない静止画撮影時においても、第1の位相差画素p1及び第2の位相差画素p2の周辺の同色画素の画像データを使って、これらの位相差画素の画像データの補間処理を高精度に行うことができる。
 そして、これらの第1の位相差画素p1及び第2の位相差画素p2を含む基本配列パターンP(第1の基本配列パターン)と、第1の位相差画素p1及び第2の位相差画素p2のいずれも含まない基本配列パターンP(第2の基本配列パターン)とが垂直方向に交互に並置され、また水平方向に関してはこれらの第1の基本配列パターン及び第2の基本配列パターンが連続的に並置される。
 したがって、全体のカラーフィルタ配列では、A配列及びB配列の各々の隅部に配置されるGフィルタによって、Rフィルタ及びBフィルタが配置される2×2画素の領域が取り囲まれ、十字状のGフィルタ配置が形成されることとなる。この十字配列を形成するG画素の交差部分のうち水平方向のG画素の画素値の差分絶対値及び垂直方向のG画素の画素値の差分絶対値を求めることにより、水平方向及び垂直方向のうちの差分絶対値の小さい方向に相関があると判断することができる。また、交差部分のうち斜め方向(NE、NW)のG画素の画素値の差分絶対値を求めることにより、各斜め方向のうち差分絶対値の小さい方向に相関があると判断することができる。その結果、カラーフィルタ配列では、最小画素間隔のG画素の情報(出力信号)を使用して、水平方向、垂直方向及び斜め方向のうちの相関の高い方向判別ができる(ここでいう画素間隔とは、基準画素の中心点から隣接画素の中心点まで画素間隔(ピッチ)をいう)。この方向判別結果は、周囲の画素から補間する処理(同時化処理)に使用することができる。なおこの場合、例えば前述の同時化処理回路内に方向判別処理部を設け、方向判別処理部で方向判別を行うようにするとよい。
 なお、Rフィルタ及びBフィルタの各々は、色モワレ(偽色)の発生を低減するために、基本配列パターンP内においてカラーフィルタ配列の水平方向(H)、及び垂直方向(V)の各ライン内に配置することが好ましい。しかしながら、G画素におけるR、B画素値については、前述の隣接するG画素群からの出力信号値から方向判別した結果などを用いて隣接するフィルタ列内のRフィルタまたはBフィルタに対応する画素から補間処理することにより求めることができる。
 このカラーフィルタ配列において、第1の位相差画素p1と第2の位相差画素p2とは、垂直方向に延在する同一画素ライン上に一対となって配置され、ペアとして活用することができる。本例においても、垂直方向にペアを形成する第1の位相差画素p1と第2の位相差画素p2との間の垂直方向に関する画素数t1は、「4」であり、第1の位相差画素p1及び第2の位相差画素p2の垂直方向に関する繰り返し周期は、2つの基本配列パターンPが基準になり、具体的な対応画素数は「12」である。
 上述の配置構成では、以下のようにして、動画生成時のライン画像の抽出処理が行われる。
 本例においても、撮像素子16のカラーフィルタ配列と同じカラー配列のRAWデータ(モザイク画像)の全ラインを撮像素子16から読み出すことが可能であるが、動画撮影時には、図11の(b)に示すように4ライン毎に1ラインを間引き読み出しする1/4間引き読み出し(抽出)を行うことができる。
 そして、間引き読み出し時には、間引きパターンに応じたラインの画像データのみが読み出され、第1の位相差画素p1を含むライン、第2の位相差画素p2を含むライン、及び第1の位相差画素p1及び第2の位相差画素p2のいずれも含まないラインから画像データ(画素データ)が読み出される。すなわち、「第1の位相差画素p1を含む水平方向画素ライン(A配列の番号1、基本配列パターンの番号1)」、「第2の位相差画素p2を含む水平方向画素ライン(B配列の番号2、基本配列パターンの番号5)」及び「第1の位相差画素p1及び第2の位相差画素p2のいずれも含まない水平方向画素ライン(A配列の番号3、基本配列パターンの番号3)」の画像データ(ライン画像)が、垂直方向に関して4画素間隔で周期的に読み出される。
 図11の(b)に示す本例の抽出画素群のうち第1の位相差画素p1及び第2の位相差画素p2のいずれも含まない画素ライン(基本配列パターンの番号3)は、第1の位相差画素p1及び第2の位相差画素p2に配置されるG画素と同色の画素(G画素)のみによって構成され、第1の位相差画素p1及び第2の位相差画素p2はこれらのG画素とも隣接する。
 以上説明したように本例においても、動画生成時に抽出されるライン画像に位相差画素(第1の位相差画素p1及び第2の位相差画素p2)が含まれるため、動画像撮影時においても適切にAF制御を行うことができる。特に、垂直方向に関し、第1の位相差画素p1と第2の位相差画素p2との間の画素数t1と動画生成時のライン画像の抽出周期(抽出画素周期)の対応画素数t2とが「t1=t2×I(Iは、1以上の整数;本例ではI=1)」を満たすため、周期的に配置される位相差画素を動画生成時の抽出画素ラインに効率良く含めることができる。
 また、位相差画素を含む画素ラインだけではなく、位相差画素を含まずに通常の画素のみを含む画素ラインも動画生成時には抽出されるので、画像データ(画素データ)の補間精度を向上させることができる。特に、位相差画素を含まない抽出画素ラインが位相差画素と同じ色のフィルタ(Gフィルタ)を含み、また抽出(間引き読み出し)後のカラー画像(抽出画素群)では、第1の位相差画素p1及び第2の位相差画素p2の各々に隣接する位置(垂直方向隣接位置及び斜め方向隣接位置)に同色の通常画素(G画素)が配置されるため、より一層、補間精度を高めることができる。
 [位相差画素の第3の配置例]
 図12は、撮像素子16における位相差画素の第3の配置例、及び画像データの間引き読み出しに関する概念図である。なお本配置例に関し、図10に示す第1の配置例及び図11に示す第2の配置例と同様の構成及び作用効果についての詳細な説明は省略する。
 図12の(a)に示すように本例の撮像素子16のカラーフィルタ配列では、カラーフィルタが水平方向及び垂直方向に3×3(M×M)画素に対応する配列パターンで配列されて基本配列パターンPが構成される。
 この基本配列パターンPは、上述の図11に示す第2の配置例のB配列と同様のカラーフィルタ配列を有する。すなわち、基本配列パターンPの4辺のうちの2辺であって相互に隣接する2辺を構成するL字状の外周部の画素位置にGフィルタが5画素分配置され、外周部以外の画素位置にRフィルタ及びBフィルタがそれぞれ2画素ずつ配置される。特に本例の基本配列パターンPでは、外周部によって構成される2辺に共通なG画素(L字状に配置されるG画素のうち角部を形成するG画素)を通る対角線上にBフィルタが配置され、Gフィルタが配置される外周部以外の2×2画素の箇所の他方の対角線上にRフィルタが配置される。
 この基本配列パターンPが水平方向及び垂直方向に並置されるカラーフィルタ配列において、G画素に関するカーネル周期は3画素周期であり、R画素及びB画素に関するカーネル周期も3画素周期となっており、G画素のカーネル周期とR画素及びB画素のカーネル周期とは一致する。
 位相差画素の配置に関して本例のカラーフィルタ配列では、第1の位相差画素p1が配置される1つの基本配列パターンPと、第2の位相差画素p2が配置される1つの基本配列パターンPと、第1の位相差画素p1及び第2の位相差画素p2のいずれも配置されない2つの基本配列パターンPとが垂直方向に並置される。したがって、図12の(a)に示すように第1の位相差画素p1及び第2の位相差画素p2の各々に対して上下画素(垂直方向画素)及び斜め方向画素(左右上画素又は左右下画素)に同色のG画素が配置される。これにより、ライン画像の間引き読み出し(抽出)を行わない静止画撮影時においても、第1の位相差画素p1及び第2の位相差画素p2の周辺の同色画素の画像データを使って、これらの位相差画素の画像データの補間処理を高精度に行うことができる。
 第1の位相差画素p1は、基本配列パターンPの4隅のうちの左上のG画素に配置される。また第2の位相差画素p2は、基本配列パターンPのG画素のうち、垂直方向に関して中央に位置するG画素に配置される。そして、これらの第1の位相差画素p1及び第2の位相差画素p2を含む2つの基本配列パターンPと、第1の位相差画素p1及び第2の位相差画素p2のいずれも含まない2つの基本配列パターンPとが垂直方向に交互に並置され、また水平方向に関してはこれらの基本配列パターンPが連続的に並置される。
 したがって、全体のカラーフィルタ配列では、基本配列パターンPの隅部に配置されるGフィルタによって、Rフィルタ及びBフィルタが配置される2×2画素の領域が取り囲まれ、十字状のGフィルタ配置が形成されることとなる。
 このカラーフィルタ配列において、第1の位相差画素p1と第2の位相差画素p2とは、垂直方向に延在する同一画素ライン上に一対となって配置され、ペアとして活用することができる。このように垂直方向にペアを形成する第1の位相差画素p1と第2の位相差画素p2との間の垂直方向に関する画素数t1は、「4」である。また、第1の位相差画素p1及び第2の位相差画素p2の垂直方向に関する繰り返し周期は、4つの基本配列パターンPが基準になり、具体的な対応画素数は「12」である。
 上述の配置構成では、以下のようにして、動画生成時のライン画像の抽出処理が行われる。
 本例においても、撮像素子16のカラーフィルタ配列と同じカラー配列のRAWデータ(モザイク画像)の全ラインを撮像素子16から読み出すことができるが、動画撮影時には、図12の(b)に示すように垂直方向に関して4ライン毎に1ラインを間引き読み出しする1/4間引き読み出し(抽出)、または図12の(c)に示すように垂直方向に関する1/4間引き読み出しに加えて水平方向に関しても4ライン毎に1ラインを間引き読み出しする1/4間引き読み出し(抽出)を行うことができる。
 そして、間引き読み出し時には、間引きパターンに応じたラインの画像データのみが読み出され、第1の位相差画素p1を含むライン、第2の位相差画素p2を含むライン、及び第1の位相差画素p1及び第2の位相差画素p2のいずれも含まないラインから画像データ(画素データ)が読み出される。すなわち図12の(b)に示す例では、「第1の位相差画素p1を含む水平方向画素ライン(基本配列パターンの番号1)」、「第2の位相差画素p2を含む水平方向画素ライン(基本配列パターンの番号2)」及び「第1の位相差画素p1及び第2の位相差画素p2のいずれも含まない水平方向画素ライン(基本配列パターンの番号3)」の画像データ(ライン画像)が、垂直方向に関して4画素間隔で周期的に読み出される。この場合、水平方向に関しては間引かれずに同時化処理が行われ、その後、画素データを水平方向に縮小する処理が行われることで動画データが生成される。また図12の(c)に示す例では、これらの水平方向画素ラインに加えて「第1の位相差画素p1及び第2の位相差画素p2を含む垂直方向画素ライン(基本配列パターンの番号1)」、「基本配列パターンの番号2に対応する垂直方向画素ライン」及び「基本配列パターンの番号3に対応する垂直方向画素ライン」のの画像データ(ライン画像)が、垂直方向及び水平方向の各々に関して4画素間隔で周期的に読み出される。
 図12の(b)及び図12の(c)に示す抽出画素群のうち第1の位相差画素p1及び第2の位相差画素p2のいずれも含まない水平方向画素ラインは、第1の位相差画素p1及び第2の位相差画素p2が配置されるG画素と同色の画素(G画素)のみによって構成される。
 また、図12の(b)及び図12の(c)に示す抽出画素群は、Rフィルタ、Gフィルタ及びBフィルタの配列パターンに関し、図12の(a)に示す基本配列パターンPと同じ配列パターンを有する。したがって、動画生成の前後において、共通の画像処理(補間処理)を適用することができ、非常に利便性が高い。
 以上説明したように本例においても、動画生成時に抽出されるライン画像に位相差画素(第1の位相差画素p1及び第2の位相差画素p2)が含まれるため、動画像撮影時においても適切にAF制御を行うことができる。特に、垂直方向に関し、第1の位相差画素p1と第2の位相差画素p2との間の画素数t1と動画生成時のライン画像の抽出周期(抽出画素周期)の対応画素数t2とが「t1=t2×I(Iは、1以上の整数;本例ではI=1)」を満たすため、周期的に配置される位相差画素を動画生成時の抽出画素ラインに効率良く含めることができる。
 また、位相差画素を含む画素ラインだけではなく、位相差画素を含まずに通常の画素のみを含む画素ラインも動画生成時には抽出されるので、画像データ(画素データ)の補間精度を向上させることができる。特に本例では、位相差画素を含まない水平方向の抽出画素ラインが位相差画素と同じ色のフィルタ(Gフィルタ)及び画素(G画素)のみから成り、抽出(間引き読み出し)後のカラー画像(抽出画素群)では、第1の位相差画素p1及び第2の位相差画素p2の各々に隣接する位置(垂直方向隣接位置及び斜め方向隣接位置)にこの位相差画素を含まない抽出画素ラインにおける同色(G色)の通常画素(G画素)が配置されるため、より一層、補間精度を高めることができる。
 また、動画生成のために(間引き読み出し)抽出されるライン画素群によって構成される画像データは、抽出処理前のモザイク画像データの基本配列パターンPと同じ配列パターンを有するため、動画生成の前後において、共通の画像処理(補間処理)を適用することができる。
 更に、本例によれば、動画生成のために(間引き読み出し)抽出されるライン画素群において、R画素及びB画素は、隣接画素位置に同色画素が配置されず、他の色の画素が配置される。例えばR画素にはG画素及びB画素が隣接し、B画素にはG画素及びR画素が隣接する。したがって、本例によれば、動画生成時における補間処理(同時化処理)の精度を効果的に向上させることができる。
 [他の実施形態]
 <R、G、B以外の画素を有する撮像素子の他の実施形態>
 上記各実施形態では、本発明の第1の色を有する第1のフィルタとしてG色のGフィルタを例に挙げて説明を行ったが、Gフィルタの代わりに、あるいはGフィルタの一部に代えて、下記条件(1)から条件(4)のいずれかを満たすフィルタを用いてもよい。
 <第1のフィルタ(第1の色)の条件>
 〔条件(1)〕
 条件(1)は、輝度信号を得るための寄与率が50%以上であることである。この寄与率50%は、本発明の第1の色(G色など)と、第2の色(R、B色など)とを区別するために定めた値であって、輝度データを得るための寄与率がR色、B色などよりも相対的に高くなる色が「第1の色」に含まれるように定めた値である。
 G画素の画像信号は、R画素及びB画素の画像信号よりも輝度信号の生成時の寄与率が高い。具体的に説明すると、同時化処理後の、ある画素の輝度信号(Y信号)は、同時化されたR、G、Bの画像信号(R、G、B信号)に基づいて、一般に次式により算出される。
 [数1]
 Y=0.3R+0.6G+0.1B
 この[数1]式ではG色の寄与率が60%になるため、G色は、R色(寄与率30%)やB色(寄与率10%)よりも寄与率が高くなる。したがって、G色が3原色のうち最も輝度信号に寄与する色となる。
 また、G色以外の色の寄与率についても実験やシミュレーションにより取得可能である。従って、G色以外で寄与率が50%以上となる色を有するフィルタについても、本発明の第1のフィルタとして用いることができる。尚、寄与率が50%未満となる色は本発明の第2色(R色、B色など)となり、この色を有するフィルタが本発明の第2のフィルタとなる。
 〔条件(2)〕
 条件(2)は、フィルタの透過率のピークが波長480nm以上570nm以下の範囲内にあることである。フィルタの透過率は、例えば分光光度計で測定された値が用いられる。この波長範囲は、本発明の第1の色(G色など)と、第2の色(R、B色など)とを区別するために定められた範囲であって、前述の寄与率が相対的に低くなるR色、B色などのピークが含まれず、かつ寄与率が相対的に高くなるG色などのピークが含まれるように定められた範囲である。したがって、透過率のピークが波長480nm以上570nm以下の範囲内にあるフィルタを第1のフィルタとして用いることができる。尚、透過率のピークが波長480nm以上570nm以下の範囲外となるフィルタが本発明の第2のフィルタ(Rフィルタ、Bフィルタ)となる。
 〔条件(3)〕
 条件(3)は、波長500nm以上560nm以下の範囲内での透過率が第2のフィルタ(RフィルタやBフィルタ)の透過率よりも高いことである。この条件(3)においても、フィルタの透過率は、例えば分光光度計で測定された値が用いられる。この条件(3)の波長範囲も、本発明の第1の色(G色など)と、第2の色(R、B色など)とを区別するために定められた範囲であって、R色やB色などよりも前述の寄与率が相対的に高くなる色を有するフィルタの透過率が、RBフィルタなどの透過率よりも高くなる範囲である。したがって、透過率が波長500nm以上560nm以下の範囲内で相対的に高いフィルタを第1のフィルタとして用い、透過率が相対的に低いフィルタを第2のフィルタとして用いることができる。
 〔条件(4)〕
 条件(4)は、3原色のうち最も輝度信号に寄与する色(例えばRGBのうちのG色)と、この3原色とは異なる色とを含む2色以上のフィルタを、第1のフィルタとして用いることである。この場合には、第1のフィルタの各色以外の色に対応するフィルタが第2のフィルタとなる。
 <透明フィルタ(Wフィルタ)>
 上述の実施形態では、主としてRGB色に対応する色フィルタから成るカラーフィルタが示されているが、これらの色フィルタの一部を透明フィルタ(白色画素に対応するWフィルタ)としてもよい。特に第1のフィルタ(Gフィルタ)の一部に代えてWフィルタWを配置することが好ましい。このようにG画素の一部を白色画素に置き換えることにより、画素サイズを微細化しても色再現性の劣化を抑制することができる。
 Wフィルタは、透明色(第1の色)のフィルタである。Wフィルタは、可視光の波長域に対応する光を透過可能であり、例えばRGBの各色の光の透過率が50%以上となるフィルタである。Wフィルタの透過率は、Gフィルタよりも高くなるので、輝度信号を得るための寄与率もG色(60%)よりは高くなり、前述の条件(1)を満たす。
 図13は、Rフィルタ、Gフィルタ、Bフィルタ及び透明フィルタを有する各フォトダイオードの分光感度特性の一例を示すグラフである。
 カラーフィルタ配列(受光素子)の分光感度特性を示す図13において、Wフィルタの透過率のピーク(白色画素の感度のピーク)は、波長480nm以上570nm以下の範囲内にある。また、Wフィルタの透過率は波長500nm以上560nm以下の範囲内で、RBフィルタの透過率よりも高くなる。このため、Wフィルタは前述の条件(2)、(3)も満たしている。尚、GフィルタについてもWフィルタと同様に前述の条件(1)~(3)を満たしている。
 このようにWフィルタは、前述の条件(1)~(3)を満たしているので、本発明の第1のフィルタとして用いることができる。尚、カラーフィルタ配列では、RGBの3原色のうち最も輝度信号に寄与するG色に対応するGフィルタの一部をWフィルタに置き換えているので、前述の条件(4)も満たしている。
 <複数種類の第1のフィルタ(Gフィルタ)>
 第1のフィルタとしてのG色のGフィルタは一種類に限定されるものではなく、例えば複数種類のGフィルタを第1のフィルタとして用いることもできる。即ち、上述の各実施形態に係るカラーフィルタ(基本配列パターン)のGフィルタが、G1フィルタ、G2フィルタに適宜置き換えられてもよい。
 図14は、Rフィルタ、G1フィルタ、G2フィルタ及びBフィルタを有する各フォトダイオードの分光感度特性の一例を示すグラフである。G1フィルタは第1の波長帯域のG光を透過し、G2フィルタはG1フィルタと相関の高い第2の波長帯域のG光を透過する。
 G1フィルタとしては、現存のGフィルタ(例えば第1実施形態のGフィルタ)を用いることができる。また、G2フィルタとしては、G1フィルタと相関の高いフィルタを用いることができる。この場合に、G2フィルタが配置される受光素子の分光感度曲線のピーク値は、例えば波長500nmから535nmの範囲(現存のGフィルタが配置される受光素子の分光感度曲線のピーク値の近傍)にあることが望ましい。尚、4色(R、G1、G2、B)のカラーフィルタを決定する方法は、例えば特開2003-284084号に記載されている方法が用いられる。
 このようにカラー撮像素子により取得される画像の色を4種類とし、取得される色情報を増やすことにより、3種類の色(RGB)のみが取得される場合と較べて、より正確に色を表現することができる。即ち、眼で違うものに見える色は違う色に、同じものに見える色は同じ色にそれぞれ再現すること(「色の判別性」を向上させること)ができる。
 尚、G1及びG2フィルタの透過率は、第1実施形態のGフィルタの透過率と基本的には同じであるので、輝度信号を得るための寄与率は50%よりは高くなる。したがって、G1及びG2フィルタは前述の条件(1)を満たす。
 また、カラーフィルタ配列(受光素子)の分光感度特性を示す図14において、G1、G2フィルタの透過率のピーク(各G画素の感度のピーク)は波長480nm以上570nm以下の範囲内にある。G1、G2フィルタの透過率は波長500nm以上560nm以下の範囲内で、RBフィルタの透過率よりも高くなる。このため、G1、G2フィルタは前述の条件(2)、(3)も満たしている。
 尚、G1、G2フィルタの配置や個数は適宜変更してもよい。また、Gフィルタの種類を3種類以上に増加してもよい。
 <エメラルドフィルタ(Eフィルタ)>
 上述の実施形態では、主としてRGB色に対応する色フィルタから成るカラーフィルタが示されているが、これらの色フィルタの一部を他の色フィルタとしてもよく、例えばエメラルド(E)色に対応するフィルタ(E画素に対応するEフィルタ)としてもよい。特に第1のフィルタ(Gフィルタ)の一部に代えてEフィルタを配置することが好ましい。このようにGフィルタの一部をEフィルタで置き換えた4色のカラーフィルタ配列を用いることで、輝度の高域成分の再現を向上させ、ジャギネスを低減させるとともに、解像度感の向上を可能とすることができる。
 図15は、Rフィルタ、Gフィルタ、Bフィルタ及びEフィルタを有する各フォトダイオードの分光感度特性の一例を示すグラフである。
 カラーフィルタ配列(受光素子)の分光感度特性を示す図15において、Eフィルタの透過率のピーク(E画素の感度のピーク)は波長480nm以上570nm以下の範囲内にある。また、Eフィルタの透過率は波長500nm以上560nm以下の範囲内で、RBフィルタの透過率よりも高くなる。このため、Eフィルタは前述の条件(2)、(3)を満たしている。また、カラーフィルタ配列では、RGBの3原色のうち最も輝度信号に寄与するG色に対応するGフィルタの一部をEフィルタに置き換えているので、前述の条件(4)も満たしている。
 尚、図15に示した分光特性では、EフィルタがGフィルタよりも短波長側にピークを持つが、Gフィルタよりも長波長側にピークを持つ(少し黄色よりの色に見える)場合もある。このようにEフィルタとしては、本発明の各条件を満たすものを選択可能であり、例えば、条件(1)を満たすようなエメラルドフィルタEを選択することもできる。
 <他の色の種類>
 上述の各実施形態では、原色RGBのカラーフィルタで構成されるカラーフィルタ配列について説明したが、例えば原色RGBの補色であるC(シアン)、M(マゼンタ)、Y(イエロー)に、Gを加えた4色の補色系のカラーフィルタのカラーフィルタ配列にも本発明を適用することができる。この場合も上記条件(1)~(4)のいずれかを満たすカラーフィルタを本発明の第1のフィルタとし、他のカラーフィルタを第2のフィルタとする。
 第1のフィルタの位置において、第1のフィルタであるGフィルタの代わりに、又はGフィルタの一部をWフィルタ、G2フィルタ、Eフィルタに置き換えた撮像素子を使用する場合、位相差画素は、Wフィルタ、G2フィルタ、Eフィルタが配置される位置に配置してもよい。
 例えば、位相差画素が配置されるフィルタをWフィルタにすることにより、位相差画素を高感度にすることができる。
 また、撮像装置10の他の実施形態としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。
 <スマートフォンの構成>
 図16は、撮像装置10の他の実施形態であるスマートフォン500の外観を示すものである。図16に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。なお、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用したりすることもできる。
 図17は、図16に示すスマートフォン500の構成を示すブロック図である。図17に示すように、スマートフォンの主たる構成要素として、無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記憶部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。また、スマートフォン500の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部510は、主制御部501の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部520は、主制御部501の制御により、画像(静止画及び動画)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。生成された3D画像を鑑賞する場合には、表示パネル521は、3D表示パネルであることが好ましい。
 表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。
 図16に示すように、スマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。この配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力したり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力するものである。また、図16に示すように、例えば、スピーカ531を表示入力部520が設けられた面と同じ面に搭載し、マイクロホン532を筐体502の側面に搭載することができる。
 操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図16に示すように、操作部540は、スマートフォン500の筐体502の表示部の下部、下側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部550は、主制御部501の制御プログラムや制御データ、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552により構成される。なお、記憶部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達することや、スマートフォン500の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部570は、主制御部501の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン500の緯度、経度、高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部580は、例えば、3軸の加速度センサなどを備え、主制御部501の指示にしたがって、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。
 電源部590は、主制御部501の指示にしたがって、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部501は、マイクロプロセッサを備え、記憶部550が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部550が記憶するアプリケーションソフトウェアにしたがって主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能、本発明に係る2D画像から3D画像を生成する機能などがある。
 また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。
 更に、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。
 表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定し、操作パネル522の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部541は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラであり、図3のブロック図に示した機能と同等の機能を備えている。ここで、カメラ部541における撮像素子のカラーフィルタ配列、位相差画素の配列等は撮像装置10と同様の態様を用いることができ、そのようなカラーフィルタ配列の下での画像処理・制御処理(間引き読み出しや位相差検出、焦点調節等)も撮像装置10について上述したのと同様におこなうことができる。また、カメラ部541は、主制御部501の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部550に記録したり、外部入出力部560や無線通信部510を通じて出力したりすることができる。図16に示すにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、あるいは、複数のカメラ部541が搭載されてもよい。なお、複数のカメラ部541が搭載されている場合には、撮影に供するカメラ部541を切り替えて単独にて撮影したり、あるいは、複数のカメラ部541を同時に使用して撮影したりすることもできる。
 また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。更には、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。
 上述のスマートフォン500の実施形態において、カメラ部541の撮像素子に設けられるカラーフィルタに対して、上述の本発明を適用することが可能であり、各種の色フィルタを所定のパターンで配置したカラーフィルタをカメラ部541に配設することができる。なお、動画生成時等における画像データの間引き(抽出)読み出しは、例えば、操作部540からの操作指示信号に応じて主制御部501によって実現可能となっている。
 上述した構成のスマートフォン500によれば、撮像装置10と同様に動画の撮影中に精度よく位相差AFを行うことができ、かつ位相差画素による撮影画像の画質の低下を防止し、又は軽減することができる。
 [その他]
 本発明の実施形態では、動画撮影時に撮像素子から間引きパターンにしたがって直接画素信号を間引き読出しするようにしたが、これに限らず、撮像素子から全画素の画像を読み出しし、読み出した画像から間引きパターンにしたがって画素信号を抽出し、位相差画素を含む所定のカラー配列のカラー画像を取得するようにしてもよい。この場合でも同時化処理を含む信号処理の対象画像の画像サイズを小さくすることができるため、動画の処理時間の短縮化を図ることができる。尚、間引きパターンにしたがった画素信号を抽出する方法としては、周辺の複数の同色画素の出力信号を加算または混合する画素混合処理により、間引きパターンにしたがった画素信号を抽出するようにしても良い。特に、撮像素子において読み出した直後に画素混合処理を行うことで動画の処理時間をより短縮することが可能である。
 また、本発明が適用される撮像素子のカラーフィルタ配列は、図10~12に示した例に限らず、例えば、図10に示した基本配列パターンP内の3×3画素のA配列又はB配列のみ、又は図11に示した基本配列パターンP内の3×3画素のB配列のみが水平方向及び垂直方向に繰り返し配置されたカラーフィルタ配列を有するものでもよい。要は、M×N画素(M、N:3以上の整数)の基本配列パターンが繰り返し配置されたカラーフィルタ配列であり、第1の色(この実施形態では、Gフィルタ、Wフィルタ、G1フィルタ、G2フィルタ、Eフィルタ)に対応する第1のフィルタ及び第2の色(この実施形態では、Rフィルタ、Bフィルタ)に対応する第2のフィルタが、基本配列パターン内の第1の方向及び第2の方向の各ライン内にそれぞれ1以上配置されるものであればよい。尚、基本配列パターンのサイズ(M×N画素)は、他の画素数に対応する配列パターンで配列させてもよいが、基本配列パターンの画素数が増加すると同時化等の信号処理が複雑化するのに対し、基本配列パターンのサイズを大きくすることによる格別な効果が得られない。したがって、信号処理の複雑化を防止する観点からは、基本配列パターンのサイズは大きすぎない10×10画素以下が好ましく、6×6画素以下がより好ましく、最小の基本配列パターンは3×3画素にすることが好ましい。また、第2の色に対応するフィルタは、Rフィルタ、Bフィルタ以外の色のフィルタを含んでいてもよい。
 また、上述の実施形態では、第1の位相差画素p1と第2の位相差画素p2との画素間隔が4、位相差画素の繰り返し周期が12、抽出画素周期(垂直方向の読み出し周期)が4の場合について説明したが、これらの周期は特に限定されない。「第1の位相差画素p1と第2の位相差画素p2との間の垂直方向に関する画素数t1と、抽出画素周期の垂直方向に関する対応画素数t2とが、t1=t2×I(Iは、1以上の整数)を満たし」、「第1の位相差画素p1及び第2の位相差画素p2の垂直方向に関する繰り返し周期に対応する画素数が、抽出画素周期の垂直方向に関する対応画素数と基本配列パターンの垂直方向の画素数との公倍数(好ましくは最小公倍数)」であればよい。
 また、原色RGBの補色であるC(シアン)、M(マゼンタ)、Y(イエロー)の補色系のカラーフィルタや、補色系のカラーフィルタに更に他の色のフィルタが追加されたカラーフィルタ配列を有する撮像素子にも本発明は適用できる。
 更に、位相差画素の配置位置は特に限定されず、動画撮影時に間引き読み出しされるライン上に配置されていればよい。
 また、本発明に適用される撮像素子としては、図4等に示したように複数の画素及びカラーフィルタが水平方向及び垂直方向に正方格子状に配列されたものに限らず、斜め格子状に配列されたもの(具体的には、図10等に示したカラーフィルタ配列を45°回転したもの)であってもよい。この場合、基本配列パターンも斜め格子状の配列パターンになる。
 本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
 10…撮像装置、12…撮影レンズ、14…絞り、15…メカシャッタ、16…撮像素子、24…デジタル信号処理部、30…液晶モニタ、32…センサ駆動部、33…シャッタ駆動部、34…絞り駆動部、36…レンズ駆動部、40…中央処理装置(CPU)、42…AF処理部、47…ROM(EEPROM)、48…メモリ、500…スマートフォン

Claims (25)

  1.  撮影レンズと、
     第1の方向及び当該第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、前記撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子と、
     前記撮像素子から、間引きパターンにしたがって前記複数の画素から画素信号を間引き読み出しし、又は前記撮像素子から読み出した前記所定のカラーフィルタ配列に対応するカラー画像から前記間引きパターンにしたがって前記複数の画素から画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得手段と、
     前記間引かれたカラー画像に基づいて動画データを生成する動画生成手段と、
     前記間引かれたカラー画像中に含まれる前記第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出手段と、
     前記位相差検出手段により検出された位相差に基づいて前記撮影レンズの焦点位置を調節する焦点調節手段と、を備え、
     前記所定のカラーフィルタ配列は、1色以上の第1の色に対応する第1のフィルタと、輝度信号を得るための寄与率が前記第1の色よりも低い2色以上の第2の色に対応する第2のフィルタとを有し、前記第1のフィルタと前記第2のフィルタとが配列された基本配列パターンを含み、当該基本配列パターンが前記第1の方向及び前記第2の方向に繰り返されて配置され、
     前記複数の画素のうち前記カラー画像取得手段により間引き読み出し又は抽出される前記画素信号に対応する画素から成る抽出画素群は、前記第1の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第2の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まず前記第1の方向に延在する画素ラインとを周期的に有する撮像装置。
  2.  撮影レンズと、
     第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、前記撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子と、
     前記撮像素子から、間引きパターンにしたがって前記複数の画素から画素信号を間引き読み出しし、又は前記撮像素子から読み出した前記所定のカラーフィルタ配列に対応するカラー画像から前記間引きパターンにしたがって前記複数の画素から画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得手段と、
     前記間引かれたカラー画像に基づいて動画データを生成する動画生成手段と、
     前記間引かれたカラー画像中に含まれる前記第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出手段と、
     前記位相差検出手段により検出された位相差に基づいて前記撮影レンズの焦点位置を調節する焦点調節手段と、を備え、
     前記所定のカラーフィルタ配列は、透過率のピークが波長480nm以上570nm以下の範囲内にある1色以上の第1の色に対応する第1のフィルタと、透過率のピークが前記範囲外にある2色以上の第2の色に対応する第2のフィルタとを有し、前記第1のフィルタと前記第2のフィルタとが配列された基本配列パターンを含み、当該基本配列パターンが前記第1の方向及び前記第2の方向に繰り返されて配置され、
     前記複数の画素のうち前記カラー画像取得手段により間引き読み出し又は抽出される前記画素信号に対応する画素から成る抽出画素群は、前記第1の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第2の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まず前記第1の方向に延在する画素ラインとを周期的に有する撮像装置。
  3.  撮影レンズと、
     第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、前記撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子と、
     前記撮像素子から、間引きパターンにしたがって前記複数の画素から画素信号を間引き読み出しし、又は前記撮像素子から読み出した前記所定のカラーフィルタ配列に対応するカラー画像から前記間引きパターンにしたがって前記複数の画素から画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得手段と、
     前記間引かれたカラー画像に基づいて動画データを生成する動画生成手段と、
     前記間引かれたカラー画像中に含まれる前記第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出手段と、
     前記位相差検出手段により検出された位相差に基づいて前記撮影レンズの焦点位置を調節する焦点調節手段と、を備え、
     前記所定のカラーフィルタ配列は、1色以上の第1の色に対応する第1のフィルタと、波長500nm以上560nm以下の範囲内で透過率が前記第1のフィルタよりも低くなる2色以上の第2の色に対応する第2のフィルタとを有し、前記第1のフィルタと前記第2のフィルタとが配列された基本配列パターンを含み、当該基本配列パターンが前記第1の方向及び前記第2の方向に繰り返されて配置され、
     前記複数の画素のうち前記カラー画像取得手段により間引き読み出し又は抽出される前記画素信号に対応する画素から成る抽出画素群は、前記第1の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第2の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まず前記第1の方向に延在する画素ラインとを周期的に有する撮像装置。
  4.  撮影レンズと、
     第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、前記撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子と、
     前記撮像素子から、間引きパターンにしたがって前記複数の画素から画素信号を間引き読み出しし、又は前記撮像素子から読み出した前記所定のカラーフィルタ配列に対応するカラー画像から前記間引きパターンにしたがって前記複数の画素から画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得手段と、
     前記間引かれたカラー画像に基づいて動画データを生成する動画生成手段と、
     前記間引かれたカラー画像中に含まれる前記第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出手段と、
     前記位相差検出手段により検出された位相差に基づいて前記撮影レンズの焦点位置を調節する焦点調節手段と、を備え、
     前記所定のカラーフィルタ配列は、3原色のうち最も輝度信号に寄与する色と前記3原色とは異なる色の第4色とを含む2色以上の第1の色に対応する第1のフィルタと、前記第1の色以外の2色以上の第2の色に対応する第2のフィルタとを有し、前記第1のフィルタと前記第2のフィルタとが配列された基本配列パターンを含み、当該基本配列パターンが前記第1の方向及び前記第2の方向に繰り返されて配置され、
     前記複数の画素のうち前記カラー画像取得手段により間引き読み出し又は抽出される前記画素信号に対応する画素から成る抽出画素群は、前記第1の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第2の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まず前記第1の方向に延在する画素ラインとを周期的に有する撮像装置。
  5.  前記間引かれたカラー画像は、前記第1、第2の位相差画素に隣接して該第1、第2の位相差画素の位置における画素の色と同じ色の画素が配置され、
     前記間引かれたカラー画像中の第1、第2の位相差画素の位置における画素の画素値を、前記第1、第2の位相差画素に隣接する同じ色の画素を含む周辺画素の画素値を補間して算出する補間演算手段を備え、
     前記動画生成手段は、前記間引かれたカラー画像中の前記第1、第2の位相差画素の位置における画素の画素値として前記補間演算手段により算出された値を使用したカラー画像に基づいて前記動画データを生成する請求項1から4のいずれか1項に記載の撮像装置。
  6.  前記間引きパターンは、前記画素信号の間引き読み出し又は抽出に関する前記第2の方向の周期を規定する抽出画素周期を有し、
     前記第1の位相差画素と前記第2の位相差画素との間の前記第2の方向に関する画素数t1と、前記抽出画素周期の前記第2の方向に関する対応画素数t2とは、t1=t2×I(Iは、1以上の整数)を満たす請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記間引きパターンは、前記画素信号の間引き読み出し又は抽出に関する前記第2の方向の周期を規定する抽出画素周期を有し、
     前記第1の位相差画素及び前記第2の位相差画素の前記第2の方向に関する繰り返し周期に対応する画素数は、前記抽出画素周期の前記第2の方向に関する対応画素数と前記基本配列パターンの前記第2の方向の画素数との公倍数である請求項1から6のいずれか1項に記載の撮像装置。
  8.  前記第1の位相差画素と前記第2の位相差画素との間の前記第2の方向に関する画素数は、前記基本配列パターンの前記第2の方向の画素数とは異なる請求項1から7のいずれか1項に記載の撮像装置。
  9.  前記抽出画素群は、前記第1のフィルタ及び前記第2のフィルタの配列パターンに関し、前記基本配列パターンと同じ配列パターンを有する請求項1から8のいずれか1項に記載の撮像装置。
  10.  前記カラーフィルタ配列において、前記第1のフィルタに対応する第1の色の全画素数の比率は、前記第2のフィルタに対応する第2の色の各色の画素数の比率よりも大きく、
     前記第1、第2の位相差画素は、前記第1のフィルタの位置に配置される請求項1から9のいずれか1項に記載の撮像装置。
  11.  前記第1のフィルタは、M×N画素(M、N:3以上の整数)内に複数配置され、該M×N画素が前記第1、第2の方向に繰り返し配置される請求項1から10のいずれか1項に記載の撮像装置。
  12.  前記第1、第2の位相差画素のうちの一方の位相差画素が、前記M×N画素内に1又は2つ配置される請求項11に記載の撮像装置。
  13.  前記第1、第2の位相差画素は、前記第2の方向に一対となって配置される請求項1から12のいずれか1項に記載の撮像装置。
  14.  前記第1、第2の位相差画素は、前記第1の方向に延在する1画素ライン上に交互に配置される請求項1から13のいずれか1項に記載の撮像装置。
  15.  前記第1の位相差画素及び前記第2の位相差画素には前記第1のフィルタが配置され、
     前記抽出画素群のうち前記第1の位相差画素及び前記第2の位相差画素のいずれも含まない前記画素ラインは前記第1のフィルタに対応する画素を含む請求項1から14のいずれか1項に記載の撮像装置。
  16. 前記抽出画素群において、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まない前記画素ラインの前記第1のフィルタに対応する画素は、前記第1の位相差画素又は前記第2の位相差画素に隣接する位置に配置される請求項15に記載の撮像装置。
  17.  前記基本配列パターンは、前記カラーフィルタが前記第1の方向及び前記第2の方向にM×M(Mは3以上の整数)画素に対応する配列パターンで配列されてなり、
     前記第1の位相差画素が配置される前記基本配列パターンと、前記第2の位相差画素が配置される前記基本配列パターンと、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まない少なくとも1つの前記基本配列パターンとが前記第2の方向に並置される請求項1から16のいずれか1項に記載の撮像装置。
  18.  前記基本配列パターンは、前記カラーフィルタが前記第1の方向及び前記第2の方向にM×N(Mは3以上の整数、Nは6以上の偶数)画素に対応する配列パターンで配列されてなり、
     前記基本配列パターンは、前記カラーフィルタがM×(N/2)画素に対応する配列パターンで配列された2種類のサブ配列である第1のサブ配列及び第2のサブ配列をそれぞれ1つずつ含み、
     前記第1のサブ配列及び前記第2のサブ配列の各々において、前記第1のフィルタ及び前記第2の色の各色に対応する前記第2のフィルタの各々が少なくとも1画素分配置され、
     前記第1の位相差画素及び前記第2の位相差画素を含む前記基本配列パターンと、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まない前記基本配列パターンとが前記第2の方向に並置され、
     前記第1の位相差画素は前記第1のサブ配列に配置され、前記第2の位相差画素は前記第2のサブ配列に配置される請求項1から16のいずれか1項に記載の撮像装置。
  19.  前記基本配列パターンは、前記カラーフィルタが前記第1の方向及び前記第2の方向にM×M(Mは6以上の偶数)画素に対応する配列パターンで配列されてなり、
     前記基本配列パターンは、前記カラーフィルタが(M/2)×(M/2)画素に対応する配列パターンで配列された2種類のサブ配列である第1のサブ配列及び第2のサブ配列をそれぞれ2つずつ含み、
     前記第1のサブ配列及び前記第2のサブ配列の各々において、前記第1のフィルタ及び前記第2の色の各色に対応する前記第2のフィルタの各々が少なくとも1画素分配置され、
     前記第1の位相差画素を含む前記第1のサブ配列と、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まない前記第2のサブ配列と、前記第2の位相差画素を含む前記第1のサブ配列と、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まない前記第2のサブ配列とが前記第2の方向に並置される請求項1から16のいずれか1項に記載の撮像装置。
  20.  前記第1の色は緑(G)色であり、前記第2の色は赤(R)色及び青(B)色であり、前記第1のフィルタはGフィルタであり、前記第2のフィルタはRフィルタ及びBフィルタであり、
     前記基本配列パターンは、前記カラーフィルタが前記第1の方向及び前記第2の方向に6×6画素に対応する配列パターンで配列されてなり、前記第1のサブ配列及び前記第2のサブ配列は前記第1の方向及び前記第2の方向に3×3画素に対応する配列パターンで配列されてなり、
     前記第1のサブ配列は、前記基本配列パターンの一方の対角線方向に並置され、前記第2のサブ配列は、前記基本配列パターンの他方の対角線方向に並置され、
     前記Gフィルタは、前記第1のサブ配列及び前記第2のサブ配列の各々の中央画素及び4隅の画素に配置され、
     前記Rフィルタは、前記第1のサブ配列における前記中央画素に対し前記第2の方向に隣接する画素、及び前記第2のサブ配列における前記中央画素に対し前記第1の方向に隣接する画素に配置され、
     前記Bフィルタは、前記第1のサブ配列における前記中央画素に対し前記第1の方向に隣接する画素、及び前記第2のサブ配列における前記中央画素に対し前記第2の方向に隣接する画素に配置され、
     前記第1の位相差画素及び前記第2の位相差画素には前記Gフィルタが配置される請求項19に記載の撮像装置。
  21.  前記第1、第2の位相差画素には、透明フィルタを有する画素を使用する請求項1から19のいずれか1項に記載の撮像装置。
  22.  撮影レンズと、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、前記撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子と、
     を備えた撮像装置における画像処理方法であって、
     前記撮像素子から、間引きパターンにしたがって前記複数の画素から画素信号を間引き読み出しし、又は前記撮像素子から読み出した前記所定のカラーフィルタ配列に対応するカラー画像から前記間引きパターンにしたがって画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得工程と、
     前記間引かれたカラー画像に基づいて動画データを生成する動画生成工程と、
     前記間引かれたカラー画像中に含まれる前記第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出工程と、
     前記位相差検出工程により検出された位相差に基づいて前記撮影レンズの焦点位置を調節する焦点調節工程であって、前記動画生成工程による前記動画データの生成と並行して前記撮影レンズの焦点位置を調節する焦点調節工程と、を含み、
     前記所定のカラーフィルタ配列は、1色以上の第1の色に対応する第1のフィルタと、輝度信号を得るための寄与率が前記第1の色よりも低い2色以上の第2の色に対応する第2のフィルタとを有し、前記第1のフィルタと前記第2のフィルタとが配列された基本配列パターンを含み、当該基本配列パターンが前記第1の方向及び前記第2の方向に繰り返されて配置され、
     前記複数の画素のうち前記カラー画像取得工程で間引き読み出し又は抽出される前記画素信号に対応する画素から成る抽出画素群は、前記第1の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第2の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まず前記第1の方向に延在する画素ラインとを周期的に有する画像処理方法。
  23.  撮影レンズと、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、前記撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子と、
     を備えた撮像装置における画像処理方法であって、

     前記撮像素子から、間引きパターンにしたがって前記複数の画素から画素信号を間引き読み出しし、又は前記撮像素子から読み出した前記所定のカラーフィルタ配列に対応するカラー画像から前記間引きパターンにしたがって画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得工程と、
     前記間引かれたカラー画像に基づいて動画データを生成する動画生成工程と、
     前記間引かれたカラー画像中に含まれる前記第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出工程と、
     前記位相差検出工程により検出された位相差に基づいて前記撮影レンズの焦点位置を調節する焦点調節工程であって、前記動画生成工程による前記動画データの生成と並行して前記撮影レンズの焦点位置を調節する焦点調節工程と、を含み、
     前記所定のカラーフィルタ配列は、透過率のピークが波長480nm以上570nm以下の範囲内にある1色以上の第1の色に対応する第1のフィルタと、透過率のピークが前記範囲外にある2色以上の第2の色に対応する第2のフィルタとを有し、前記第1のフィルタと前記第2のフィルタとが配列された基本配列パターンを含み、当該基本配列パターンが前記第1の方向及び前記第2の方向に繰り返されて配置され、
     前記複数の画素のうち前記カラー画像取得工程で間引き読み出し又は抽出される前記画素信号に対応する画素から成る抽出画素群は、前記第1の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第2の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まず前記第1の方向に延在する画素ラインとを周期的に有する画像処理方法。
  24.  撮影レンズと、第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、前記撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子と、
     を備えた撮像装置における画像処理方法であって、
     前記撮像素子から、間引きパターンにしたがって前記複数の画素から画素信号を間引き読み出しし、又は前記撮像素子から読み出した前記所定のカラーフィルタ配列に対応するカラー画像から前記間引きパターンにしたがって画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得工程と、
     前記間引かれたカラー画像に基づいて動画データを生成する動画生成工程と、
     前記間引かれたカラー画像中に含まれる前記第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出工程と、
     前記位相差検出工程により検出された位相差に基づいて前記撮影レンズの焦点位置を調節する焦点調節工程であって、前記動画生成工程による前記動画データの生成と並行して前記撮影レンズの焦点位置を調節する焦点調節工程と、を含み、
     前記所定のカラーフィルタ配列は、1色以上の第1の色に対応する第1のフィルタと、波長500nm以上560nm以下の範囲内で透過率が前記第1のフィルタよりも低くなる2色以上の第2の色に対応する第2のフィルタとを有し、前記第1のフィルタと前記第2のフィルタとが配列された基本配列パターンを含み、当該基本配列パターンが前記第1の方向及び前記第2の方向に繰り返されて配置され、
     前記複数の画素のうち前記カラー画像取得工程で間引き読み出し又は抽出される前記画素信号に対応する画素から成る抽出画素群は、前記第1の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第2の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まず前記第1の方向に延在する画素ラインとを周期的に有する画像処理方法。
  25.  撮影レンズと、
     第1の方向及び第1の方向に垂直な第2の方向に配列された光電変換素子で構成される複数の画素上に、所定のカラーフィルタ配列のカラーフィルタが配設されてなる撮像素子であって、前記撮影レンズの異なる第1、第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1、第2の位相差画素を含む撮像素子と、
     を備えた撮像装置における画像処理方法であって、
     前記撮像素子から、間引きパターンにしたがって前記複数の画素から画素信号を間引き読み出しし、又は前記撮像素子から読み出した前記カラーフィルタ配列に対応するカラー画像から前記間引きパターンにしたがって画素信号を抽出して、間引かれたカラー画像を取得するカラー画像取得工程と、
     前記間引かれたカラー画像に基づいて動画データを生成する動画生成工程と、
     前記間引かれたカラー画像中に含まれる前記第1、第2の位相差画素に対応する各出力信号に基づいて各出力信号の位相差を検出する位相差検出工程と、
     前記位相差検出工程により検出された位相差に基づいて前記撮影レンズの焦点位置を調節する焦点調節工程であって、前記動画生成工程による前記動画データの生成と並行して前記撮影レンズの焦点位置を調節する焦点調節工程と、を含み、
     前記所定のカラーフィルタ配列は、3原色のうち最も輝度信号に寄与する色と前記3原色とは異なる色の第4色とを含む2色以上の第1の色に対応する第1のフィルタと、前記第1の色以外の2色以上の第2の色に対応する第2のフィルタとを有し、前記第1のフィルタと前記第2のフィルタとが配列された基本配列パターンを含み、当該基本配列パターンが前記第1の方向及び前記第2の方向に繰り返されて配置され、
     前記複数の画素のうち前記カラー画像取得工程で間引き読み出し又は抽出される前記画素信号に対応する画素から成る抽出画素群は、前記第1の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第2の位相差画素を含む前記第1の方向に延在する画素ラインと、前記第1の位相差画素及び前記第2の位相差画素のいずれも含まず前記第1の方向に延在する画素ラインとを周期的に有する画像処理方法。
PCT/JP2012/084089 2012-07-06 2012-12-28 撮像装置及び画像処理方法 WO2014006785A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014523552A JP5749403B2 (ja) 2012-07-06 2012-12-28 撮像装置及び画像処理方法
US14/589,514 US9172927B2 (en) 2012-07-06 2015-01-05 Imaging device, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012152818 2012-07-06
JP2012-152818 2012-07-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/589,514 Continuation US9172927B2 (en) 2012-07-06 2015-01-05 Imaging device, and image processing method

Publications (1)

Publication Number Publication Date
WO2014006785A1 true WO2014006785A1 (ja) 2014-01-09

Family

ID=49881563

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/084089 WO2014006785A1 (ja) 2012-07-06 2012-12-28 撮像装置及び画像処理方法

Country Status (3)

Country Link
US (1) US9172927B2 (ja)
JP (1) JP5749403B2 (ja)
WO (1) WO2014006785A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002274A1 (ja) * 2014-07-02 2016-01-07 オリンパス株式会社 撮像装置、画像処理方法、及び画像処理プログラム
US9939140B2 (en) 2014-09-28 2018-04-10 Jiaxing Super Lighting Electric Appliance Co., Ltd. LED tube lamp
JPWO2019021626A1 (ja) * 2017-07-24 2020-05-28 ソニー株式会社 撮像装置、および画像処理方法、並びにプログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104396227B (zh) * 2012-06-01 2016-10-12 富士胶片株式会社 摄像装置
WO2014006784A1 (ja) * 2012-07-06 2014-01-09 富士フイルム株式会社 撮像装置及び画像処理方法
DE112013005142T5 (de) * 2012-10-26 2015-08-06 Fujifilm Corporation Bildaufnahmevorrichtung und zugehöriges Fokussiersteuerverfahren
US9185377B1 (en) * 2014-06-26 2015-11-10 Himax Imaging Limited Color processing system and apparatus
US10070088B2 (en) * 2015-01-05 2018-09-04 Canon Kabushiki Kaisha Image sensor and image capturing apparatus for simultaneously performing focus detection and image generation
JP6218799B2 (ja) 2015-01-05 2017-10-25 キヤノン株式会社 撮像素子及び撮像装置
JP6355595B2 (ja) * 2015-06-02 2018-07-11 キヤノン株式会社 撮像素子、撮像装置、撮像素子の制御方法、プログラムおよび記憶媒体
DE112016004211T5 (de) 2015-09-16 2018-06-14 Canon Kabushiki Kaisha Bildsensor und Bildaufnahmevorrichtung
GB2596030B (en) 2015-09-16 2022-04-20 Canon Kk Image sensor and image capturing apparatus
US10044959B2 (en) * 2015-09-24 2018-08-07 Qualcomm Incorporated Mask-less phase detection autofocus
JP6765859B2 (ja) * 2016-05-31 2020-10-07 キヤノン株式会社 撮像装置、およびその制御方法
JP6364698B2 (ja) * 2016-09-30 2018-08-01 三菱重工機械システム株式会社 合焦位置調整装置、合焦位置調整システム、プログラム、および合焦位置調整方法
US10044926B2 (en) * 2016-11-04 2018-08-07 Qualcomm Incorporated Optimized phase detection autofocus (PDAF) processing
JP2019012968A (ja) 2017-06-30 2019-01-24 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、及び電子機器
KR20210144429A (ko) * 2020-05-22 2021-11-30 에스케이하이닉스 주식회사 이미지 센싱 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010181751A (ja) * 2009-02-06 2010-08-19 Canon Inc 自動焦点検出装置
JP2010258110A (ja) * 2009-04-22 2010-11-11 Panasonic Corp 固体撮像素子
JP2012032723A (ja) * 2010-08-03 2012-02-16 Sony Corp 撮像装置、撮像素子、撮像方法およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2739586B2 (ja) 1989-02-10 1998-04-15 富士写真フイルム株式会社 カラー固体撮像デバイス
DE19616440A1 (de) 1996-04-25 1997-10-30 Eastman Kodak Co Verfahren und Vorrichtung zur Gewinnung eines vollen Farbbildes oder Multispektralbildes aus Bilddaten eines CCD-Bildsensors mit Mosaik-Farbfilter
JP5151075B2 (ja) 2005-06-21 2013-02-27 ソニー株式会社 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
JP5029268B2 (ja) 2007-10-01 2012-09-19 株式会社ニコン 電子カメラ
US7745779B2 (en) 2008-02-08 2010-06-29 Aptina Imaging Corporation Color pixel arrays having common color filters for multiple adjacent pixels for use in CMOS imagers
JP2012182332A (ja) * 2011-03-02 2012-09-20 Sony Corp 撮像素子および撮像装置
JP5853594B2 (ja) * 2011-10-31 2016-02-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
WO2014010672A1 (ja) * 2012-07-12 2014-01-16 オリンパス株式会社 撮像装置及びプログラム
JP6263035B2 (ja) * 2013-05-17 2018-01-17 キヤノン株式会社 撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010181751A (ja) * 2009-02-06 2010-08-19 Canon Inc 自動焦点検出装置
JP2010258110A (ja) * 2009-04-22 2010-11-11 Panasonic Corp 固体撮像素子
JP2012032723A (ja) * 2010-08-03 2012-02-16 Sony Corp 撮像装置、撮像素子、撮像方法およびプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002274A1 (ja) * 2014-07-02 2016-01-07 オリンパス株式会社 撮像装置、画像処理方法、及び画像処理プログラム
JP2016015634A (ja) * 2014-07-02 2016-01-28 オリンパス株式会社 撮像装置、画像処理方法、及び画像処理プログラム
CN105745923B (zh) * 2014-07-02 2017-06-30 奥林巴斯株式会社 摄像装置及图像处理方法
US9749520B2 (en) 2014-07-02 2017-08-29 Olympus Corporation Imaging device and image processing method
US9939140B2 (en) 2014-09-28 2018-04-10 Jiaxing Super Lighting Electric Appliance Co., Ltd. LED tube lamp
JPWO2019021626A1 (ja) * 2017-07-24 2020-05-28 ソニー株式会社 撮像装置、および画像処理方法、並びにプログラム
JP7176518B2 (ja) 2017-07-24 2022-11-22 ソニーグループ株式会社 撮像装置、および画像処理方法、並びにプログラム

Also Published As

Publication number Publication date
JP5749403B2 (ja) 2015-07-15
US9172927B2 (en) 2015-10-27
US20150124129A1 (en) 2015-05-07
JPWO2014006785A1 (ja) 2016-06-02

Similar Documents

Publication Publication Date Title
JP5749403B2 (ja) 撮像装置及び画像処理方法
JP5740054B2 (ja) 撮像装置及び画像処理方法
WO2014006783A1 (ja) 撮像装置及び画像処理方法
JP5697801B2 (ja) 撮像装置及び自動焦点調節方法
JP5542249B2 (ja) 撮像素子及びこれを用いた撮像装置及び撮像方法
JP5755814B2 (ja) 画像処理装置、方法、プログラム及び撮像装置
JP5753321B2 (ja) 撮像装置及び合焦確認表示方法
WO2014046037A1 (ja) 撮像装置及びその制御方法
JP6651672B2 (ja) 撮像装置
WO2014083914A1 (ja) 撮像装置及び合焦制御方法
JP5926391B2 (ja) 撮像装置及び合焦確認表示方法
JP7060634B2 (ja) 撮像装置及び画像処理方法
WO2013145821A1 (ja) 撮像素子及び撮像装置
JP5740053B6 (ja) 撮像装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12880443

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014523552

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12880443

Country of ref document: EP

Kind code of ref document: A1