WO2014087808A1 - 画像処理装置、画像処理方法及びプログラム、並びに記録媒体 - Google Patents

画像処理装置、画像処理方法及びプログラム、並びに記録媒体 Download PDF

Info

Publication number
WO2014087808A1
WO2014087808A1 PCT/JP2013/080411 JP2013080411W WO2014087808A1 WO 2014087808 A1 WO2014087808 A1 WO 2014087808A1 JP 2013080411 W JP2013080411 W JP 2013080411W WO 2014087808 A1 WO2014087808 A1 WO 2014087808A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
color
pixels
correction
filter
Prior art date
Application number
PCT/JP2013/080411
Other languages
English (en)
French (fr)
Inventor
林 健吉
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2014551011A priority Critical patent/JP5778873B2/ja
Priority to CN201380063609.7A priority patent/CN104838646B/zh
Publication of WO2014087808A1 publication Critical patent/WO2014087808A1/ja
Priority to US14/729,872 priority patent/US9369686B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels

Definitions

  • the present invention relates to an image processing apparatus, an image processing method and a program, and a recording medium, and more particularly to a technique for performing color mixture correction according to the presence or absence of abnormal oblique incident light.
  • RGB color signal having a large influence of color mixture is digitally processed to generate an image, the color reproducibility (image quality) of the image is deteriorated, and the RGB color signal having a large influence of color mixture is used for white balance (WB) correction. It is difficult to accurately calculate the WB gain.
  • the abnormally oblique incident light Especially when the angle of the abnormal oblique incident light is large, at least a part of the abnormal oblique incident light enters the photodiode of the pixel adjacent to the passing color filter.
  • the abnormally oblique incident light causes a so-called color mixing phenomenon, and the color reproducibility of the photographed image is reduced. It causes deterioration.
  • Patent Document 1 discloses an imaging apparatus that suppresses the occurrence of color noise associated with a ghost.
  • the occurrence of color noise associated with a ghost is detected using RAW data, and the luminance level value of pixel data where the occurrence of color noise is detected is corrected.
  • Patent Document 2 discloses an imaging apparatus that improves the accuracy of color mixture correction processing for each pixel.
  • color mixture characteristic information indicating characteristics relating to signal components mixed from surrounding pixels is stored in the correction target pixel, and a correction coefficient is obtained according to the position of the correction target pixel in the pixel array and the color mixture characteristic information.
  • the signal read from the correction target pixel is corrected.
  • a color filter array is configured by repeatedly arranging pixels in the horizontal direction and the vertical direction.
  • the color mixing phenomenon is relatively simple, and therefore it is possible to reduce the influence of color mixing on the image data by relatively simple color mixing correction.
  • an image sensor having a relatively complicated color filter array has been used, and even if pixels having the same color filter are used, the types of adjacent pixels (color filters) are different.
  • a pixel having a green color filter (G pixel) is classified into two types according to the adjacent pixel type (color filter type) in the Bayer array, but very many types (for example, 10 or more types) in a complex color filter array. )are categorized.
  • the color mixing phenomenon is also complicated, and even in the case of close-same color pixels that output pixel data that is essentially the same or approximate, depending on the color filter type of the adjacent pixel due to the color mixing phenomenon Different pixel data may be output from adjacent pixels of the same color.
  • image data output from an image sensor having a basic array pattern constituted by the number of pixels equal to or greater than “3 pixels (horizontal direction) ⁇ 3 pixels (vertical direction)” with respect to the color filter array is compatible with normal color mixture correction. Sometimes you can't.
  • the present invention has been made in view of the above-described circumstances, and for pixel data of a pixel to which abnormal oblique incident light such as ghost light is incident, a step of pixel data between pixels of the same color caused by the abnormal oblique incident light. It is an object of the present invention to provide a technique for obtaining high-quality image data by correcting color mixture due to pixel characteristics for pixel data of pixels in which abnormal oblique incident light is not incident. .
  • One embodiment of the present invention is an abnormal oblique detection for detecting the presence or absence of abnormal oblique incident light from image data output from an image sensor having a plurality of pixels that output pixel data corresponding to the amount of received light, including a color filter and a photodiode.
  • Incident light detection means first color mixture correction means for performing first color mixture correction on pixel data of a correction target pixel based on pixel data of pixels adjacent to the correction target pixel, and pixel data of peripheral pixels of the correction target pixel Based on the second color mixture correction means for performing the second color mixture correction on the pixel data of the correction target pixel, and the first color mixture correction means and the second color mixture according to the detection result of the abnormal oblique incident light detection means.
  • the color mixture correction determination means detects abnormal oblique incident light by the abnormal oblique incident light detection means. If not, the pixel data of the correction target pixel is corrected by the first color mixing correction unit, and when the abnormal oblique incident light is detected by the abnormal oblique incident light detection unit, the correction target is corrected by the second color mixing correction unit.
  • the present invention relates to an image processing apparatus that determines to correct pixel data of a pixel.
  • the first color mixture correction based on the pixel data of the adjacent pixel of the correction target pixel is performed on the pixel data of the correction target pixel, and the abnormal oblique incident light is detected.
  • the second color mixture correction based on the pixel data of the peripheral pixels of the correction target pixel is performed.
  • the present embodiment can be applied to an image pickup device having a particularly large array matrix size, and a step of the same color pixel generated by the influence of leakage of abnormal oblique incident light (ghost light or the like) to adjacent pixels. And image quality deterioration due to abnormal oblique incident light can be suppressed.
  • the “adjacent pixel of the correction target pixel” here is a pixel adjacent to the correction target pixel.
  • a pixel having a color filter adjacent to the color filter of the correction target pixel becomes “adjacent pixel of the correction target pixel”.
  • eight pixels surrounding the correction target pixel pixels adjacent to the correction target pixel with respect to the first direction, the second direction, and the direction having an angle with respect to the first direction and the second direction
  • the four pixels adjacent to the correction target pixel in the first direction and the second direction can be “adjacent pixels of the correction target pixel”.
  • the “peripheral pixel of the correction target pixel” is a pixel included in a predetermined range from the correction target pixel, and may or may not be adjacent to the correction target pixel. Therefore, the “peripheral pixels of the correction target pixel” is a concept that can include “adjacent pixels of the correction target pixel”. Further, the range from the correction target pixel serving as a reference for the “peripheral pixels of the correction target pixel” can be appropriately determined according to the specific content of the second color mixture correction.
  • the pixel data of the correction target pixel can be corrected based on the pixel data of all or a part of the adjacent pixels of the correction target pixel.
  • the peripheral pixels of the correction target pixel can be corrected.
  • the pixel data of the correction target pixel can be corrected based on all or part of the pixel data.
  • the color mixture when no obliquely incident light is incident is mainly due to light leakage from the adjacent pixels, it can be effectively corrected based on the pixel data of the adjacent pixels of the correction target pixel.
  • abnormally oblique incident light such as ghost light is incident on a range (a plurality of pixels) having a certain size in the image sensor. Therefore, the influence of color mixing caused by abnormally oblique incident light is influenced by the peripheral pixels of the correction target pixel. It can be effectively reduced by color mixture correction that comprehensively considers the pixel data.
  • abnormally oblique incident light refers to an unexpected optical element that is different from the normal light constituting the subject image, and light in which a color filter and a photodiode that pass through are not included in the same pixel. It is an element.
  • the abnormal oblique incident light may include, for example, an optical element that causes a phenomenon such as ghost or flare.
  • a ghost is caused by light (unnecessary light) that has reached the image plane through an optical path different from the optical path of the original imaging light (effective imaging light) through reflection on the lens surface or imaging device surface. This is a phenomenon of forming an optical image in which a certain shape is visually recognized.
  • first direction and the “second direction” are not particularly limited as long as they are perpendicular to each other (including substantially vertical).
  • the “horizontal direction” and the “vertical direction” with respect to the subject at the time of imaging by the imaging apparatus may be set as “first direction” and “second direction”, and these “horizontal direction” and “vertical direction” may be used.
  • a direction having an arbitrary angle with respect to the first direction may be referred to as a “first direction” and a “second direction”.
  • the second color mixture correcting unit performs the second color correction of the pixel data of the correction target pixel using four or more pixels having a color filter of the same color as the correction target pixel as peripheral pixels.
  • pixel data of a pixel having a color filter of the same color as the correction target pixel is used, and pixel data of four or more pixels is used. Therefore, highly accurate color mixture correction can be performed. Is possible.
  • the peripheral pixels are constituted by pixels having different types of color filters (adjacent pixel arrangement types) of pixels adjacent to the peripheral pixels.
  • the second color mixture correction is performed based on the pixel data of neighboring pixels having different types of color filters of adjacent pixels, and can flexibly cope with various types of color mixture caused by abnormal oblique incident light. Is possible.
  • the plurality of pixels of the image sensor is a basic array pattern of M pixels ⁇ N pixels (where M is an integer of 3 or more and N is an integer of 3 or more) in the first direction and the first direction.
  • a plurality of basic array patterns arranged in a vertical second direction, and peripheral pixels are pixels included in a range of M pixels ⁇ N pixels including a correction target pixel, and a color filter of the same color as the correction target pixel It is a pixel having.
  • the second color mixture correction can be performed in units of basic array patterns, and highly accurate color mixture correction can be performed efficiently.
  • the plurality of pixels of the image sensor is a basic array pattern of M pixels ⁇ N pixels (where M is an integer of 3 or more and N is an integer of 3 or more) in the first direction and the first direction.
  • a plurality of basic array patterns arranged in the second vertical direction, and the peripheral pixels are pixels that are included in a range larger than the range of M pixels ⁇ N pixels including the correction target pixel and have the same color as the correction target pixel This is a pixel having a color filter.
  • the second color mixture correction can be performed based on the pixel data of pixels included in a range larger than the basic array pattern, and the highly accurate color mixture correction can be performed based on a large amount of pixel data.
  • the second color mixture correction unit performs the second color mixture correction of the pixel data of the correction target pixel based on the representative value derived from the pixel data of the correction target pixel and the peripheral pixels.
  • the second color mixture correction process can be simplified based on the representative values derived from the pixel data of the correction target pixel and the peripheral pixels.
  • the representative value is an average value or a weighted average value of pixel data of the correction target pixel and the peripheral pixels.
  • the representative value is the median value or the mode value of the pixel data of the correction target pixel and the peripheral pixels.
  • the plurality of pixels includes a first color pixel configured by a first color filter including at least one color and a second color filter including at least two colors other than the first color.
  • the luminance is a major factor that affects the image quality, but the quality of the obtained image can be effectively improved by setting the pixel of the first color that has a high contribution rate for obtaining the luminance signal as the correction target pixel as in this aspect. Can be improved.
  • the first color pixel has a green, transparent or white color filter.
  • the transparent color filter and the white color filter are filters that transmit all of light in the red wavelength range, light in the blue wavelength range, and light in the green wavelength range, and the transparent color filter has a relatively high light transmittance.
  • the white color filter has a lower light transmittance than the transparent color filter (for example, a light transmittance of 70% or more).
  • the plurality of pixels of the image sensor is a basic array pattern of M pixels ⁇ N pixels (where M is an integer greater than or equal to 3 and N is an integer greater than or equal to 3), and is a first pattern perpendicular to the first direction and the first direction.
  • a plurality of basic array patterns arranged in two directions may be included, and the basic array pattern may include at least five pixels of the first color having different types of color filters of adjacent pixels.
  • the color filter array becomes complicated, and the color mixture correction according to the present invention is effective. High nature.
  • the color difference between the same color G pixels due to color mixture is one pattern, so that color mixture correction is easy.
  • a basic arrangement pattern of M pixels ⁇ N pixels in a complex color filter array including five or more (for example, G1 to G5) pixels of the first color in which the types of color filters of adjacent pixels are different from each other, The step becomes complicated and greatly affects image quality degradation.
  • the basic array pattern includes at least five pixels of the first color whose types of color filters of adjacent pixels are different from each other, and the first color mixture correction and the second color correction are performed even for a complicated color filter array.
  • the step of detecting the presence or absence of abnormal oblique incident light from image data output from an image sensor having a plurality of pixels that output pixel data according to the amount of received light including a color filter and a photodiode.
  • a step of performing a first color mixture correction of pixel data of the correction target pixel based on pixel data of a pixel adjacent to the correction target pixel, and a pixel of the correction target pixel based on pixel data of peripheral pixels of the correction target pixel A step of performing a second color mixing correction of the data, and a step of determining which of the first color mixing correction and the second color mixing correction is used to correct the image data in accordance with the detection result of the abnormal oblique incident light detection means In the step of determining whether to correct image data, abnormal oblique incident light is not detected in the step of detecting presence or absence of abnormal oblique incident light.
  • the pixel data of the correction target pixel is corrected by the first color mixing correction, and when the abnormal oblique incident light is detected in the step of detecting the presence or absence of abnormal oblique incident light, the correction target is corrected by the second color mixing correction.
  • the present invention relates to an image processing method for determining to correct pixel data of a pixel.
  • Another aspect of the present invention is a procedure for detecting the presence or absence of abnormal oblique incident light from image data output from an image sensor having a plurality of pixels that output pixel data corresponding to the amount of received light, including a color filter and a photodiode.
  • the procedure for determining whether to correct image data the procedure for detecting the presence or absence of abnormal oblique incident light
  • the pixel data of the correction target pixel is corrected by the first color mixing correction, and when the abnormal oblique incident light is detected in the procedure for detecting the presence or absence of the abnormal oblique incident light, the second color mixture is performed.
  • the present invention relates to a program for performing determination to correct pixel data of a correction target pixel by correction.
  • Another aspect of the present invention is a procedure for detecting the presence or absence of abnormal oblique incident light from image data output from an image sensor having a plurality of pixels that output pixel data corresponding to the amount of received light, including a color filter and a photodiode.
  • the present invention relates to a recording medium that performs a determination to correct pixel data of a correction target pixel by second color mixture correction when abnormal oblique incident light is detected in the procedure.
  • the first color mixture correction based on the pixel data of the adjacent pixel of the correction target pixel is performed on the pixel data of the correction target pixel, and the abnormal oblique incident light is detected.
  • the second color mixture correction based on the pixel data of the peripheral pixels of the correction target pixel is performed.
  • the peripheral pixels of the correction target pixel are reduced so as to reduce the pixel data step between the same color pixels caused by the abnormal oblique incident light.
  • the second color mixture correction based on the pixel data can be performed.
  • the first color mixture correction based on the pixel data of the pixels adjacent to the correction target pixel is performed on the pixel data of the pixels to which the abnormal oblique incident light is not incident so as to reduce the influence of the color mixture caused by the pixel characteristics. It can be performed.
  • high-quality image data can be obtained by flexible color mixing correction processing according to color mixing factors, and “same color pixels caused by abnormal oblique incident light” cannot be corrected by simple color mixing correction. It is possible to effectively suppress the “step between pixel data”.
  • FIG. 1 is a block diagram illustrating a configuration example of a digital camera.
  • FIG. 2A is a plan view showing an example of a basic array pattern of color filters (pixels) of a color image sensor, and shows a state where four basic array patterns P are arranged in the horizontal direction and the vertical direction.
  • FIG. 2B is a plan view showing an example of a basic array pattern of color filters (pixels) of the color image sensor, and is an enlarged view of one basic array pattern P.
  • FIG. FIG. 3 is a functional block diagram of the image processing circuit.
  • FIG. 4A is a cross-sectional view for explaining the mechanism of color mixing caused by abnormally oblique incident light (ghost light or the like), and shows an example of adjacent arrangement of G pixels, R pixels, and G pixels.
  • FIG. 4B is a cross-sectional view illustrating the mechanism of a color mixing phenomenon caused by abnormally oblique incident light (ghost light or the like), and shows an example of adjacent arrangement of G pixels, B pixels, and G pixels.
  • FIG. 5 is a functional block diagram of the color mixture determination correction unit.
  • FIG. 6 is a diagram showing types of G pixels in the color filter array of FIG.
  • FIG. 7 is a flowchart illustrating a flow of color mixture correction by the color mixture determination correction unit.
  • FIG. 8 is a diagram showing a color filter array (pixel array) of the color image sensor according to the second embodiment.
  • FIG. 9 is a diagram illustrating another example of the basic array pattern of the color filter array.
  • FIG. 10 is a diagram illustrating another example of the basic array pattern of the color filter array.
  • FIG. 11 is a diagram illustrating another example of the basic array pattern of the color filter array.
  • FIG. 12 is a diagram illustrating another example of the basic array pattern of the color filter array.
  • FIG. 13A is a diagram illustrating another example of the basic array pattern of the color filter array.
  • FIG. 13B is a diagram illustrating another example of the basic array pattern of the color filter array.
  • FIG. 14 is a diagram showing the spectral sensitivity of the color filter.
  • FIG. 15 is a diagram illustrating an example of an image sensor in which 2 ⁇ 2 four pixels share one amplifier.
  • FIG. 16 is a chart illustrating an example of a correction table indicating the color mixture ratio.
  • FIG. 16 is a chart illustrating an example of a correction table indicating the color mixture ratio.
  • FIG. 17 is a diagram illustrating an 8 ⁇ 8 divided region of a mosaic image.
  • FIG. 18 is a block diagram illustrating an example of an internal configuration of the first color mixing correction unit.
  • FIG. 19 is a flowchart showing an example of the color mixture correction A.
  • FIG. 20 is a diagram illustrating a color filter array provided in the image sensor.
  • FIG. 21A is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 21B is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 21C is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 21A is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 21B is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 21D is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 21E is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 22A is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 22B is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 22C is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 22D is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 22A is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 22B is a diagram illustrating that the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 22E is a diagram for explaining how the incident direction of abnormally oblique incident light is utilized for color mixture correction.
  • FIG. 23 is a diagram showing another color filter arrangement.
  • FIG. 24 is a diagram illustrating a state in which the basic array pixel group of the color filter array illustrated in FIG. 23 is divided into a first sub array and a second sub array.
  • FIG. 25 is a diagram showing another color filter arrangement.
  • FIG. 26 is a diagram illustrating a state in which the basic array pixel group of the color filter array illustrated in FIG. 25 is divided into a first sub array and a second sub array.
  • FIG. 27 is a diagram for explaining the determination of the incident direction of abnormal oblique incident light in the color filter array shown in FIG. FIG.
  • FIG. 28 is a diagram for explaining the determination of the incident direction of abnormally oblique incident light in the color filter array shown in FIG.
  • FIG. 29 is a diagram showing another color filter arrangement.
  • FIG. 30 is a diagram illustrating a state in which the basic array pixel group of the color filter array illustrated in FIG. 29 is divided into a first sub array and a second sub array.
  • FIG. 31 is a diagram for explaining the determination of the incident direction of abnormal oblique incident light in the color filter array shown in FIG.
  • FIG. 32 is a diagram for explaining the determination of the incident direction of abnormally oblique incident light in the color filter array shown in FIG.
  • FIG. 33 is a diagram illustrating a modification of the pixel array of the color image sensor.
  • FIG. 34 is an external view of a smartphone.
  • FIG. 35 is a block diagram illustrating a configuration of a smartphone.
  • FIG. 1 is a block diagram illustrating a configuration example of the digital camera 10.
  • the present example an example in which each part other than the lens unit 14 in the configuration shown in FIG. 1 is provided in the camera body 12 will be described, but each part may be provided in the lens unit 14 as necessary.
  • the digital camera (imaging device) 10 includes a camera body 12 and a lens unit 14 attached to the front surface of the camera body 12 in an interchangeable manner.
  • the lens unit 14 includes a photographing optical system 20 including a zoom lens 21 and a focus lens 22, a mechanical shutter 23, and the like.
  • the zoom lens 21 and the focus lens 22 are driven by a zoom mechanism 24 and a focus mechanism 25, respectively, and are moved back and forth along the optical axis O1 of the photographing optical system 20.
  • the zoom mechanism 24 and the focus mechanism 25 are configured by gears, motors, and the like.
  • the mechanical shutter 23 has a movable portion (not shown) that moves between a closed position where the subject light is prevented from entering the color image sensor 27 and an open position where the subject light is allowed to enter. By moving the movable part to the open / closed position, the optical path from the photographing optical system 20 to the color image sensor 27 is opened / blocked. Further, the mechanical shutter 23 includes a diaphragm for controlling the amount of subject light incident on the color image sensor 27.
  • the mechanical shutter 23, zoom mechanism 24, and focus mechanism 25 are driven and controlled by the CPU 30 via the lens driver 26.
  • the CPU 30 provided in the camera main body 12 sequentially executes various programs and data read from the memory 37 based on a control signal from the operation unit 36, and comprehensively controls each unit of the digital camera 10.
  • the RAM area of the memory 37 functions as a work memory for the CPU 30 to execute processing and a temporary storage destination for various data.
  • the operation unit 36 includes buttons, keys, a touch panel operated by the user, and the like.
  • buttons, keys, a touch panel operated by the user For example, a power switch, a shutter button, a focus mode switching lever, a focus ring, a mode switching button, a cross selection key, an execution key, a back button, and the like that are provided on the camera body 12 and are operated by the user can be included in the operation unit 36. .
  • the color image sensor 27 converts the subject light that has passed through the photographing optical system 20 and the mechanical shutter 23 into an electrical output signal and outputs it.
  • the color image sensor 27 has a single-plate pixel arrangement in which a large number of pixels are juxtaposed in a horizontal direction (first direction) and a vertical direction (second direction) perpendicular to the horizontal direction. Any method such as Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) can be employed.
  • CMOS Complementary Metal Oxide Semiconductor
  • each pixel constituting the color imaging element 27 receives pixel data by receiving a microlens that improves the light collection rate, a color filter such as RGB, and light transmitted through the microlens and the color filter.
  • a photodiode photoelectric conversion element
  • the image sensor driver 31 drives and controls the color image sensor 27 under the control of the CPU 30, and causes the image processing circuit 32 to output an image signal (image data) from the pixels of the color image sensor 27.
  • the image processing circuit 32 (image processing apparatus) performs various types of image processing such as gradation conversion, white balance correction, and ⁇ correction processing on the image pickup signal (image data) output from the color image pickup device 27, and the captured image data Is generated.
  • the image processing circuit 32 of this example includes a color mixture determination correction unit that corrects color mixture that occurs between adjacent pixels, as will be described in detail later.
  • the compression / decompression processing circuit 34 performs compression processing on the captured image data stored in the VRAM area of the memory 37 when the shutter button is pressed down by the user. In the RAW data acquisition mode, the compression processing by the compression / decompression processing circuit 34 can be prevented from being performed.
  • the compression / decompression processing circuit 34 performs compression / decompression processing on the compressed image data obtained from the memory card 38 via the media interface 33.
  • the media interface 33 performs recording and reading of photographed image data with respect to the memory card 38.
  • the display control unit 35 displays a through image (live view image) generated by the image processing circuit 32 on at least one of the EVF (electric viewfinder) 39 and the rear LCD (rear liquid crystal) 40 in the photographing mode. Take control. In the image playback mode, the display control unit 35 outputs the captured image data expanded by the compression / decompression processing circuit 34 to the rear LCD 40 (and / or EVF 39).
  • the digital camera 10 (camera body 12) may be provided with a processing circuit other than those described above, for example, an AF detection circuit for autofocus and an AE detection circuit for automatic exposure adjustment.
  • the CPU 30 performs AF processing by driving the focus lens 22 via the lens driver 26 and the focus mechanism 25 based on the detection result of the AF detection circuit, and also via the lens driver 26 based on the detection result of the AE detection circuit.
  • AE processing is executed by driving the mechanical shutter 23.
  • FIG. 2A and 2B are plan views showing examples of basic arrangement patterns of color filters (pixels) of the color image sensor 27.
  • FIG. 2A shows a state in which a total of four basic arrangement patterns P are arranged in the horizontal and vertical directions.
  • 2B is an enlarged view of one basic array pattern P.
  • R indicates a red (red) filter (R pixel)
  • G indicates a green (green) filter (G pixel)
  • B indicates blue (blue).
  • a filter (B pixel) is shown.
  • the color filter of the color image sensor 27 of this example has a basic array pattern P composed of a square array pattern corresponding to M ⁇ N (6 ⁇ 6) pixels, and this basic array pattern P is repeated in the horizontal and vertical directions. A plurality of pixels of the color image sensor 27 are arranged in a row. Therefore, when performing image processing or the like of RGB RAW data (mosaic image) read from the color image sensor 27, processing can be performed according to a repetitive pattern based on the basic array pattern P.
  • Each basic array pattern P includes a first sub array of 3 pixels (horizontal direction) ⁇ 3 pixels (vertical direction) and a second sub array of 3 pixels (horizontal direction) ⁇ 3 pixels (vertical direction) shown in FIG. 2B.
  • the array is arranged alternately in the horizontal direction and the vertical direction.
  • the G filters are arranged at the four corners and the center, respectively, and the G filters are arranged on both diagonal lines.
  • the R filter is provided in the horizontal direction with the central G filter interposed therebetween, and the B filter is provided in the vertical direction with the central G filter interposed therebetween.
  • the B filter is provided in the horizontal direction with the central G filter interposed therebetween, and the R filter is provided in the vertical direction with the central G filter interposed therebetween. Accordingly, the positional relationship between the R filter and the B filter is reversed between the first sub-array and the second sub-array, but the arrangement of the G filters is the same.
  • the G filters at the four corners of the first sub-array and the second sub-array are arranged so that the first sub-array and the second sub-array are alternately arranged in the horizontal direction and the vertical direction, so that two pixels ( A G-array group of square arrays corresponding to (horizontal direction) ⁇ 2 pixels (vertical direction) is formed.
  • the G filter corresponding to the color (G color in this embodiment) most contributing to obtaining the luminance signal is the horizontal and vertical of the color filter array.
  • One or more are arranged in each line in the diagonal upper right and diagonal upper left directions.
  • the G filters corresponding to the luminance system pixels are arranged in the horizontal, vertical, and diagonal (NE, NW) direction lines of the color filter array. Therefore, it is possible to improve the reproduction accuracy of demosaic processing (synchronization processing) in a high frequency region.
  • the demosaic process or demosaicing process is a process for calculating all color information for each pixel from a mosaic image corresponding to the color filter array of a single-plate color image sensor, and is also referred to as a synchronization process (hereinafter referred to as the present specification). Same in the book). For example, in the case of an image sensor made up of three color filters of RGB, this is a process of calculating color information for all RGB for each pixel from a mosaic image made of RGB.
  • the diagonally upper right and diagonally lower right directions are 45 ° with respect to the horizontal direction and the vertical direction.
  • the diagonal upper right and diagonal lower right directions are diagonal directions of the rectangle, and the diagonal upper right and vertical directions with respect to the horizontal direction and the vertical direction according to the length of the long side and the short side of the rectangle.
  • the angle in the diagonally lower right direction can vary.
  • the color filter array shown in FIGS. 2A and 2B includes an R filter and a B filter corresponding to two or more other colors (in this example, red (R) and blue (B)) other than the G color.
  • One or more lines are arranged in each of the horizontal and vertical lines of the basic array pattern P.
  • the R filter and the B filter are arranged in the horizontal and vertical lines of the color filter array, so that the generation of false colors (color moire) can be reduced, and the generation of false colors can be reduced.
  • An optical low-pass filter for suppression can be omitted. Even when an optical low-pass filter is arranged, when the color filter arrangement of this example is adopted, the resolution is impaired by using a weak filter that cuts off high-frequency components for preventing the occurrence of false colors. Can not be.
  • the numbers of R pixels, G pixels, and B pixels corresponding to the R filter, G filter, and B filter are 8 pixels, 20 pixels, and 8 pixels, respectively. That is, the ratio of the number of R pixels, G pixels, and B pixels is 2: 5: 2, and the ratio of the number of G pixels that contributes most to obtain a luminance signal is the pixel number of R pixels and B pixels. Higher than the ratio of numbers. As described above, the ratio of the number of G pixels to the number of R pixels and B pixels is different, and in particular, the ratio of the number of G pixels that contributes most to obtain a luminance signal is set to the pixel of R pixels and B pixels. By making it larger than the ratio of the numbers, aliasing in demosaic processing (simultaneous processing) can be suppressed, and high frequency reproducibility can also be improved.
  • the color filter array (pixel array) shown in FIGS. 2A and 2B is also referred to as “X-Trans (registered trademark)”.
  • FIG. 3 is a functional block diagram of the image processing circuit 32 (image processing apparatus; see FIG. 1).
  • the image processing circuit 32 mainly includes a color mixture determination correction unit 41, a white balance correction unit (WB correction unit) 42, a signal processing unit 43 that performs signal processing such as gamma correction, demosaic processing, and RGB / YC conversion, an RGB integration unit 44, And a white balance gain calculation unit (WB gain calculation unit) 45.
  • WB correction unit white balance correction unit
  • WB gain calculation unit white balance gain calculation unit
  • RAW data (mosaic image: RGB color signal) is input to the image processing circuit 32.
  • the RAW data output from the color image sensor 27 may be directly input to the image processing circuit 32, or the RAW data output from the color image sensor 27 may be stored in a memory (such as the memory 37 in FIG. 1). Once stored, RAW data may be input from this memory to the image processing circuit 32.
  • the RGB color signals of the RAW data are input to the color mixture determination correction unit 41 in a dot sequential manner.
  • the color mixture determination correction unit 41 removes color mixture components from adjacent pixels included in the color signal of the target pixel for color mixture correction input in dot order. Note that details of the color mixture correction processing in the color mixture determination correction unit 41 will be described later.
  • the color signal of each pixel of the mosaic image from which the color mixture component has been removed by the color mixture determination correction unit 41 is input to the WB correction unit 42 and the RGB integration unit 44.
  • the RGB integrating unit 44 calculates an integrated average value for each RGB color signal for each divided region obtained by dividing one screen into 8 ⁇ 8, 16 ⁇ 16, and the like, and a ratio (R / G) of the integrated average values for each RGB. , B / G). For example, when dividing one screen into 64 divided areas of 8 ⁇ 8, the RGB integrating unit 44 calculates 64 pieces of color information (R / G, B / G).
  • the WB gain calculation unit 45 calculates the WB gain based on the color information (R / G, B / G) for each divided region input from the RGB integration unit 44. Specifically, the barycentric position of the distribution of the color information regarding each of the 64 divided regions in the color space of the R / G and B / G axis coordinates is calculated, and the ambient light is calculated from the color information indicated by the barycentric position. Estimate the color temperature. In addition, instead of the color temperature, a light source type having color information indicated by the position of the center of gravity, for example, blue sky, shade, clear, fluorescent lamp (daylight color, day white color, white color, warm white color), tungsten, low tungsten, etc. is obtained. The light source type at the time of shooting may be estimated (see Japanese Patent Application Laid-Open No. 2007-53499), or the color temperature may be estimated from the estimated light source type.
  • a WB gain for each RGB or RB for appropriate white balance correction corresponding to the color temperature or light source type of ambient light is prepared (stored and stored) in advance.
  • the gain calculation unit 45 reads out the corresponding WB gain for each RGB or RB based on the estimated color temperature or light source type of the ambient light, and outputs the read WB gain to the WB correction unit 42.
  • the WB correction unit 42 multiplies each of the R, G, and B color signals input from the color mixture determination correction unit 41 by the WB gain for each color input from the WB gain calculation unit 45, thereby obtaining white. Perform balance correction.
  • the R, G, and B color signals output from the WB correction unit 42 are input to the signal processing unit 43.
  • the signal processing unit 43 converts the R, G, and B color signals into a simultaneous expression by interpolating gamma correction and the spatial shift of the R, G, and B color signals associated with the color filter array of the color image sensor 27.
  • Brightness signal that has undergone signal processing such as demosaic processing (synchronization processing), RGB / YC conversion that converts the synchronized R, G, B color signals into luminance signal Y and color difference signals Cr, Cb, etc. Y and color difference signals Cr and Cb are output.
  • the luminance data Y and the color difference data Cr and Cb output from the image processing circuit 32 are compressed and then recorded in the internal memory (memory 37) and the external memory (memory card 38).
  • FIG. 4A and 4B are cross-sectional views for explaining the mechanism of the color mixing phenomenon caused by abnormal oblique incident light (ghost light or the like).
  • FIG. 4A shows an example of adjacent arrangement of G pixels, R pixels, and G pixels. Indicates an example of adjacent arrangement of G pixels, B pixels, and G pixels.
  • the plurality of pixels 50 constituting the color image sensor 27 of the present example is configured by a G (green) pixel (first color pixel) 50G configured by a green (first color) color filter and a red color filter.
  • the G pixel 50G has a higher contribution rate for obtaining a luminance signal than the R pixel 50R and the B pixel 50B.
  • Y (luminance) (0.3 ⁇ R pixel data + 0.6 ⁇ G pixel data + 0.1 ⁇ Luminance data (luminance signal) can be obtained from (B pixel data).
  • Each of the G pixel 50G, the R pixel 50R, and the B pixel 50B includes a microlens 51, a color filter 52, and a photodiode 53 that are sequentially provided in the traveling direction of the subject light, and pixel data corresponding to the amount of light received by the photodiode 53. Is output.
  • the normal light 56 constituting the subject light is collected by the microlens 51, passes through the color filter 52, enters the photodiode 53, and is normally received by the color filter 52 through which the normal light 56 passes. 53 corresponds.
  • the abnormal oblique incident light 57 enters each pixel at an angle different from that of the normal light 56, and the abnormal oblique incident light 57 that has passed through the color filter 52 of a certain pixel is received by the photodiode 53 of the adjacent pixel.
  • the color filter 52 through which the abnormally oblique incident light 57 passes does not correspond to the photodiode 53 that receives the light, and the photodiode 53 that receives the abnormally oblique incident light 57 is not limited to the normal light 56 but is abnormally incident. Pixel data corresponding to the amount of light 57 received is output.
  • the output pixel data from the photodiode 53 that has received the abnormally oblique incident light 57 is larger than the output pixel data from the photodiode 53 that does not receive the abnormally oblique incident light 57, and therefore there is a step difference in the pixel data between pixels of the same color. Occurs.
  • the pixel characteristics (arrangement, size, physical properties of microlenses, color filters, photodiodes, wirings, etc.) Depending on the characteristic based on the value, etc., a part of the normal light 56 leaks into the adjacent pixels and causes a color mixing phenomenon.
  • color mixing correction is performed on pixel data output from a pixel to which abnormal oblique incident light 57 is incident so that no step is generated in pixel data between pixels of the same color, and abnormal oblique incident light 57 is incident.
  • color mixture correction for reducing color mixture according to pixel characteristics is performed on pixel data output from a non-performed pixel will be described.
  • the G pixel (first color pixel) 50G having the highest contribution rate for obtaining the luminance signal is selected.
  • the pixel to be corrected for color mixture correction is selected.
  • FIG. 5 is a functional block diagram of the color mixture determination correction unit 41 (see FIG. 3).
  • the color mixture determination correction unit 41 includes a color mixture correction determination unit 61, a first color mixture correction unit (first color correction unit) 62 connected to the color mixture correction determination unit 61, and a second color mixture correction unit (second color mixture correction unit). Correction means) 63.
  • the color mixture correction determination unit 61 functions as an abnormal oblique incident light detection unit (abnormal oblique incident light detection unit), and determines whether abnormal oblique incident light (ghost light or the like) is incident from the image data output from the color image sensor 27. To detect.
  • the specific detection method of the presence or absence of incidence of abnormal oblique incident light by the color mixture correction determination unit 61 is not particularly limited, and an example thereof will be described later.
  • the color mixture correction determination unit 61 functions as a color mixture correction determination unit (color mixture correction determination unit), and includes a first color mixture correction unit and a second color mixture correction unit according to the detection result of the presence or absence of abnormal oblique incident light. It is determined which color mixture correction of image data (pixel data) is performed. Specifically, the color mixture correction determination unit 61 determines that the first color mixture correction unit 62 performs color mixture correction on the pixel data of the correction target pixel with respect to pixel data of pixels in which the incidence of abnormal oblique incident light is not detected. Then, the image data (pixel data) is sent to the first color mixture correction unit 62.
  • the color mixture correction determination unit 61 determines that the pixel data of the correction target pixel is corrected by the second color mixture correction unit 63 with respect to pixel data of a pixel (G pixel) in which the incidence of abnormal oblique incident light is detected. Then, the image data (pixel data) is sent to the second color mixture correction unit 63.
  • the mixed color correction determination unit 61 functions as the abnormal oblique incident light detection unit and the mixed color correction determination unit.
  • the abnormal oblique incident light detection unit and the mixed color correction determination are performed by a separately provided circuit or the like. It is also possible to realize the part.
  • the first color mixture correction unit 62 performs color mixture correction A (first color correction) on the pixel data of the correction target pixel based on the pixel data of the pixel adjacent to the correction target pixel.
  • the first color mixing correction unit 62 calculates the amount of color mixing from the upper, lower, left, and right (horizontal and vertical) adjacent pixels with respect to the correction target pixel, and the calculated color mixing amount from the adjacent pixel is the pixel of the correction target pixel. It is also possible to perform color mixture correction A by subtracting from the data (original data).
  • the color mixture amount any calculation method can be employed. For example, the color mixture amount is calculated by integrating the pixel data of the adjacent pixels and the color mixture rate (adjacent pixel data value ⁇ color mixture rate). The color mixing ratio can be determined as appropriate based on various color mixing factors.
  • the specific method of the color mixture correction A by the first color mixture correction unit 62 is not particularly limited, and an example thereof will be described later.
  • the second color mixing correction unit 63 performs color mixing correction B (second color mixing correction) on the pixel data of the correction target pixel based on the pixel data of the peripheral pixels of the correction target pixel.
  • the second color mixture correction unit 63 performs color mixture correction B on the pixel data of the correction target pixel using four or more pixels (G pixel) having a color filter of the same color as the correction target pixel (G pixel) as peripheral pixels. Specifically, the second color mixing correction unit 63 performs color mixing correction B on the pixel data of the correction target pixel based on the representative value derived from the pixel data of the correction target pixel and the peripheral pixels.
  • the representative value may be an average value or a weighted average value of the pixel data of the correction target pixel and the peripheral pixels, or may be a median value or a mode value of the pixel data of the correction target pixel and the peripheral pixels.
  • the color mixture correction B of the pixel data of the correction target pixel is performed based on the average value of the pixel data of the correction target pixel and the peripheral pixels will be described.
  • the peripheral pixels of the correction target pixel are pixels included in a range of 6 pixels (horizontal direction) ⁇ 6 pixels (vertical direction) including the correction target pixel at the center (center portion).
  • the pixel (G pixel) has a color filter of the same color (green) as the correction target pixel.
  • G pixels are 10 according to the adjacent pixel arrangement type. Classified into types (G1 to G10).
  • the second color mixing correction unit 63 performs the color mixing correction B based on the average value obtained from the integrated value (sum) of the pixel data of these G pixels (G1 to G10), the color mixing centered on the correction target pixel.
  • An integrated value of G pixel values within the kernel size K (basic array pattern size) of correction B is obtained.
  • the kernel size K of the color mixture correction B in this example is 6 pixels (horizontal direction) ⁇ 6 pixels (vertical direction) which is the same as the size of the basic array pattern P. Therefore, the second color mixing correction unit 63 calculates an integrated value of 10 types of G pixels G1 to G10 included in the region of the kernel size K, and calculates a representative value (an average value in this example) from the integrated value.
  • the color mixture correction B is performed by replacing the pixel data of the correction target pixel (G pixel) within the kernel size K with the calculated representative value. Thereby, the level difference of pixel data between G pixels is eliminated.
  • the specific method of the color mixture correction B by the second color mixture correction unit 63 is not particularly limited, and an example thereof will be described later.
  • the image data after the color mixture correction in which the color mixture correction A and the color mixture correction B are performed (mosaic image data) is sent to the WB correction unit 42 and the RGB integration unit 44 in the subsequent stage (see FIG. 3).
  • the pixel data subjected to the color mixture correction A by the first color mixture correction unit 62 and the second data The pixel data subjected to the color mixture correction B by the color mixture correction unit 63 is combined in the color mixture determination correction unit 41, and the combined image data is processed as the image data after the color mixture correction (mosaic image data). Sent to the department.
  • the color mixture correction A may be performed on the pixel data after the color mixture correction B, and the image data (pixel data) after the color mixture correction B is transferred from the second color mixture correction unit 63 to the first color mixture correction unit 62. It may be sent.
  • FIG. 7 is a flowchart showing a flow of color mixture correction by the color mixture determination correction unit 41.
  • image data (pixel data) is acquired by the color mixture correction determination unit 61 (S2 in FIG. 7), and ghost light or the like in the image data is obtained.
  • the presence or absence of abnormal oblique incident light is determined by the color mixture correction determination unit 61 (S4).
  • color mixture correction B is performed in the second color mixture correction unit 63 (S6), and the level difference of the pixel data between the G pixels is eliminated. Is done.
  • color mixture correction A is performed in the first color mixture correction unit 62 (S8), depending on the pixel characteristics unique to the image sensor. Corrected color mixture is corrected.
  • the color mixture determination correction unit 41 selects the first color mixture so that the color mixture correction (color mixture correction B) using the integrated value of the pixel data of the pixel to be corrected and its surrounding pixels (G pixels) is selected.
  • Image processing control mixed color correction processing control of the correction unit 62 and the second mixed color correction unit 63 is performed.
  • the arrangement matrix size of the basic arrangement pattern P is large and the types of adjacent color filters are different, as in the X-Trans color filter arrangement shown in FIGS. 2A, 2B and FIG.
  • Image quality deterioration due to ghost of images (image data) obtained from a large number of color imaging elements 27 can be effectively reduced.
  • the amount of color mixture in the color mixture correction B by the second color mixture correction unit 63 is calculated based on the pixel data of the same color pixel (G pixel) in the kernel size K instead of the pixel data of the adjacent pixel of the correction target pixel.
  • FIG. 8 is a diagram showing a color filter array (pixel array) of the color image sensor 27 according to the second embodiment.
  • the plurality of pixels constituting the color imaging device 27 of the present embodiment includes a basic array pattern P of 3 pixels (horizontal direction) ⁇ 3 pixels (vertical direction), and the basic array pattern P is plural in the horizontal direction and the vertical direction. Are lined up.
  • the basic array pattern P is arranged at five G pixels arranged in a cross shape, two R pixels arranged at one of the four corners, and the other diagonal of the four corners. It is composed of two B pixels. Therefore, as shown in FIG. 8, the G pixels constituting the color image sensor 27 are classified into five types (G1 to G5) according to the color filter type of the adjacent pixels.
  • the second color mixing correction unit 63 (see FIG. 5) of the present embodiment is a pixel included in a range larger than a range of 3 pixels (horizontal direction) ⁇ 3 pixels (vertical direction) including the correction target pixel, A pixel having a color filter of the same color as the correction target pixel (G pixel) is set as a peripheral pixel used for the color mixture correction B.
  • a pixel having a color filter of the same color as the correction target pixel (G pixel) is set as a peripheral pixel used for the color mixture correction B.
  • 6 pixels (horizontal direction) ⁇ 6 pixels (vertical direction) larger than the pixel size (3 pixels (horizontal direction) ⁇ 3 pixels (vertical direction)) of the basic array pattern P is the color mixture correction B.
  • a G pixel included in the kernel size K when the color mixture correction target pixel 50A is arranged at the center (center) of the kernel size K is set as a peripheral pixel used for the color mixture correction B.
  • the second color mixture correction unit 63 performs the color mixture correction B on the pixel data of the correction target pixel based on the representative value of the pixel data of the G pixel included in the kernel size K, as in the first embodiment.
  • the kernel size K of the color mixture correction B only needs to be larger than the size of the basic array pattern P, and the number of pixels (total pixels) about twice the basic array pattern P in each of the horizontal direction and the vertical direction as in this example.
  • a range having a pixel number that is about four times the number) can be set as the kernel size K of the color mixture correction B.
  • the “type of the same color pixel determined according to the color filter type of the adjacent pixel” for the entire color image sensor 27 is the basic array pattern. This is basically the same as “the type of the same color pixel determined according to the type of the color filter of the adjacent pixel” defined for the pixels included in P. Therefore, even when the color mixing phenomenon is complicated by having a complicated color filter array, the kernel size of the color mixing correction B is about twice as large as the basic array pattern P in each of the horizontal direction and the vertical direction ( By setting the number of pixels to about four times the total number of pixels), the kernel size of the color mixture correction B includes four or more same-color pixels of the same type. Therefore, by using such a large amount of pixel data, it is possible to accurately perform the color mixture correction B for eliminating the step difference in pixel data between pixels of the same color.
  • the color mixture correction B is performed based on the pixel data of many same color pixels (G pixels) arranged around the correction target pixel, more accurate color mixture correction.
  • the occurrence of a step difference in pixel data between pixels of the same color can be suppressed by B.
  • ⁇ Other color filter array> Application of the color mixture correction flow (detection of abnormal oblique incident light, color mixture correction A and color mixture correction B) by the above-described color mixture determination correction unit 41 is applied to the color filter array (X-Trans) shown in FIG. 2 and FIG.
  • the above-described color mixture is not limited to image data (RAW data or the like) output from the color image sensor 27 having the color filter array shown, and is also applied to image data output from the color image sensor 27 having another color filter array. It is possible to apply a correction flow.
  • the color filter arrangement (pixel arrangement) described above with respect to the basic arrangement pattern P including at least five same color pixels (G pixels: first color pixels) having different types of color filters of adjacent pixels is described above.
  • FIG. 9 is a diagram showing another example of the basic array pattern of the color filter array.
  • the basic arrangement pattern P of this example has a pixel configuration of 6 pixels (horizontal direction) ⁇ 6 pixels (vertical direction), and is arranged on two first sub-arrays arranged on one diagonal line and on the other diagonal line.
  • Each basic array pattern P is constituted by the two second sub-arrays.
  • the first sub-array is composed of four R pixels arranged at the four corners, one B pixel arranged at the center, and four G pixels arranged between the R pixels.
  • the second sub-array is configured by four B pixels arranged at the four corners, one R pixel arranged at the center, and four G pixels arranged between the B pixels.
  • the G pixels in the color filter array of this example are classified into eight types (G1 to G8) depending on the color filter type of the adjacent pixels.
  • the arranged rows are arranged adjacent to each other in the vertical direction.
  • the G pixels in the color filter array of this example are classified into nine types according to the color filter types of adjacent pixels (G1 to G9).
  • the basic arrangement pattern P of the color filter arrangement shown in FIG. 11 has a pixel configuration of 3 pixels (horizontal direction) ⁇ 3 pixels (vertical direction), and “R pixel, B pixel, G pixel” are adjacently arranged. Rows, “B pixels, R pixels, G pixels” are adjacently arranged, and “G pixels, G pixels, G pixels” are adjacently arranged in the vertical direction.
  • the G pixels in the color filter array of this example are classified into five types (G1 to G5) depending on the color filter type of the adjacent pixels.
  • a basic array pattern P of the color filter array shown in FIG. 12 has a pixel configuration of 3 pixels (horizontal direction) ⁇ 3 pixels (vertical direction), and 5 G pixels arranged in an X shape on a diagonal line. And two B pixels arranged adjacent to the upper and lower sides (vertical direction) of the central G pixel, and two R pixels arranged adjacent to the left and right (horizontal direction) of the central G pixel.
  • the G pixels in the color filter array of this example are classified into five types (G1 to G5) depending on the color filter type of the adjacent pixels.
  • the color filter array shown in FIG. 13A is a Bayer array, and the basic array pattern P has a pixel configuration of 2 pixels (horizontal direction) ⁇ 2 pixels (vertical direction), and “G pixel, B pixel” are adjacent to each other.
  • the row in which the “R pixel and G pixel” are arranged adjacent to each other is adjacently arranged in the vertical direction.
  • the G pixels in the color filter array of this example are classified into two types (G1 to G2) depending on the color filter type of the adjacent pixels.
  • the basic arrangement pattern P of the color filter arrangement shown in FIG. 13B has a pixel configuration of 4 pixels (horizontal direction) ⁇ 4 pixels (vertical direction), and two first sub-arrays arranged on one diagonal line.
  • Each basic array pattern P is constituted by the array and two second sub-arrays arranged on the other diagonal line.
  • the first sub-array is composed of two R pixels arranged on one diagonal line and two G pixels arranged on the other diagonal line.
  • the second sub-array is composed of two B pixels arranged on one diagonal line and two G pixels arranged on the other diagonal line.
  • the G pixels in the color filter array of this example are classified into two types (G1 to G2) depending on the color filter type of the adjacent pixels.
  • the color mixture correction flow (abnormal oblique incidence) by the color mixture determination correction unit 41 described above.
  • step difference in pixel data between pixels of the same color caused by abnormal oblique incident light” and “color mixture caused by pixel characteristics” are effectively reduced. be able to.
  • all of the same color pixels (G pixels) included in the basic array pattern P are configured by pixels having different types of color filters of adjacent pixels (see, for example, FIGS.
  • the second color mixture By making the kernel size K of the color mixture correction B by the correction unit 63 the same as the number of constituent pixels of the basic array pattern P, the peripheral pixels used in the color mixture correction B are different from each other in the types of color filters of adjacent pixels. It is possible to configure.
  • the pixel size of the basic array pattern P of the color filter array of the color image sensor 27 is not particularly limited, and is arbitrary M pixels (horizontal direction) ⁇ N pixels (vertical direction) (where M is an integer of 3 or more) , N is an integer of 3 or more), and the basic array pattern P can be configured.
  • a plurality of pixels of the color image sensor 27 are configured by RGB color filters.
  • RGB Red, Green, Blue
  • other colors A filter may be included.
  • a plurality of pixels constituting the color imaging element 27 may include W pixels (transparent pixels, white pixels) in addition to RGB pixels.
  • the W pixel may be a correction target pixel for the above-described color mixture correction.
  • FIG. 14 is a diagram illustrating an example of spectral sensitivities of an R color filter, a G color filter, a B color filter, and a W (transparent) color filter.
  • the horizontal axis indicates the wavelength of light, and the vertical axis indicates sensitivity (light transmittance). ).
  • Both the transparent pixel and the white pixel have a color filter having a relatively high light transmittance in the entire visible light wavelength range, but the transparent pixel color filter (transparent filter) is a white pixel color filter (white filter). ) Higher light transmittance.
  • G pixel target pixel for color mixture correction
  • pixel target pixel for color mixture correction
  • the colors of adjacent pixels in the vertical and horizontal directions with respect to the target pixel are B, G, G, and R, respectively.
  • 9 pixels in the first sub-array of 3 pixels ⁇ 3 pixels and 9 pixels in the second sub-array are targeted. Even in the case of a pixel, the combination of the colors of four pixels adjacent to the target pixel in the vertical and horizontal directions is different.
  • the color mixing ratio for each of the four adjacent pixels may be set as one set, and the color mixing ratio may be stored for each color combination of the adjacent pixels.
  • the color mixing ratio may be stored for each color combination of the adjacent pixels.
  • the color image sensor 27 of this embodiment is a CMOS type image sensor, and as shown in FIG. 15, a pixel sharing amplifier A is embedded in a CMOS base, and K ⁇ L (2 ⁇ 2) pixels are formed. One amplifier A is shared. Due to the element structure of the color image sensor 27, the output level varies depending on the positions 1 to 4 of the pixel (own pixel) with respect to the amplifier A (upper left, upper right, lower left, and lower right positions with respect to the amplifier A).
  • the memory unit stores a correction table shown in FIG.
  • this correction table three colors (RGB) of adjacent pixels are set as the first parameter P1, and the position of the own pixel among the 2 ⁇ 2 pixels sharing the amplifier A (positions 1 to 4 in FIG. 15).
  • Is the second parameter P2 and a total of twelve color mixing ratios A1 to A12 corresponding to the combination of these parameters P1 and P2 are stored in association with the parameters P1 and P2.
  • the color mixing ratio corresponding to the combination of the above parameters is obtained in advance at the time of inspection before product shipment and stored for each product.
  • the entire area of the mosaic image is divided into, for example, 8 ⁇ 8 divided areas, and the divided areas [0] [0] to [7] [7] are shown in FIG.
  • the correction table is stored in the memory unit.
  • FIG. 18 is a block diagram showing an embodiment of the internal configuration of the first color mixing correction unit 62. As shown in FIG.
  • the first color mixing correction unit 62 mainly includes a delay processing unit 67, a subtracter 69, a multiplier 70, an adder 71, a parameter acquisition unit (parameter acquisition means) 72, and a color mixing rate setting unit 73. Has been.
  • the mosaic image (RGB color signal) acquired through the color image sensor 27 is added to the delay processing unit 67 in a dot sequence.
  • the delay processing unit 67 includes 1H (horizontal line) line memories 68a to 68c, and RGB color signals input in a dot-sequential manner are sequentially shifted in the line memories 68a to 68c at intervals for processing one pixel. It is done. If the color signal at the position indicated by the oblique lines in the line memory 68b is the color signal of the target pixel for color mixture correction, the color signals at the same position on the line memories 68a and 68c are the color signals of the upper pixel and the lower pixel, respectively. The color signals at the left and right positions indicated by the diagonal lines in the line memory 68b are the color signals of the left pixel and the right pixel, respectively.
  • the delay processing unit 67 appropriately delays the RGB color signal input in a dot-sequential manner, and corrects the color mixture correction target pixel and the upper, lower, left, and right adjacent pixels (upper pixel, lower pixel, left pixel, (Right pixel) at the same time.
  • the color signal of the target pixel output from the delay processing unit 67 is added to the subtracter 69, and the color signals of the upper pixel, the lower pixel, the left pixel, and the right pixel are respectively added to the multiplier 70.
  • Information indicating the position (x, y) of the target pixel in the mosaic image output from the delay processing unit 67 is added to the parameter acquisition unit 72, and the parameter acquisition unit 72 receives the position (x , Y) to obtain the first to third parameters P1 to P3.
  • Information indicating the position (x, y) of the target pixel can be acquired from the CPU 30 or the image processing circuit 32 (color mixture correction determination unit 61 or the like) that instructs signal processing for each pixel of the mosaic image.
  • the second parameter P2 indicating the position of the target pixel (own pixel) (positions 1 to 4 in FIG. 15) and the division to which the own pixel belongs
  • the third parameter P3 indicating the region (see FIG. 17) can be determined.
  • the colors of the adjacent pixels upper pixel, lower pixel, left pixel, and right pixel
  • the first parameter P1 indicating the color of the adjacent pixel can be determined.
  • the parameter acquisition unit 72 determines the first to third parameters P1 to P3 based on the information on the position (x, y) of the target pixel in the mosaic image as described above, and outputs it to the color mixture rate setting unit 73. .
  • the color mixture ratio setting unit 73 Based on the first to third parameters P1 to P3 input from the parameter acquisition unit 72, the color mixture ratio setting unit 73 reads the corresponding four color mixture ratios A to D from the memory 37, and sets these color mixture ratios A to D. Each is applied to the other input of multiplier 70. In other words, the color mixture ratio setting unit 73 selects a correction table corresponding to the divided region to which the target pixel belongs based on the third parameter P3, and is adjacent to the selected correction table based on the first and second parameters P1 and P2. Four color mixture ratios A to D (see A1 to A12 in FIG. 16) for each pixel orientation direction are read out.
  • the multiplier 70 multiplies the color signals A to D by the color signals of the upper pixel, the lower pixel, the left pixel, and the right pixel, which are respectively input, and outputs the multiplication value to the adder 71.
  • the adder 71 adds four input multiplication values and adds the addition value to the other input of the subtractor 69. This added value corresponds to the color mixture component included in the color signal of the target pixel for color mixture correction.
  • the color signal of the target pixel for color mixture correction is added to one input of the subtractor 69.
  • the subtracter 69 subtracts the addition value (color mixture component) input from the adder 71 from the color signal of the target pixel.
  • the color signal of the target pixel from which the color mixture component has been removed (color mixture correction) is output.
  • Color signal after correction color signal before correction ⁇ (upper pixel ⁇ color mixing ratio A + lower pixel ⁇ color mixing ratio B + left pixel ⁇ color mixing ratio C + right pixel ⁇ color mixing ratio D)
  • the color signal subjected to the color mixture correction by the first color mixture correction unit 62 as described above is output to the WB correction unit 42 and the RGB integration unit 44 in the subsequent stage (see FIG. 3).
  • FIG. 19 is a flowchart showing an example of image processing related to color mixture correction.
  • the first color mixture correction unit 62 first sets the position (x, y) of the target pixel for color mixture correction to an initial value (0, 0) before the start of color mixture correction (step S10).
  • the color signal (pixel value) of the target pixel (x, y) and the color signal (pixel value) of the adjacent pixels above, below, left, and right of the target pixel (x, y) are acquired (step S12).
  • the parameter acquisition unit 72 acquires the first to third parameters P1 to P3 as described above based on the position (x, y) of the target pixel (step S14).
  • the color mixture ratio setting unit 73 reads the corresponding color mixture ratios A to D from the memory unit based on the first to third parameters P1 to P3 acquired by the parameter acquisition unit 72 (step S16).
  • step S18 based on the pixel value of the target pixel and the pixel values of adjacent pixels acquired in step S12 and the color mixing ratios A to D read in step S16, the calculation process shown in [Formula 1] is performed, and the target pixel Color mixture correction is performed to remove the color mixture component from the pixel value (step S18).
  • step S20 it is determined whether or not color mixture correction has been completed for all target pixels. If not completed (No in S20), the process proceeds to step S22.
  • step S22 the position (x, y) of the target pixel is moved by one pixel. If the position (x, y) of the target pixel reaches the left end in the horizontal direction, the position is returned to the right end in the horizontal direction. One pixel is moved in the vertical direction, the process proceeds to step S12, and the processes from step S12 to step S20 are repeatedly executed.
  • step S20 if it is determined in step S20 that the color mixture correction has been completed for all target pixels (Yes in S20), the main color mixture correction process is terminated.
  • the present invention is not limited to the mosaic image of the color filter array shown in FIGS. 2A and 2B, and can be applied to mosaic images of various color filter arrays.
  • the above-described color mixture correction can be applied without changing the color mixture correction hardware.
  • the third parameter P3 indicating the position of the own pixel with respect to the amplifier is not necessary, and the mosaic portion has a central portion and a peripheral portion.
  • correction parameters may be set for the positions of adjacent pixels with respect to the correction target pixel, that is, the vertical and horizontal directions and the diagonal direction (upper left, upper right, lower left, lower right) of the correction target pixel.
  • the correction parameter for each position of the adjacent pixel with respect to the correction target pixel, it is possible to perform color mixture correction with higher accuracy.
  • the color mixing determination correction unit 41 of the image processing circuit 32 includes a color mixing correction determination unit 61 that functions as an abnormal oblique incident light detection unit that detects abnormal oblique incident light.
  • the color mixture correction determination unit 61 applies pixel data of the first first direction same color adjacent pixel, the second first direction same color adjacent pixel, the first first direction different color adjacent pixel, and the second first direction different color adjacent pixel. Based on this, it is possible to detect abnormal oblique incident light incident on the color image sensor 27 in the horizontal direction.
  • a pixel having the G filter indicated by reference numeral 1-1 in FIG. 20 (the first pixel of the same color and adjacent in the first direction) is directed toward the paper surface when abnormal oblique incident light is incident in the horizontal direction from the left side toward the paper surface.
  • it is affected by color mixture from a pixel (reference numeral 3-1 in FIG. 20) having a G filter adjacent on the left side.
  • the pixel having the G filter indicated by reference numeral 1-1 in FIG. 20 outputs pixel data Gg.
  • a pixel having the G filter indicated by reference numeral 2-1 in FIG. 20 (second pixel in the first direction and having the same color) is directed toward the paper surface when abnormal oblique incident light is incident in the horizontal direction from the left side toward the paper surface. In other words, it is affected by color mixture from a pixel (reference numeral 4-1 in FIG. 20) having a G filter adjacent on the left side. Then, the pixel having the G filter indicated by reference numeral 2-1 in FIG. 20 outputs pixel data Gg.
  • a pixel having a G filter denoted by reference numeral 3-1 in FIG. 20 (first first direction different color adjacent pixel) is directed toward the paper surface when abnormal oblique incident light is incident in the horizontal direction from the left side toward the paper surface. Thus, it is affected by color mixture from a pixel having a B filter adjacent on the left side. Then, the pixel having the G filter indicated by reference numeral 3-1 in FIG. 20 outputs pixel data Gb.
  • a pixel having a G filter indicated by reference numeral 4-1 in FIG. 20 (second first-color different-color adjacent pixel) is directed toward the paper surface when abnormal oblique incident light is incident in the horizontal direction from the left side toward the paper surface. Thus, it is affected by the color mixture from the pixel having the R filter adjacent to the left side. Then, the pixel having the G filter indicated by reference numeral 4-1 in FIG. 20 outputs pixel data Gr.
  • the color mixture correction determination unit 61 the first same-direction adjacent pixels in the first direction (reference numeral 1-1 in FIG. 20, the second first-direction same-color adjacent pixels (reference numeral 2-1 in FIG. 20), the first The pixel data of one first-direction different color adjacent pixel (reference numeral 3-1 in FIG. 20) and the second first-direction different color adjacent pixel (reference numeral 4-1 in FIG. 20) are compared.
  • the pixel data of the first first direction same color adjacent pixel (reference numeral 1-1 in FIG. 20) and the second first direction same color adjacent pixel (reference numeral 2-1 in FIG. 20) are Gg. The same. Further, the pixel data of the first first-direction different color adjacent pixel (reference numeral 3-1 in FIG. 20) and the second first-direction different color adjacent pixel (reference numeral 4-1 in FIG. 20) are different between Gb and Gr. . From this result, the color mixture correction determination unit 61 can determine that there is abnormally oblique incident light in the horizontal direction from the left side toward the paper surface.
  • the difference value between the pixel data (Gg) of the first color same-color adjacent pixel in the first first direction and the pixel data (Gg) of the second first direction same-color adjacent pixel is the first. It is within 2% of the pixel data of the same color adjacent pixels in the first direction (or the second first direction same color adjacent pixels), and may be within 1% depending on the imaging target.
  • the difference between the pixel data Gb and Gr means that the absolute value of the difference value is 10% or more of the pixel data of the first color same color adjacent pixel (or the second first direction same color adjacent pixel). Depending on the imaging target, it may be 8% or more.
  • a pixel having the G filter indicated by reference numeral 1-3 in FIG. 20 (first-second-direction adjacent pixels in the same color) has an adjacent G-line incident on the paper surface when abnormal oblique incident light is incident in the vertical direction from the upper side. It is affected by color mixture from a pixel having a filter (reference numeral 3-3 in FIG. 20). Then, the pixel having the G filter indicated by reference numeral 1-3 in FIG. 20 outputs pixel data Gg.
  • a pixel having a G filter indicated by reference numeral 2-3 in FIG. 20 (second adjacent pixels in the second direction and the same color) has an adjacent G incident when an obliquely incident light is incident in the vertical direction from the upper side toward the paper surface. It is affected by color mixture from a pixel having a filter (reference numeral 4-3 in FIG. 20). Then, the pixel having the G filter indicated by reference numeral 2-3 in FIG. 20 outputs pixel data Gg.
  • the pixel having the G filter indicated by reference numeral 3-3 in FIG. 20 (first second direction different color adjacent pixel) has B on the upper side when abnormal oblique incident light is incident in the vertical direction from the upper side toward the paper surface. It is affected by the color mixture from the pixel having the filter. Then, the pixel having the G filter indicated by reference numeral 3-3 in FIG. 20 outputs pixel data Gb.
  • the pixel having the G filter indicated by reference numeral 4-3 in FIG. 20 (second second-direction different-color adjacent pixel) has an R on the upper side when abnormal oblique incident light is incident on the vertical direction from the upper side. It is affected by the color mixture from the pixel having the filter. Then, the pixel having the G filter indicated by reference numeral 4-3 in FIG. 20 outputs pixel data Gr.
  • the first second direction same color adjacent pixels reference numeral 1-3 in FIG. 20, the second second direction same color adjacent pixels (reference numeral 2-3 in FIG. 20), the first The pixel data of the first second-direction different color adjacent pixel (reference numeral 3-3 in FIG. 20) and the second second-direction different color adjacent pixel (reference numeral 4-3 in FIG. 20) are compared.
  • the pixel data of one second direction same color adjacent pixel (reference numeral 1-3 in FIG. 20) and the second second direction same color adjacent pixel (reference numeral 2-3 in FIG. 20) are Gg and the same.
  • the pixel data of the first second direction different color adjacent pixel reference numeral 3-3 in FIG.
  • the color mixture correction determination unit 61 determines that there is abnormal oblique incident light in the vertical direction from the upper side toward the paper surface.
  • the same pixel data Gg means that the difference value between the pixel data (Gg) of the first pixel in the second direction and the same color and the pixel data (Gg) of the second pixel in the second direction and the same color is the first. It is within 2% of the pixel data of the second direction same color adjacent pixels (or the second second direction same color adjacent pixels), and may be within 1% depending on the imaging target.
  • the difference between the pixel data Gb and Gr means that the absolute value of the difference value is 10% or more of the pixel data of the first second direction same color adjacent pixel (or the second second direction same color adjacent pixel). Depending on the imaging target, it may be 8% or more.
  • the color mixture correction determination unit 61 performs abnormal oblique incident light from four directions (abnormal oblique incident light incident from the left side toward the paper surface in the horizontal direction and abnormal incident light from the right side toward the paper surface in the horizontal direction. Obliquely incident light, abnormally obliquely incident light incident in the vertical direction from the upper side toward the paper surface, and abnormally obliquely incident light incident in the vertical direction from the lower side toward the paper surface can be detected. In other words, when detecting the abnormally oblique incident light, the color mixture correction determining unit 61 also determines the incident direction of the abnormally oblique incident light.
  • the horizontal direction from the left side to the right side toward the paper surface is defined as the positive direction of the first direction
  • the horizontal direction from the right side to the left side toward the paper surface is described as the negative direction of the first direction
  • the vertical direction from the lower side to the upper side toward the paper surface is described as the positive direction of the second direction
  • the vertical direction from the upper side to the lower side toward the paper surface is described as the negative direction of the second direction.
  • abnormal oblique incident light is detected when the pixel data varies within a certain range as described above.
  • the certain range refers to a range in which a general ghost (an image that does not originally exist due to abnormal oblique incident light) can be detected.
  • the abnormal oblique incident light may be detected, or the abnormal oblique incident light may be detected in 32 pixels ⁇ 32 pixels.
  • the second color mixing correction unit 63 can correct color mixing due to incidence of abnormally oblique incident light. That is, the second color mixing correction unit 63 uses the pixel data Gg and the pixel data Gb and the pixel data Gb when the abnormal oblique incident light that is incident on the color imaging device 27 in the horizontal direction is detected by the abnormal oblique incident light detection unit. Pixel data Gr can be corrected.
  • the influence of color mixing can be minimized. That is, when the pixel data Gg, the pixel data Gr, and the pixel data Gb are compared, the mixed color with respect to the pixel data Gg leaks from the same color pixel and has the least influence of the mixed color. It is desirable to correct Gr and pixel data Gb.
  • the second color mixing correction unit 63 can correct the pixel data Gr and Gb using the pixel data Gg by various methods. For example, the second color mixing correction unit 63 can correct the pixel data of the pixel having the pixel data Gr and Gb by replacing the pixel data with the pixel data Gg. Further, the pixel data of the pixel having the G filter is obtained by calculating an average value of the pixel data Gr and the pixel data Gg, an average value of the pixel data Gb and the pixel data Gg, or an average of the pixel data Gb, the pixel data Gr, and the pixel data Gg. It can also be corrected to a value.
  • the second color mixing correction unit 63 can also perform color mixing correction in consideration of the incident direction of abnormal oblique incident light.
  • 21A and 22A show a part of the color image sensor 27 shown in FIG. 20, and abnormally oblique incident light is incident in the horizontal direction from the right side toward the paper surface of FIGS. 21A to 21E and FIGS. 22A to 22E. Shows the case.
  • Pixel group (first color pixel group) outputs pixel data of Gg, Gg, Gr, and Gb.
  • the pixel data of the pixel having the G filter is corrected based on the four-way pixel data
  • the pixel data affected by the color mixture such as Gr or Gb is used for the correction. Therefore, the value may be different between the corrected pixel data GgC.
  • the values differ between the corrected pixel data GgC.
  • pixel data of four directions left, right, top, bottom
  • the color mixture correction is performed using the value of, and pixel data GgC is obtained.
  • This pixel data GgC is affected by the color mixture because the pixel data indicating Gr affected by the color mixture is used for color mixture correction.
  • the pixel data indicating the upper right Gr toward the paper surface of the first pixel group is subjected to color mixture correction using the values of the four pixel data to obtain the pixel data GrC.
  • pixel data indicating the lower left Gg toward the paper surface of the first pixel group is subjected to color mixture correction using the values of the surrounding pixel data to obtain pixel data GgC.
  • the pixel data GgC is affected by the color mixture because the pixel data indicating Gb affected by the color mixture is used for color mixture correction.
  • color mixture correction is performed on the pixel data indicating Gb at the lower right toward the paper surface of the first pixel group using the values of the surrounding pixel data, and the pixel data GbC Get.
  • color mixture correction is performed on the same pixel data Gg to obtain pixel data GgC.
  • the pixel data GgC in FIGS. 21B and 21D show different values. That is, pixel data Gr in FIG. 21B and pixel data Gb in FIG. 21D are affected by the color mixture, and the color mixture is different between Gr and Gb. A difference due to the influence of color mixing occurs between the two.
  • pixel data indicating Gr on the upper right side of the first pixel group as viewed in the drawing is subjected to color mixture correction using the values of the four pixel data to obtain pixel data GrC.
  • color mixture correction in the incident direction (right side) of abnormal oblique incident light may be strongly performed.
  • color mixture correction is performed on the pixel data indicating Gb at the lower right toward the paper surface of the first pixel group using the values of the pixel data of the four sides, and the pixel data GbC Get.
  • the pixel data indicating the upper left Gg toward the paper surface of the first pixel group is subjected to color mixture correction using the values of the pixel data of the four sides to obtain pixel data GgC.
  • pixel data indicating GrC is used for color mixture correction.
  • GrC performs color mixture correction in advance, the influence of color mixture correction is removed.
  • the pixel data indicating the lower left Gg toward the paper surface of the first pixel group is subjected to color mixture correction using the values of the surrounding pixel data to obtain pixel data GgC.
  • pixel data indicating GbC is used for color mixture correction.
  • GbC performs color mixture correction in advance, the influence of color mixture correction is removed.
  • color mixture correction is performed on the same pixel data Gg, and GgC of the obtained pixel data also shows the same value. This is because, in the case of FIG. 22B, the pixel data Gr is affected by the color mixture, and in the case of FIG. 22C, the pixel data Gb is affected by the color mixture, but before the color mixture correction is performed in FIG. 22D and FIG. This is because the influence of the color mixture is eliminated by performing the color mixture correction in 22B and 22C.
  • the color image sensor 27 having various color filter arrays can be used.
  • a color image sensor 27 having a different color filter array will be described as a modification.
  • FIG. 23 is a diagram showing another embodiment of the color image sensor 27, and particularly shows a color filter array disposed on the light receiving surface of the color image sensor 27.
  • the color filter array shown in FIG. 23 includes a plurality of basic array pixels in which a plurality of basic array pixel groups configured by pixels arranged in 6 pixels ⁇ 6 pixels in the horizontal direction and the vertical direction are juxtaposed in the horizontal direction and the vertical direction. Including groups.
  • the color filter array shown in FIG. 23 includes a basic array pattern P (a pixel group indicated by a thick frame) composed of a square array pattern corresponding to 6 pixels ⁇ 6 pixels, and the basic array pattern P is in the horizontal direction and the vertical direction. It is arranged repeatedly. That is, in this color filter array, an R filter, a G filter, and a B filter are arrayed with periodicity.
  • the basic array pattern P constituting the color filter array shown in FIG. 23 includes a G filter corresponding to a color (G color) that contributes most to obtain a luminance signal, and colors other than the G color (R and B). At least one R filter and B filter corresponding to () in each horizontal and vertical line in the basic array pattern P.
  • the R, G, and B filters are respectively arranged in the horizontal and vertical lines in the basic array pattern P, the occurrence of color moire (false color) can be suppressed.
  • an optical low-pass filter for suppressing the generation of false color can be prevented from being arranged in the optical path from the incident surface of the optical system to the imaging surface, or the occurrence of false color can be prevented even when the optical low-pass filter is applied. Therefore, it is possible to apply a low-frequency component for cutting high-frequency components, and not to impair the resolution.
  • the G filter corresponding to the luminance system pixels is arranged in the basic array pattern P so as to include two or more adjacent portions in each of the horizontal, vertical, and diagonal directions.
  • Each of the basic array patterns P includes two first sub arrays and two second sub arrays configured by color filters of pixels arranged in 3 ⁇ 3 pixels in the horizontal direction and the vertical direction.
  • FIG. 24 shows a state in which the basic array pattern P shown in FIG. 23 is divided into 4 by 3 pixels ⁇ 3 pixels.
  • the first sub-array includes one pixel having an R filter arranged at the center, four pixels having a B filter arranged at the four corners, and a G filter arranged between each of the four corner pixels.
  • the second sub-array is arranged between each of the one pixel having the B filter arranged at the center, the four pixels having the R filter arranged at the four corners, and the pixels at the four corners.
  • the first sub array is arranged adjacent to the second sub array in the horizontal direction and the vertical direction.
  • the basic array pattern P includes a first sub-array of 3 pixels ⁇ 3 pixels surrounded by a solid line frame and a second sub-array of 3 pixels ⁇ 3 pixels surrounded by a broken line frame. It can also be understood that the arrangement is alternately arranged in the horizontal and vertical directions.
  • an R filter is arranged at the center, B filters are arranged at the four corners, and G filters are arranged vertically and horizontally with the center R filter interposed therebetween.
  • the B filter is arranged at the center, the R filters are arranged at the four corners, and the G filters are arranged vertically and horizontally with the center B filter interposed therebetween.
  • the color mixture correction determination unit 61 detects abnormal oblique incident light and specifies the direction as follows.
  • the pixel having the G filter indicated by reference numeral 1-1 in FIG. 23 is adjacent to the pixel having the G filter (reference numeral 3-1 in FIG. 23) on the left side in FIG.
  • a pixel having a G filter in which pixels having a filter are arranged adjacent to each other first-direction first-color adjacent pixels.
  • the pixel having the G filter indicated by reference numeral 2-1 in FIG. 23 is adjacent to the pixel having the G filter (reference numeral 4-1 in FIG. 23) on the left side in FIG.
  • a pixel having an R filter that is different in color from the G filter is adjacently arranged on the left side in FIG.
  • a pixel having a G filter in which pixels having different color filters are arranged adjacent to each other first first direction different color adjacent pixels.
  • the pixel having the G filter indicated by reference numeral 4-1 in FIG. 23 has a pixel having a B filter that is different in color from the G filter on the left side in FIG. It is a pixel (second first direction different color adjacent pixel) having a G filter in which pixels having color filters of different colors are adjacently arranged.
  • the first first-direction same-color adjacent pixel reference numeral 1-1 in FIG. 23
  • the second first-direction same-color adjacent pixel reference numeral 2-1 in FIG. 23
  • the pixel data of the first first-direction different color adjacent pixel reference numeral 3-1 in FIG. 23
  • the second first-direction different color adjacent pixel reference numeral 4-1 in FIG. 23
  • the first first The same direction adjacent color pixel reference numeral 1-1 in FIG. 23
  • the second first direction same color adjacent pixel reference numeral 2-1 in FIG. 23
  • the abnormality proceeds in the horizontal direction from the left side toward the page. The presence of obliquely incident light is detected.
  • the pixel having the G filter indicated by reference numeral 1-2 in FIG. 23 is adjacent to the pixel having the G filter (reference numeral 3-2 in FIG. 23) on the right side in FIG.
  • a pixel having a G filter in which pixels having a filter are arranged adjacent to each other first-direction first-color adjacent pixels.
  • the pixel having the G filter indicated by reference numeral 2-2 in FIG. 23 is adjacent to the pixel having the G filter (reference numeral 4-2 in FIG. 23) on the right side of FIG.
  • a pixel having an R filter having a different color from the G filter is adjacently arranged on the right side of FIG.
  • a pixel having a G filter in which pixels having different color filters are arranged adjacent to each other first first direction different color adjacent pixels.
  • the pixel having the G filter indicated by reference numeral 4-2 in FIG. 23 has a pixel having a B filter that is different in color from the G filter on the right side in FIG.
  • the above-described first first-direction same-color adjacent pixels reference numeral 1-2 in FIG. 23
  • second second-direction same-color adjacent pixels reference numeral 2-2 in FIG. 23
  • the pixel data of the first first-direction different color adjacent pixel (reference numeral 3-2 in FIG. 23) and the second first-direction different color adjacent pixel (reference numeral 4-2 in FIG. 23) are compared, and the first first The same direction adjacent color pixels (reference numeral 1-2 in FIG. 23) and the second first direction same color adjacent pixels (reference numeral 2-2 in FIG. 23) have the same value, and the first first direction different color adjacent pixels ( If the values of the reference 3-2 in FIG. 23 and the second first-direction different-color adjacent pixels (reference 4-2 in FIG. 23) are different, an abnormal oblique progression that proceeds in the horizontal direction from the right toward the paper surface. The presence of incident light is detected.
  • a pixel having a G filter indicated by reference numeral 1-3 in FIG. 23 is adjacent to a pixel having a G filter (reference numeral 3-3 in FIG. 23) on the upper side in FIG. This is a pixel having a G filter adjacent to the pixel having the same pixel (first and second direction same color adjacent pixels).
  • a pixel having a G filter indicated by reference numeral 2-3 in FIG. 23 is adjacent to a pixel having a G filter (reference numeral 4-3 in FIG. 23) on the upper side in FIG. This is a pixel having a G filter in which adjacent pixels are arranged (second-color-direction adjacent pixels in the second direction).
  • the pixel having the G filter indicated by reference numeral 3-3 in FIG. 23 has a pixel having an R filter different in color from the G filter on the upper side in FIG. It is a pixel (first second direction different color adjacent pixel) having a G filter in which pixels having a filter are adjacently arranged.
  • the pixel having the G filter indicated by reference numeral 4-3 in FIG. 23 has a pixel having a B filter different in color from the G filter on the upper side in FIG. This is a pixel (second second direction different color adjacent pixel) having a G filter adjacent to a pixel having the color filter.
  • the first second direction same color adjacent pixels reference numeral 1-3 in FIG. 23
  • the second second direction same color adjacent pixels reference numeral 2-3 in FIG. 23
  • the pixel data of the first second-direction different color adjacent pixel (reference numeral 3-3 in FIG. 23) and the second second-direction different color adjacent pixel (reference numeral 4-3 in FIG. 23) are compared, and the first second The same direction adjacent color pixels (reference numeral 1-3 in FIG. 23) and the second second direction same color adjacent pixels (reference numeral 2-3 in FIG. 23) have the same value, and the first second direction different color adjacent pixels ( If the value of the reference numeral 3-3) in FIG. 23 is different from that of the second second direction different color adjacent pixel (reference numeral 4-3 in FIG. 23), the presence of abnormal oblique incident light from the vertical direction is detected.
  • the pixel data of the first second-direction different color adjacent pixel reference numeral 3-3 in FIG. 23
  • the second second-direction different color adjacent pixel reference numeral 4-3 in FIG
  • a pixel having the G filter (reference numeral 3-4 in FIG. 23) is arranged adjacent to the lower side of FIG. It is a pixel (first and second direction same color adjacent pixels) having a G filter arranged adjacently.
  • a pixel having the G filter (reference numeral 4-4 in FIG. 23) is arranged adjacent to the lower side of FIG. This is a pixel (second pixel in the second direction and the same color) having a G filter arranged adjacently.
  • a pixel having an R filter different in color from the G filter is arranged adjacent to the lower side of FIG. 23 and has a color filter different in color from the G filter. It is a pixel (first second direction different color adjacent pixel) having a G filter in which the pixels are adjacently arranged. Further, the pixel having the G filter indicated by reference numeral 4-4 in FIG. 23 has a pixel having a B filter different in color from the G filter adjacent to the lower side of FIG. A pixel having a G filter (a second second-color different-color adjacent pixel) in which pixels having a pixel are adjacently arranged.
  • the above-described first second direction same color adjacent pixels reference numeral 1-4 in FIG. 23
  • second second direction same color adjacent pixels reference numeral 2-4 in FIG. 23
  • the pixel data of the first second direction different color adjacent pixel (reference numeral 3-4 in FIG. 23) and the second second direction different color adjacent pixel (reference numeral 4-4 in FIG. 23) are compared, and the first second The same direction adjacent pixels (reference numeral 1-4 in FIG. 23) and the second second direction same color adjacent pixels (reference numeral 2-4 in FIG. 23) have the same value, and the first second direction different color adjacent pixels ( If the values of 3-4) in FIG. 23 are different from those of the second second-direction different color neighboring pixels (4-4 in FIG. 23), the presence of abnormal oblique incident light from the vertical direction is detected.
  • the detection of abnormally oblique incident light from the right side with respect to the paper in the horizontal direction by the pixels, detection of abnormally oblique incident light from the vertical direction by the pixels of 1-3 to 4-3, and 1-4-4 In the above description, the detection of abnormally oblique incident light from the vertical direction by the pixel -4 is detected by pixels arranged in adjacent different basic array pixel groups P.
  • reference numerals 1-1 to 4-1 pixels, reference numerals 1-2 to 4-2 pixels, reference numerals 1-3 to 4-3 pixels, and reference numerals 1-4 Detection may be performed from pixels corresponding to pixels 4 to 4-4.
  • FIG. 25 is a diagram showing another embodiment (Modification 2) of the color image sensor 27, and particularly shows a color filter array disposed on the light receiving surface of the color image sensor 27.
  • the color filter array shown in FIG. 25 has a plurality of basic array pixel groups constituted by pixels arranged in 4 ⁇ 4 pixels in the horizontal direction and the vertical direction.
  • the color filter array includes a plurality of basic array pixel groups juxtaposed in the horizontal direction and the vertical direction, and each of the basic array pixel groups includes pixels arranged in 2 ⁇ 2 pixels in the horizontal direction and the vertical direction. Two first sub-sequences and two second sub-sequences.
  • the first sub-array is composed of 4 pixels having a G filter
  • the second sub-array is composed of 2 pixels having an R filter and 2 pixels having a B filter
  • the first sub-array is horizontal and vertical.
  • the first color pixel group is configured by the first sub-array, arranged adjacent to the second sub-array in the direction.
  • the color filter array of FIG. 25 includes a basic array pattern P (a pixel group indicated by a thick frame) composed of a square array pattern corresponding to 4 pixels ⁇ 4 pixels, and this basic array pattern P is in the horizontal direction. And repeatedly arranged in the vertical direction. That is, in this color filter array, an R filter, a G filter, and a B filter are arrayed with periodicity.
  • filters of all the colors R, G, and B are arranged in the horizontal and vertical lines in the basic array pattern P.
  • FIG. 26 shows a state in which the basic array pattern P shown in FIG. 25 is divided into 4 by 2 pixels ⁇ 2 pixels.
  • the basic array pattern P includes a first sub-array of 2 pixels ⁇ 2 pixels surrounded by a solid line frame and a second sub-array of 2 pixels ⁇ 2 pixels surrounded by a broken line frame. It becomes an array arranged alternately in the horizontal and vertical directions.
  • the first sub-array is an array in which R filters and B filters are alternately arranged in the horizontal and vertical directions.
  • the R filter or the B filter is arranged on a diagonal line of a 2 pixel ⁇ 2 pixel array.
  • the pixels having the G filter are arranged in 2 pixels ⁇ 2 pixels.
  • a pixel having a G filter is a pixel group of 2 pixels ⁇ 2 pixels, and is a pixel group of pixels having a G filter.
  • the first first direction same color adjacent pixel, the second first direction same color adjacent pixel, the first first The first direction different color adjacent pixel and the second first direction different color adjacent pixel are configured, and the first second direction same color adjacent pixel, the second second direction same color adjacent pixel, and the first second direction different color adjacent pixel. , And a second second direction different color adjacent pixel.
  • the pixel having the G filter denoted by reference numeral 1-1 in FIG. 25 is adjacent to the pixel having the G filter (reference numeral 3-1 in FIG. 25) on the left side in FIG.
  • a pixel having a G filter in which pixels having a filter are arranged adjacent to each other first-direction first-color adjacent pixels.
  • a pixel having a G filter indicated by reference numeral 2-1 in FIG. 25 is adjacent to a pixel having a G filter (reference numeral 4-1 in FIG. 25) on the left side of FIG.
  • a pixel having the G filter indicated by reference numeral 3-1 in FIG. 25 a pixel having a B filter having a different color is arranged adjacent to the left side of FIG. 25, and a pixel having a different color filter is adjacent to the pixel. It is a pixel (first first direction different color adjacent pixel) having a G filter to be arranged.
  • the pixel having the G filter indicated by reference numeral 4-1 in FIG. 25 has a pixel having an R filter having a different color on the left side in FIG. Are pixels (second first direction different color adjacent pixels) having G filters arranged adjacent to each other.
  • the first first direction same color adjacent pixels reference numeral 1-1 in FIG. 25
  • the second first direction same color adjacent pixels reference numeral 2-1 in FIG. 25
  • the pixel data of the first first-direction different color adjacent pixel (reference numeral 3-1 in FIG. 25) and the second first-direction different color adjacent pixel (reference numeral 4-1 in FIG. 25) are compared, and the first first The same direction adjacent pixels (reference numeral 1-1 in FIG. 25) and the second first direction same color adjacent pixels (reference numeral 2-1 in FIG. 25) have the same value, and the first first direction different color adjacent pixels (
  • the values of the reference numeral 3-1) in FIG. 25 and the second first-direction different color adjacent pixels (reference numeral 4-1 in FIG. 25) are different, the presence of abnormal oblique incident light from the first direction is detected. Is done.
  • the pixel having the G filter indicated by reference numeral 1-2 in FIG. 25 is adjacent to the pixel having the G filter on the right side (reference numeral 4-2 in FIG. 25) in FIG.
  • a pixel having a G filter in which pixels having a filter are arranged adjacent to each other first-direction first-color adjacent pixels.
  • the pixel having the G filter indicated by reference numeral 2-2 in FIG. 25 is adjacent to the pixel having the G filter (reference numeral 3-2 in FIG. 25) on the right side in FIG.
  • a pixel having the G filter indicated by reference numeral 3-2 in FIG. 25 a pixel having a B filter having a different color is arranged adjacent to the right side of FIG. 25, and a pixel having a different color filter is adjacent to the pixel. It is a pixel (first first direction different color adjacent pixel) having a G filter to be arranged.
  • the pixel having the G filter indicated by reference numeral 4-2 in FIG. 25 is a pixel having an R filter having a different color on the right side in FIG. Are pixels (second first direction different color adjacent pixels) having G filters arranged adjacent to each other.
  • the above-described first first-direction same-color adjacent pixels reference numeral 1-2 in FIG. 25
  • second first-direction same-color adjacent pixels reference numeral 2-2 in FIG. 25
  • the pixel data of the first first-color different-color adjacent pixel (reference numeral 3-2 in FIG. 25) and the second first-direction different-color adjacent pixel (reference numeral 4-2 in FIG. 25) are compared, and the first first The same direction adjacent pixels (reference numeral 1-2 in FIG. 25) and the second first direction same color adjacent pixels (reference numeral 2-2 in FIG. 25) have the same value, and the first first direction different color adjacent pixels ( If the values of 3-2) in FIG. 25 are different from those of the second first-direction different color neighboring pixels (4-2 in FIG. 25), the abnormal oblique progressing in the horizontal direction from the right toward the paper surface. The presence of incident light is detected.
  • the pixel having the G filter indicated by reference numeral 1-3 in FIG. 25 is adjacent to the pixel having the G filter (reference numeral 3-3 in FIG. 25) on the upper side in FIG.
  • a pixel having a G filter in which pixels having a filter are adjacently arranged (first color in the second direction and adjacent pixels).
  • the pixel having the G filter indicated by reference numeral 2-3 in FIG. 25 is adjacent to the pixel having the G filter (reference numeral 4-3 in FIG. 25) on the upper side in FIG.
  • pixels having R filters having different colors on the upper side in FIG. 25 are adjacently arranged, and pixels having different color filters are adjacent to each other. It is a pixel (first second direction different color adjacent pixel) having a G filter to be arranged.
  • the pixel having the G filter indicated by reference numeral 4-3 in FIG. 25 is a pixel having a B filter having a different color on the upper side in FIG. 25, and a pixel having a different color filter. Is a pixel (second second direction different color adjacent pixel) having a G filter adjacently arranged.
  • the first second direction same color adjacent pixels reference numeral 1-3 in FIG. 25
  • the second second direction same color adjacent pixels reference numeral 2-3 in FIG. 25
  • the pixel data of the first second direction different color adjacent pixel (reference numeral 3-3 in FIG. 25) and the second second direction different color adjacent pixel (reference numeral 4-3 in FIG. 25) are compared, and the first second The same direction adjacent pixels (reference numeral 1-3 in FIG. 25) and the second second direction same color adjacent pixels (reference numeral 2-3 in FIG. 25) have the same value, and the first second direction different color adjacent pixels ( When the value of the reference numeral 3-3) in FIG. 25 is different from that of the second second-direction different color adjacent pixel (reference numeral 4-3 in FIG. 25), the presence of abnormal oblique incident light from the vertical direction is detected.
  • the pixel data of the first second direction different color adjacent pixel reference numeral 3-3 in FIG. 25
  • the second second direction different color adjacent pixel reference numeral 4-3 in FIG. 25
  • the pixel having the G filter indicated by reference numeral 1-4 in FIG. 25 is adjacent to the pixel having the G filter (reference numeral 3-4 in FIG. 25) on the lower side in FIG.
  • a pixel having a G filter in which pixels having a color filter are arranged adjacent to each other first and second direction same color adjacent pixels.
  • a pixel having a G filter indicated by reference numeral 2-4 in FIG. 25 is adjacent to a pixel having a G filter (reference numeral 4-4 in FIG. 25) on the lower side in FIG.
  • a pixel having an R filter having a different color on the lower side in FIG. It is a pixel (first second direction different color adjacent pixel) having a G filter arranged adjacently.
  • the pixel having the G filter indicated by reference numeral 4-4 in FIG. 25 has a pixel having a B filter of a different color on the lower side toward the paper surface of FIG. 25 and has a different color filter. It is a pixel (second second direction different color adjacent pixel) having a G filter adjacent to the pixel.
  • the color mixture correction determination unit 61 the first second direction same color adjacent pixels (reference numeral 1-4 in FIG. 25), the second second direction same color adjacent pixels (reference numeral 2-4 in FIG. 25) described above,
  • the pixel data of the first second-direction different color adjacent pixel (reference numeral 3-4 in FIG. 25) and the second second-direction different color adjacent pixel (reference numeral 4-4 in FIG. 25) are compared, and the first second The same direction adjacent pixels (reference numeral 1-4 in FIG. 25) and the second second direction same color adjacent pixels (reference numeral 2-4 in FIG. 25) have the same value, and the first second direction different color adjacent pixels ( If the values of 3-4) in FIG. 25 and the second second-direction different color adjacent pixels (reference 4-4 in FIG. 25) are different, the presence of abnormal oblique incident light from the vertical direction is detected.
  • the color imaging device 27 having the color filter array shown in FIG. 25 shows how to determine whether the obliquely incident light is incident in the positive direction or the negative direction in the horizontal direction. It is shown. In FIGS. 27 and 28, the right side is the positive direction and the left side is the negative direction toward the page.
  • the plurality of pixels shown in FIGS. 27 and 28 are adjacent to the pixel having the G filter in the horizontal positive direction and adjacent to the pixel having the color filter different from the first color in the horizontal negative direction.
  • 2-2 a third pixel having a G filter adjacent to a pixel having a G filter in the negative direction in the horizontal direction and a pixel having a color filter of a different color from the first color in the horizontal direction.
  • 27 includes a first color pixel (reference numeral 1-1 in FIG. 27) (reference numeral 4-2 in FIG. 28) and a fourth first color pixel (reference numeral 2-1 in FIG. 27) (reference numeral 3-2 in FIG. 28). .
  • FIG. 27 shows a state in which abnormal oblique incident light is incident along the positive direction in the horizontal direction.
  • the third first color pixel (reference numeral 1-1 in FIG. 27) is a pixel having an adjacent G filter ( Since there is a color mixture from 3-1) in FIG. 27, the pixel data is Gg.
  • the fourth first color pixel (reference numeral 2-1 in FIG. 27) also has a mixed color from the pixel having the adjacent G filter (reference numeral 2-1 in FIG. 27), the pixel data becomes Gg.
  • the pixel data is Gb.
  • the second first color pixel has a color mixture from a pixel having an R filter adjacent on the negative direction side, the pixel data becomes Gr.
  • the first first color pixel (reference numeral 3-1 in FIG. 27) is Gb
  • the second first color pixel (reference numeral 4-1 in FIG. 27) is Gr
  • the third first color pixel When an output value of Gg is detected for the color pixel (reference numeral 1-1 in FIG. 27) and Gg is detected for the fourth first color pixel (reference numeral 2-1 in FIG. 27), the output value is along the positive direction in the horizontal direction. Thus, it can be determined that there is incidence of abnormally oblique incident light. Furthermore, when the pixel data of the first pixel or the second pixel is Gg, it can be determined that there is abnormal oblique incident light from the first positive direction.
  • FIG. 28 shows a state in which abnormally oblique incident light is incident along the horizontal negative direction.
  • the third first color pixel selects an R filter adjacent to the positive direction side. Since there is a mixed color from the pixel having the pixel data, the pixel data becomes Gr. Also, since the fourth first color pixel (reference numeral 3-2 in FIG. 28) also has a color mixture from a pixel having a B filter adjacent on the positive direction side, the pixel data becomes Gb.
  • the first first color pixel (reference numeral 1-2 in FIG. 28) has a color mixture from the pixel (reference numeral 4-2 in FIG. 28) having the G filter adjacent on the positive direction side, Gg.
  • the second first color pixel (reference numeral 2-2 in FIG. 28) has a mixed color from the pixel having the G filter adjacent on the positive direction side (reference numeral 3-2 in FIG. 28), the pixel data is Gg.
  • the first first color pixel (reference numeral 1-2 in FIG. 28) is Gg
  • the second first color pixel (reference numeral 2-2 in FIG. 28) is Gg
  • the third first When the output value of Gr is detected for the color pixel (reference numeral 4-2 in FIG. 28) and Gb is detected for the fourth first color pixel (reference numeral 3-2 in FIG. 28), it follows the negative direction in the horizontal direction. Thus, it can be determined that there is incidence of abnormally oblique incident light. Furthermore, when the pixel data of the first pixel or the second pixel is Gg, it can be determined that there is abnormally oblique incident light from the horizontal negative direction.
  • the same pixel data is output among the first first color pixel, the second first color pixel, the third first color pixel, and the fourth first color pixel.
  • the pixel data of the pixel to be corrected the pixel data of the pixel having the photodiode to which the abnormally oblique incident light is incident can be corrected.
  • the embodiment of the color image sensor 27 (the image sensor having the color filter array shown in FIGS. 20, 23, and 25) is abnormal from either the positive direction or the negative direction with respect to the horizontal direction and the vertical direction. It is possible to determine whether incident light of oblique incident light is incident.
  • FIG. 29 is a diagram showing another embodiment (Modification 3) of the color image sensor 27, and particularly shows a color filter array disposed on the light receiving surface of the color image sensor 27.
  • the color filter array shown in FIG. 29 there are a plurality of basic array patterns P configured by color filters of pixels arranged in 4 ⁇ 4 pixels in the horizontal direction and the vertical direction, and are juxtaposed in the horizontal direction and the vertical direction. Including a plurality of basic array patterns P.
  • filters of all the colors R, G, and B are arranged in the horizontal and vertical lines in the basic array pattern P.
  • the pixel block Q (illustrated by a dotted line in FIG. 29) includes two pixels having an R filter, two pixels having a B filter, and five pixels having a G filter in each of the pixel groups of the basic array pattern P.
  • Each of the basic array patterns P includes two first sub arrays and two second sub arrays configured by color filters of pixels arranged in 2 pixels ⁇ 2 pixels in the horizontal direction and the vertical direction.
  • FIG. 30 shows a state in which the basic array pattern P shown in FIG. 29 is divided into 4 by 2 pixels ⁇ 2 pixels.
  • the first sub-array is composed of 3 pixels having a G filter and 1 pixel having an R filter
  • the second sub-array is 3 pixels having a G filter and 1 pixel having a B filter.
  • the position of the pixel having the R filter in the first sub-array and the position of the pixel having the B filter in the second sub-array correspond to each other, and the first sub-array is arranged in the horizontal direction and the vertical direction. Adjacent to two subsequences.
  • the basic array pattern P includes a first sub-array of 2 pixels ⁇ 2 pixels surrounded by a solid frame and a second of 2 pixels ⁇ 2 pixels surrounded by a dashed frame. These sub-arrays are arranged alternately in the horizontal and vertical directions.
  • the first sub-array has three G filters and one R filter. Further, the second sub-array has three G filters and one B filter. Furthermore, the position where the R filter is arranged in the first sub-array is the same as the position where the B filter is arranged in the second sub-array.
  • the pixels having the R filter on the left side and the B filter on the right side are arranged adjacent to each other in FIG. 29, and the pixels having the different color filters are adjacent to each other. It is a pixel (first first direction different color adjacent pixel) having a G filter to be arranged.
  • the pixel having the G filter indicated by reference numeral 4A in FIG. 29 has a pixel having a B filter on the left side and an R filter on the right side adjacent to the paper surface of FIG. Are pixels (second first direction different color adjacent pixels) having G filters arranged adjacent to each other.
  • the first first-direction same-color adjacent pixels reference numeral 1A in FIG. 29
  • the second first-direction same-color adjacent pixels reference numeral 2A in FIG. 29
  • the first first-direction pixels The pixel data of the one-direction different color adjacent pixel (reference numeral 3A in FIG. 29) and the second first direction different color adjacent pixel (reference numeral 4A in FIG. 29) are compared, and the first first direction same-color adjacent pixel (in FIG. 29) is compared.
  • the second first direction same color adjacent pixel has the same value
  • the detection of abnormally oblique incident light performed by the color mixture correction determination unit 61 from the vertical direction will be specifically described.
  • the pixels having the G filter are arranged adjacent to each other on the upper side and the lower side in FIG. 29, and the pixels having the same color filter are arranged adjacent to each other. Pixels having the same G filter (first-second-direction same-color adjacent pixels).
  • the pixels having the G filter are arranged adjacent to each other on the upper side and the lower side in FIG. 29, and the pixels having the same color filter are arranged adjacent to each other. Pixels having the same G filter (second-direction second-color adjacent pixels).
  • pixels having R filters and B filters having different colors on the upper and lower sides are arranged adjacent to each other in FIG. Since the pixel having the G filter is arranged adjacent to the pixel having the first pixel, the pixel can be a first pixel in the second direction different color.
  • the pixel having the G filter indicated by reference numeral 4B in FIG. 29 has pixels having different B filters and R filters on the upper side and the lower side adjacent to the paper surface of FIG. Since the pixel having a filter is a pixel having a G filter that is adjacently disposed, it can be a second-color different-color adjacent pixel.
  • the first second-direction same-color adjacent pixel (reference numeral 1B in FIG. 29), the second second-direction same-color adjacent pixel (reference numeral 2B in FIG. 29), and the first first- The pixel data of the two-direction different color adjacent pixel (reference numeral 3B in FIG. 29) and the second second direction different color adjacent pixel (reference numeral 4B in FIG. 29) are compared, and the first second direction same-color adjacent pixel (in FIG. 29). 1B), the second second direction same-color adjacent pixel (reference 2B in FIG. 29) has the same value, and the first second direction different color adjacent pixel (3B in FIG. 29) and the second second When the value differs from the two-direction different color adjacent pixel (reference numeral 4B in FIG. 29), the presence of abnormal oblique incident light from the vertical direction is detected.
  • pixels having G filters are arranged in a row in the horizontal direction, or pixels having G filters are arranged. Since they are continuously arranged in the vertical direction, the direction of abnormally oblique incident light can be more easily performed.
  • the color mixture correction determination unit 61 performs an abnormal oblique incident on the color image sensor 27 in the horizontal direction or the vertical direction based on pixel data of five pixels having a G filter included in a pixel block (shown by a dotted line in FIG. 29). Incident light can be detected.
  • FIG. 31 shows a case where abnormal oblique incident light is incident from the horizontal direction of the color image sensor 27 having the color filter array shown in FIG.
  • FIG. 32 shows a case where abnormally oblique incident light from the vertical direction is incident on the color image sensor 27 having the color filter array shown in FIG.
  • the pixel data of the pixels having the G filters continuously arranged in the horizontal direction is Gg.
  • pixel data indicating the value of Gg is continuously arranged in the horizontal direction. In this case, abnormal oblique incident light from the horizontal direction is detected.
  • the pixel data of the pixels having the G filters continuously arranged in the vertical direction is Gg.
  • pixel data indicating the value of Gg is continuously arranged in the vertical direction. In this case, abnormal oblique incident light from the vertical direction is detected.
  • the plurality of pixels are configured by pixels having at least a G filter, an R filter, and a B filter. Further, pixel data output by a pixel having a G filter contributes most to obtaining a luminance signal.
  • the first color pixel has a green, transparent, or white color filter.
  • the transparent filter and the white filter are filters that transmit all of light in the red wavelength range, light in the blue wavelength range, and light in the green wavelength range, and the transparent filter has a relatively high light transmittance (for example, light transmission of 70% or more).
  • the white filter has a lower light transmittance than the transparent filter.
  • the color filter array arranged on the light receiving surface of the color image sensor 27 can be employed other than the array shown here.
  • an array group of N pixels ⁇ M pixels (N is an integer of 3 or more and M is an integer of 3 or more) in the first direction and the second direction is a basic array pixel group, and the basic array pixel group is the first
  • An arrangement juxtaposed in the second direction and the second direction can be employed.
  • Each of the basic array pixel groups includes a first first direction same color adjacent pixel, a second first direction same color adjacent pixel, a first first direction different color adjacent pixel, a second first direction different color adjacent pixel, An array including the first second direction same color adjacent pixel, the second second direction same color adjacent pixel, the first second direction different color adjacent pixel, and the second second direction different color adjacent pixel may also be adopted.
  • the pixel arrangement of the color image sensor 27 is not particularly limited.
  • an array group of N pixels ⁇ M pixels (N is an integer of 3 or more and M is an integer of 3 or more) in the first direction (for example, the horizontal direction) and the second direction (for example, the vertical direction) is used as the basic array pattern.
  • An array in which the basic array pattern is juxtaposed in the first direction and the second direction can be adopted as the pixel array of the color image sensor 27.
  • the size of the basic array pattern is preferably not more than 10 pixels ⁇ 10 pixels (horizontal direction ⁇ vertical direction), and more preferably 8 pixels ⁇ 8 pixels ( The size below (horizontal direction x vertical direction) is preferable.
  • the digital camera 10 has been described, but the configuration of the imaging device (image processing device) is not limited to this.
  • a built-in type or an external type PC camera or a portable terminal apparatus having a photographing function as described below can be used.
  • the present invention can also be applied to a program (software) that causes a computer to execute the above-described processing steps (procedures).
  • Examples of the portable terminal device that is an embodiment of the imaging device (image processing device) of the present invention include a mobile phone, a smartphone, a PDA (Personal Digital Assistants), and a portable game machine.
  • a smartphone will be described as an example, and will be described in detail with reference to the drawings.
  • FIG. 34 shows the appearance of a smartphone 101 which is an embodiment of an imaging apparatus (image processing apparatus) of the present invention.
  • a smartphone 101 illustrated in FIG. 34 includes a flat housing 102, and a display input in which a display panel 121 as a display unit and an operation panel 122 as an input unit are integrated on one surface of the housing 102. Part 120 is provided. Further, the casing 102 includes a speaker 131, a microphone 132, an operation unit 140, and a camera unit 141. Note that the configuration of the housing 102 is not limited to this, and, for example, a configuration in which the display unit and the input unit are independent, or a configuration having a folding structure or a slide mechanism may be employed.
  • FIG. 35 is a block diagram showing a configuration of the smartphone 101 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 110, a display input unit 120, a call unit 130, an operation unit 140, a camera unit 141, a storage unit 150, and an external input / output unit. 160, a GPS (Global Positioning System) receiving unit 170, a motion sensor unit 180, a power supply unit 190, and a main control unit 100.
  • a wireless communication function for performing mobile wireless communication via the base station apparatus BS and the mobile communication network NW is provided.
  • the wireless communication unit 110 performs wireless communication with the base station apparatus BS accommodated in the mobile communication network NW in accordance with an instruction from the main control unit 100. Using such wireless communication, transmission / reception of various file data such as audio data and image data, e-mail data, and reception of Web data, streaming data, and the like are performed.
  • the display input unit 120 displays images (still images and moving images), character information, and the like visually under the control of the main control unit 100, visually transmits information to the user, and detects user operations on the displayed information.
  • This is a so-called touch panel, and includes a display panel 121 and an operation panel 122.
  • the display panel 121 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • the operation panel 122 is a device that is placed so that an image displayed on the display surface of the display panel 121 is visible and detects one or more coordinates operated by a user's finger or stylus. When such a device is operated with a user's finger or stylus, a detection signal generated due to the operation is output to the main control unit 100. Next, the main control unit 100 detects an operation position (coordinates) on the display panel 121 based on the received detection signal.
  • the display panel 121 and the operation panel 122 of the smartphone 101 exemplified as an embodiment of the imaging apparatus (image processing apparatus) of the present invention integrally constitute a display input unit 120.
  • the operation panel 122 is disposed so as to completely cover the display panel 121.
  • the operation panel 122 may also have a function of detecting a user operation for an area outside the display panel 121.
  • the operation panel 122 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 121 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 121. May be included).
  • the operation panel 122 may include two sensitive regions of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 102 and the like.
  • examples of the position detection method employed in the operation panel 122 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. You can also
  • the call unit 130 includes a speaker 131 and a microphone 132, converts user's voice input through the microphone 132 into voice data that can be processed by the main control unit 100, and outputs the voice data to the main control unit 100, or a wireless communication unit. 110 or the audio data received by the external input / output unit 160 is decoded and output from the speaker 131.
  • the speaker 131 can be mounted on the same surface as the surface on which the display input unit 120 is provided, and the microphone 132 can be mounted on the side surface of the housing 102.
  • the operation unit 140 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 140 is mounted on the side surface of the housing 102 of the smartphone 101 and is turned on when pressed with a finger or the like, and turned off when the finger is released with a restoring force such as a spring. It is a push button type switch.
  • the storage unit 150 includes a control program and control data of the main control unit 100, application software, address data that associates the name and telephone number of a communication partner, transmitted and received e-mail data, Web data downloaded by Web browsing, The downloaded content data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 150 includes an internal storage unit 151 with a built-in smartphone and an external storage unit 152 having a removable external memory slot.
  • each of the internal storage unit 151 and the external storage unit 152 constituting the storage unit 150 includes a flash memory type, a hard disk type, a multimedia card micro type, a multimedia card micro type, This is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • a card type memory for example, MicroSD (registered trademark) memory
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the external input / output unit 160 serves as an interface with all external devices connected to the smartphone 101, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE 1394, etc.
  • a network for example, Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark) ZigBee) (registered trademark, etc.) for direct or indirect connection.
  • an external device connected to the smartphone 101 for example, a wired / wireless headset, wired / wireless external charger, wired / wireless data port, memory card (Memory card) or SIM (Subscriber) connected via a card socket, for example.
  • Identity Module Card / UIM (User Identity Module Card) card external audio / video equipment connected via audio / video I / O (Input / Output) terminal, external audio / video equipment connected wirelessly, yes / no
  • the external input / output unit may transmit the data received from such an external device to each component inside the smartphone 101, or may allow the data inside the smartphone 101 to be transmitted to the external device. it can.
  • the GPS receiving unit 170 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 100, executes positioning calculation processing based on the received plurality of GPS signals, and calculates the latitude of the smartphone 101, A position consisting of longitude and altitude is detected.
  • the GPS receiving unit 170 can acquire position information from the wireless communication unit 110 or the external input / output unit 160 (for example, a wireless LAN), the GPS receiving unit 170 can also detect the position using the position information.
  • the motion sensor unit 180 includes, for example, a triaxial acceleration sensor and detects the physical movement of the smartphone 101 in accordance with an instruction from the main control unit 100. By detecting the physical movement of the smartphone 101, the moving direction and acceleration of the smartphone 101 are detected. Such a detection result is output to the main control unit 100.
  • the power supply unit 190 supplies power stored in a battery (not shown) to each unit of the smartphone 101 in accordance with an instruction from the main control unit 100.
  • the main control unit 100 includes a microprocessor, operates according to a control program and control data stored in the storage unit 150, and controls each unit of the smartphone 101 in an integrated manner.
  • the main control unit 100 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 110.
  • the application processing function is realized by the main control unit 100 operating according to the application software stored in the storage unit 150.
  • Application processing functions include, for example, an infrared communication function that controls the external input / output unit 160 to perform data communication with the opposite device, an e-mail function that transmits and receives e-mails, and a web browsing function that browses web pages. .
  • the main control unit 100 also has an image processing function such as displaying video on the display input unit 120 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function refers to a function in which the main control unit 100 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 120.
  • the main control unit 100 executes display control for the display panel 121 and operation detection control for detecting a user operation through the operation unit 140 and the operation panel 122.
  • the main control unit 100 By executing display control, the main control unit 100 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 121.
  • the main control unit 100 detects a user operation through the operation unit 140, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 122. Or a display image scroll request through a scroll bar.
  • the main control unit 100 causes the operation position with respect to the operation panel 122 to overlap with the display panel 121 (a display area) or an outer edge part (a non-display area) that does not overlap with the other display panel 121.
  • a touch panel control function for controlling the sensitive area of the operation panel 122 and the display position of the software key.
  • the main control unit 100 can also detect a gesture operation on the operation panel 122 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 141 is a digital camera that performs electronic photography using an imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) and a CCD (Charge-Coupled Device).
  • the camera unit 141 converts image data obtained by imaging into compressed image data such as JPEG (Joint Photographic Coding Experts Group) under the control of the main control unit 100 and records the data in the storage unit 150 or externally.
  • the data can be output through the input / output unit 160 and the wireless communication unit 110.
  • the camera unit 141 is mounted on the same surface as the display input unit 120.
  • the mounting position of the camera unit 141 is not limited to this, and is mounted on the back surface of the display input unit 120.
  • a plurality of camera units 141 may be mounted.
  • the camera unit 141 used for shooting can be switched to shoot alone, or a plurality of camera units 141 can be used for shooting simultaneously.
  • the camera unit 141 can be used for various functions of the smartphone 101.
  • an image acquired by the camera unit 141 can be displayed on the display panel 121, and the image of the camera unit 141 can be used as one of operation inputs of the operation panel 122.
  • the GPS receiving unit 170 detects the position
  • the position can also be detected with reference to an image from the camera unit 141.
  • the optical axis direction of the camera unit 141 of the smartphone 101 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 141 can also be used in the application software.
  • the position information acquired by the GPS receiver 170 on the image data of the still image or the moving image the voice information acquired by the microphone 132 (the voice text may be converted by the main control unit or the like to become text information),
  • the posture information acquired by the motion sensor unit 180 or the like can be added and recorded in the storage unit 150 or output through the external input / output unit 160 or the wireless communication unit 110.
  • the image processing circuit 32 in FIG. 1 can be appropriately realized by, for example, the main control unit 100, the storage unit 150, and the like.
  • DESCRIPTION OF SYMBOLS 10 ... Digital camera, 12 ... Camera body, 14 ... Lens unit, 20 ... Shooting optical system, 21 ... Zoom lens, 22 ... Focus lens, 23 ... Mechanical shutter, 24 ... Zoom mechanism, 25 ... Focus mechanism, 26 ... Lens driver, 27: Color imaging device, 30 ... CPU, 31 ... Imaging device driver, 32 ... Image processing circuit, 33 ... Media interface, 34 ... Compression / decompression processing circuit, 35 ... Display control unit, 36 ... Operation unit, 37 ... Memory, 38 ... Memory card, 40 ... Back LCD, 41 ... Color mixing determination correction unit, 42 ... WB correction unit, 43 ... Signal processing unit, 44 ... RGB integration unit, 45 ... WB gain calculation unit, 50 ...

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

 本発明に係る画像処理装置、画像処理方法及びプログラム、並びに記録媒体では、異常斜め入射光(ゴースト光)が入射する画素の画素データに対しては同色画素間の画素データの段差を低減し、また異常斜め入射光が入射していない画素の画素データに対しては画素特性に起因する混色を補正し、高品質な画像データを得る。モザイク状の画像データ(RGB画像)が混色判定補正部に入力されると、混色補正判定部によって画像データ(画素データ)が取得され、画像データにおけるゴースト光等の異常斜め入射光の有無が混色補正判定部によって判定される。画像データに異常斜め入射光の入射があると判定された場合、混色補正Bが行われ、G画素間の画素データの段差が解消される。一方、画像データに異常斜め入射光の入射がないと判定された場合、混色補正Aが行われ、撮像素子固有の画素特性に応じた混色が補正される。

Description

画像処理装置、画像処理方法及びプログラム、並びに記録媒体
 本発明は画像処理装置、画像処理方法及びプログラム、並びに記録媒体に係り、特に、異常斜め入射光の有無に応じた混色補正を行う技術に関する。
 一般に、モザイク状のカラーフィルタ配列を有する単板方式の撮像素子では、隣接画素からの光の漏れ込みによる混色が発生する。混色の影響が大きいRGBの色信号をデジタル信号処理して画像を生成すると画像の色再現性(画質)が低下し、また混色の影響が大きいRGBの色信号からはホワイトバランス(WB)補正用のWBゲインを精度良く算出することが難しい。
 また、デジタルカメラ等の撮像装置によって被写体像を撮影する際に強い光がレンズに入射すると、撮影レンズやマクロレンズの表面で反射した光がレンズ内部やカメラ内部で複雑に反射し、意図しない角度で進行する光が撮像素子によって受光されることがある。このように、意図していない角度から撮像素子に入射する異常斜め入射光は、いわゆるゴーストやフレア等の現象を起こし、撮影画像の画質を劣化させる。
 とりわけ異常斜め入射光の角度が大きい場合には、異常斜め入射光の少なくとも一部が、通過するカラーフィルタと隣接する画素のフォトダイオードに入射してしまう。このように、異常斜め入射光が通過したカラーフィルタと実際に受光されるフォトダイオードとが完全に対応しない場合、この異常斜め入射光によりいわゆる混色現象が大きく引き起こされ、撮影画像の色再現性の劣化を招く。
 混色の影響を軽減する手法として、例えば特許文献1は、ゴーストに伴う色ノイズの発生を抑制する撮像装置を開示する。この撮像装置では、RAWデータを用いてゴーストに伴う色ノイズの発生が検出され、色ノイズの発生が検出された画素データの輝度レベル値が補正される。
 また特許文献2は、各画素に対する混色補正処理の精度を向上させる撮像装置を開示する。この撮像装置では、補正対象画素に周辺画素から混入する信号成分に関する特性を示す混色特性情報が記憶され、画素配列における補正対象画素の位置と混色特性情報とに応じて補正係数が求められて、補正対象画素から読み出された信号の補正が行われる。
特開2005-333251号公報 特開2010-130583号公報
 従来使用されてきた撮像素子は、比較的シンプルなカラーフィルタ配列を有することが多い。例えば広く使用されているベイヤ配列では、隣接配置される「R画素及びG画素」と「G画素及びB画素」とによって構成される2画素(水平方向)×2画素(垂直方向)の計4画素が水平方向及び垂直方向に繰り返し配置されることでカラーフィルタ配列が構成される。
 このようなシンプルなカラーフィルタ配列を有する撮像素子では、混色現象も比較的単純であるため、比較的簡単な混色補正によって画像データ上で混色の影響を低減することが可能である。
 しかしながら、最近では比較的複雑なカラーフィルタ配列を有する撮像素子も使用されるようになってきており、同色のカラーフィルタを有する画素同士であっても、隣接する画素(カラーフィルタ)の種類が異なる画素が複数存在する場合がある。例えば緑色のカラーフィルタを有する画素(G画素)は、ベイヤ配列では隣接する画素タイプ(カラーフィルタタイプ)によって2種類に分類されるが、複雑なカラーフィルタ配列では非常に多種類(例えば10種類以上)に分類される。
 混色の影響は隣接画素の種類によって変動するため、同色のカラーフィルタを有する画素であっても、隣接する画素(カラーフィルタ)の種類に対応した混色補正を行うことが好ましい。
 しかしながら、複雑なカラーフィルタ配列を有する撮像素子では混色現象も複雑化し、本来同一又は近似する画素データを出力する近接同色画素であっても、混色現象によって、隣接画素のカラーフィルタの種類に応じた異なる画素データが近接同色画素から出力されることがある。
 特にゴースト光のように通常光とは異なる入射角の光(異常斜め入射光)が撮像素子に入射すると、隣接画素のカラーフィルタを通過したゴースト光の漏れ込みにより、近接同色画素間で画素データの不自然な相違(同色段差)が発生してしまう。この段差現象は、同色画素であっても隣接画素タイプに応じた種類が多くなるほど複雑化する。複雑なカラーフィルタ配列を有する撮像素子においてゴースト光の入射により発生した複雑な混色現象は、通常の混色補正では十分には補正することができないこともある。とりわけカラーフィルタ配列に関して「3画素(水平方向)×3画素(垂直方向)」以上の画素数によって構成される基本配列パターンを有する撮像素子から出力される画像データでは、通常の混色補正では対応しきれない場合もある。
 このように、ゴースト光のような異常斜め入射光が撮像素子に入射する場合、近接同色画素から出力される「隣接する画素タイプに応じた異なる画素データ」に基づく段差現象が顕著に生じることがあるため、そのような段差を可能な限り取り除くことが好ましい。特に、複雑なカラーフィルタ配列を有する撮像素子にゴースト光が入射した状態で得られた画像データにおいて、ゴースト光に起因する「同色画素間での画素データの段差」を効果的に取り除くことが望まれている。
 一方、ゴースト光が撮像素子に入射しない場合であっても、撮像素子の画素特性(マイクロレンズ、カラーフィルタ、フォトダイオード、配線等の配置、サイズ、物性値等に基づく特性)に基づき、隣接画素からの光の漏れ込みが生じて混色現象が生じる。したがって、ゴースト光が撮像素子に入射しない場合には、そのような撮像素子の画素特性に最適化された混色補正により、隣接画素からの光の漏れ込みによる混色を低減することが望まれている。
 本発明は上述の事情に鑑みてなされたものであり、ゴースト光等の異常斜め入射光が入射する画素の画素データに対してはこの異常斜め入射光に起因する同色画素間の画素データの段差を低減し、また異常斜め入射光が入射していない画素の画素データに対しては画素特性に起因する混色を補正することで、高品質な画像データを得る技術を提供することを目的とする。
 本発明の一態様は、カラーフィルタ及びフォトダイオードを含み受光量に応じた画素データを出力する複数の画素を有する撮像素子より出力される画像データから、異常斜め入射光の有無を検出する異常斜め入射光検出手段と、補正対象画素の隣接画素の画素データに基づいて、補正対象画素の画素データに第1の混色補正を行う第1の混色補正手段と、補正対象画素の周辺画素の画素データに基づいて、補正対象画素の画素データに第2の混色補正を行う第2の混色補正手段と、異常斜め入射光検出手段の検出結果に応じて、第1の混色補正手段及び第2の混色補正手段のうちいずれによって画像データの補正を行うか判定する混色補正判定手段と、を備え、混色補正判定手段は、異常斜め入射光検出手段によって異常斜め入射光が検出されない場合には第1の混色補正手段によって補正対象画素の画素データの補正を行い、異常斜め入射光検出手段によって異常斜め入射光が検出される場合には第2の混色補正手段によって補正対象画素の画素データの補正を行う判定をする画像処理装置に関する。
 本態様によれば、異常斜め入射光が検出されない場合には補正対象画素の画素データに対して補正対象画素の隣接画素の画素データに基づく第1の混色補正が行われ、異常斜め入射光が検出される場合には補正対象画素の周辺画素の画素データに基づく第2の混色補正が行われる。
 したがって、特に配列マトリクスサイズが大きい撮像素子に対しても本態様を応用することが可能であり、異常斜め入射光(ゴースト光等)の隣接画素への漏れ込みの影響によって発生する同色画素の段差を解決して、異常斜め入射光による画質劣化を抑制することができる。
 ここでいう「補正対象画素の隣接画素」とは補正対象画素に対して隣り合う画素であり、例えば補正対象画素のカラーフィルタと隣接するカラーフィルタを有する画素が「補正対象画素の隣接画素」となり得る。例えば、補正対象画素を囲む8画素(第1の方向と、第2の方向と、第1の方向及び第2の方向に対して角度を持った方向とに関して補正対象画素に隣り合う画素)や、第1の方向及び第2の方向で補正対象画素と隣接する4画素を、「補正対象画素の隣接画素」とすることができる。また「補正対象画素の周辺画素」とは補正対象画素から所定範囲に含まれる画素であり、補正対象画素に対して隣接していてもよいし、隣接していなくてもよい。したがって「補正対象画素の周辺画素」は「補正対象画素の隣接画素」を含みうる概念である。また、「補正対象画素の周辺画素」の基準となる補正対象画素からの範囲は、第2の混色補正の具体的な内容に応じて適宜定めうる。
 第1の混色補正では、補正対象画素の隣接画素の全部又は一部の画素データに基づいて、補正対象画素の画素データを補正可能であり、第2の混色補正では、補正対象画素の周辺画素の全部又は一部の画素データに基づいて、補正対象画素の画素データを補正可能である。
 異常斜め入射光が入射しない場合の混色は、主として隣接画素からの光の漏れ込みによるものであるため、補正対象画素の隣接画素の画素データに基づいて有効に補正しうる。一方、ゴースト光等の異常斜め入射光は、撮像素子内である大きさを持った範囲(複数画素)に入射するため、異常斜め入射光に起因する混色の影響は、補正対象画素の周辺画素の画素データを総合的に勘案した混色補正によって効果的に低減しうる。
 なお、ここでいう「異常斜め入射光」とは、被写体像を構成する通常光とは異なる想定外の光要素のことであり、通過するカラーフィルタとフォトダイオードとが同一画素に含まれない光要素のことである。この異常斜め入射光として、例えば、ゴーストやフレア等の現象をもたらす光要素が含まれうる。一般に、ゴーストは、レンズ表面や撮像素子表面での反射を介して本来の結像光(有効結像光)の光路とは異なる光路を通って像面上に到達した光(不要光)によって、視覚的に一定の形状が認められる光学像を形成する現象である。また、フレアは、強い光が光学系に入射した場合に、入射光の一部がレンズ表面や撮像素子表面で反射して像面上に不要光として到達し、視覚的に一定の形状が認められない画像異常をもたらし、生成画像においてコントラストの低下や光の滲み等を生じさせる現象である。
 また、「第1の方向」及び「第2の方向」は、特に限定されず、相互に垂直(実質的に垂直を含む)を形成する方向であればよい。例えば、撮像装置による撮像時における被写体に対する「水平方向」及び「垂直方向」を「第1の方向」及び「第2の方向」としてもよいし、これらの「水平方向」及び「垂直方向」に対して任意の角度を持つ方向を「第1の方向」及び「第2の方向」としてもよい。したがって、水平方向及び垂直方向に2次元的に配列された複数の画素を45度回転させた所謂「ハニカム型の配列」で複数の画素が配置される場合には、「水平方向」及び「垂直方向」と45度を成す方向を「第1の方向」及び「第2の方向」として扱いうる。
 望ましくは、第2の混色補正手段は、補正対象画素と同色のカラーフィルタを有する4以上の画素を周辺画素として、補正対象画素の画素データの第2の混色補正を行う。
 この場合、第2の混色補正では、補正対象画素と同色のカラーフィルタを有する画素の画素データが使用され且つ4以上の画素の画素データが使用されるため、高精度な混色補正を行うことが可能である。
 望ましくは、周辺画素は、周辺画素に対し隣接する画素のカラーフィルタの種類(隣接画素配置タイプ)が相互に異なる画素によって構成される。
 この場合、隣接する画素のカラーフィルタの種類が相互に異なる周辺画素の画素データに基づいて第2の混色補正が行われ、異常斜め入射光に起因する様々なタイプの混色に対して柔軟に対応することが可能である。
 望ましくは、撮像素子の複数の画素は、M画素×N画素(ただし、Mは3以上の整数、Nは3以上の整数)の基本配列パターンであって第1の方向及び第1の方向に垂直な第2の方向に複数並べられた基本配列パターンを有し、周辺画素は、補正対象画素を含むM画素×N画素の範囲に含まれる画素であって補正対象画素と同色のカラーフィルタを有する画素である。
 この場合、基本配列パターン単位で第2の混色補正を行うことができ、高精度な混色補正を効率良く行うことができる。
 望ましくは、撮像素子の複数の画素は、M画素×N画素(ただし、Mは3以上の整数、Nは3以上の整数)の基本配列パターンであって第1の方向及び第1の方向に垂直な第2の方向に複数並べられた基本配列パターンを有し、周辺画素は、補正対象画素を含むM画素×N画素の範囲よりも大きな範囲に含まれる画素であって補正対象画素と同色のカラーフィルタを有する画素である。
 この場合、基本配列パターンよりも大きな範囲に含まれる画素の画素データに基づいて第2の混色補正を行うことができ、多くの画素データに基づいて高精度な混色補正を行うことができる。
 望ましくは、第2の混色補正手段は、補正対象画素及び周辺画素の画素データから導出される代表値に基づいて、補正対象画素の画素データの第2の混色補正を行う。
 この場合、補正対象画素及び周辺画素の画素データから導出される代表値に基づいて、第2の混色補正処理を簡単化することができる。
 望ましくは、代表値は、補正対象画素及び周辺画素の画素データの平均値又は加重平均値である。
 望ましくは、代表値は、補正対象画素及び周辺画素の画素データの中央値又は最頻値である。
 これらの補正対象画素及び周辺画素の画素データの「平均値」、「加重平均値」、「中央値」及び「最頻値」のうちのいずれかを「代表値」とすることで、第2の混色補正を簡単化して、同色画素間の画素データの段差を効果的に解消することが可能である。
 望ましくは、複数の画素は、少なくとも1以上の色を含む第1色のカラーフィルタによって構成される第1色の画素と、第1色以外の少なくとも2以上の色を含む第2色のカラーフィルタによって構成される第2色の画素とを含み、第1色の画素は、輝度信号を得るための寄与率が第2色の画素のカラーフィルタよりも高い色のカラーフィルタを有し、補正対象画素は、第1色の画素である。
 輝度は画質を左右する大きな要因であるが、本態様のように、輝度信号を得るための寄与率が高い第1色の画素を補正対象画素とすることで、得られる画像の品質を効果的に改善することができる。
 望ましくは、第1色の画素は、緑色、透明または白色のカラーフィルタを有する。
 この場合、他色よりも輝度信号を得るための寄与率が高い緑色、透明又は白色のカラーフィルタを有する画素を補正対象画素とするため、得られる画像の品質を効果的に改善することができる。
 なお、透明のカラーフィルタ及び白色のカラーフィルタは、赤波長域の光、青波長域の光及び緑波長域の光のいずれも透過するフィルタであり、透明のカラーフィルタは比較的高い光透過率(例えば70%以上の光透過率)を有し、白色のカラーフィルタは透明のカラーフィルタよりも低い光透過率を有する。
 撮像素子の複数の画素は、M画素×N画素(ただし、Mは3以上の整数、Nは3以上の整数)の基本配列パターンであって第1の方向及び第1の方向に垂直な第2の方向に複数並べられた基本配列パターンを有し、基本配列パターンは、隣接画素のカラーフィルタの種類が相互に異なる第1色の画素を少なくとも5つ含んでいてもよい。
 本態様のように、特に、隣接画素のカラーフィルタの種類が相互に異なる第1色の画素を基本配列パターンが5以上含む場合に、カラーフィルタ配列が複雑化し、本発明に係る混色補正の有効性が高い。
 例えばベイヤー配列のG(緑)画素は、隣接画素配置タイプに応じた種類が2種類であり、混色による同色G画素間の段差(同色段差)が1パターンのため、混色補正が容易である。一方、M画素×N画素の基本配列パターンにおいて、隣接画素のカラーフィルタの種類が相互に異なる第1色の画素を5つ以上(例えばG1~G5)含む複雑なカラーフィルタ配列では、同色画素間の段差が複雑になり、画質劣化に大きな影響を与える。本態様によれば、基本配列パターンが隣接画素のカラーフィルタの種類が相互に異なる第1色の画素を少なくとも5つ含み、複雑なカラーフィルタ配列に対しても、第1の混色補正及び第2の混色補正を効果的に行って、画質劣化を抑えることができる。
 本発明の他の態様は、カラーフィルタ及びフォトダイオードを含み受光量に応じた画素データを出力する複数の画素を有する撮像素子より出力される画像データから、異常斜め入射光の有無を検出するステップと、補正対象画素の隣接画素の画素データに基づいて、補正対象画素の画素データの第1の混色補正を行うステップと、補正対象画素の周辺画素の画素データに基づいて、補正対象画素の画素データの第2の混色補正を行うステップと、異常斜め入射光検出手段の検出結果に応じて、第1の混色補正及び第2の混色補正のうちいずれによって画像データの補正を行うか判定するステップと、を備え、画像データの補正を行うか判定するステップでは、異常斜め入射光の有無を検出するステップにおいて異常斜め入射光が検出されない場合には第1の混色補正によって補正対象画素の画素データの補正を行い、異常斜め入射光の有無を検出するステップにおいて異常斜め入射光が検出される場合には第2の混色補正によって補正対象画素の画素データの補正を行う判定をする画像処理方法に関する。
 本発明の他の態様は、カラーフィルタ及びフォトダイオードを含み受光量に応じた画素データを出力する複数の画素を有する撮像素子より出力される画像データから、異常斜め入射光の有無を検出する手順と、補正対象画素の隣接画素の画素データに基づいて、補正対象画素の画素データの第1の混色補正を行う手順と、補正対象画素の周辺画素の画素データに基づいて、補正対象画素の画素データの第2の混色補正を行う手順と、異常斜め入射光検出手段の検出結果に応じて、第1の混色補正及び第2の混色補正のうちいずれによって画像データの補正を行うか判定する手順とをコンピュータに実行させるためのプログラムであって、画像データの補正を行うか判定する手順では、異常斜め入射光の有無を検出する手順において異常斜め入射光が検出されない場合には第1の混色補正によって補正対象画素の画素データの補正を行い、異常斜め入射光の有無を検出する手順において異常斜め入射光が検出される場合には第2の混色補正によって補正対象画素の画素データの補正を行う判定をするプログラムに関する。
 本発明の他の態様は、カラーフィルタ及びフォトダイオードを含み受光量に応じた画素データを出力する複数の画素を有する撮像素子より出力される画像データから、異常斜め入射光の有無を検出する手順と、補正対象画素の隣接画素の画素データに基づいて、補正対象画素の画素データの第1の混色補正を行う手順と、補正対象画素の周辺画素の画素データに基づいて、補正対象画素の画素データの第2の混色補正を行う手順と、異常斜め入射光検出手段の検出結果に応じて、第1の混色補正及び第2の混色補正のうちいずれによって画像データの補正を行うか判定する手順と、をコンピュータに実行させるためのプログラムのコンピュータ読み取り可能なコードが記録された非一時的記録媒体であって、画像データの補正を行うか判定する手順では、異常斜め入射光の有無を検出する手順において異常斜め入射光が検出されない場合には第1の混色補正によって補正対象画素の画素データの補正を行い、異常斜め入射光の有無を検出する手順において異常斜め入射光が検出される場合には第2の混色補正によって補正対象画素の画素データの補正を行う判定をする、記録媒体に関する。
 本発明によれば、異常斜め入射光が検出されない場合には補正対象画素の画素データに対して補正対象画素の隣接画素の画素データに基づく第1の混色補正が行われ、異常斜め入射光が検出される場合には補正対象画素の周辺画素の画素データに基づく第2の混色補正が行われる。
 したがって、ゴースト光等の異常斜め入射光が入射する画素の画素データに対しては、この異常斜め入射光に起因する同色画素間の画素データの段差を低減するように、補正対象画素の周辺画素の画素データに基づく第2の混色補正を行うことができる。一方、異常斜め入射光が入射していない画素の画素データに対しては、画素特性に起因する混色の影響を低減するように、補正対象画素の隣接画素の画素データに基づく第1の混色補正を行うことができる。
 このように本発明によれば、混色要因に応じた柔軟な混色補正処理によって高品質な画像データを得ることができ、簡単な混色補正では補正しきれない「異常斜め入射光に起因する同色画素間の画素データの段差」を有効に抑えることができる。
図1は、デジタルカメラの一構成例を示すブロック図である。 図2Aは、カラー撮像素子のカラーフィルタ(画素)の基本配列パターン例を示す平面図であり、水平方向及び垂直方向に基本配列パターンPを4つ並べた状態を示す。 図2Bは、カラー撮像素子のカラーフィルタ(画素)の基本配列パターン例を示す平面図であり、1つの基本配列パターンPの拡大図である。 図3は、画像処理回路の機能ブロック図である。 図4Aは、異常斜め入射光(ゴースト光等)に起因する混色現象のメカニズムを説明する断面図であり、G画素、R画素及びG画素の隣接配置例を示す。 図4Bは、異常斜め入射光(ゴースト光等)に起因する混色現象のメカニズムを説明する断面図であり、G画素、B画素及びG画素の隣接配置例を示す。 図5は、混色判定補正部の機能ブロック図である。 図6は、図2のカラーフィルタ配列におけるG画素の種類を示す図である。 図7は、混色判定補正部による混色補正のフローを示すフローチャートである。 図8は、第2実施形態に係るカラー撮像素子のカラーフィルタ配列(画素配列)を示す図である。 図9は、カラーフィルタ配列の基本配列パターンの他の例を示す図である。 図10は、カラーフィルタ配列の基本配列パターンの他の例を示す図である。 図11は、カラーフィルタ配列の基本配列パターンの他の例を示す図である。 図12は、カラーフィルタ配列の基本配列パターンの他の例を示す図である。 図13Aは、カラーフィルタ配列の基本配列パターンの他の例を示す図である。 図13Bは、カラーフィルタ配列の基本配列パターンの他の例を示す図である。 図14は、カラーフィルタの分光感度を示す図である。 図15は、2×2の4画素が1つのアンプを共有している撮像素子の一例を示す図である。 図16は、混色率を示す補正テーブルの一例を示す図表である。 図17は、モザイク画像の8×8の分割領域を示す図である。 図18は、第1の混色補正部の内部構成の一例を示すブロック図である。 図19は、混色補正Aの一例の流れを示すフローチャートである。 図20は、撮像素子に設けられているカラーフィルタ配列を示す図である。 図21Aは、異常斜め入射光の入射方向を混色補正に活かすことを説明した図である。 図21Bは、異常斜め入射光の入射方向を混色補正に活かすことを説明した図である。 図21Cは、異常斜め入射光の入射方向を混色補正に活かすことを説明した図である。 図21Dは、異常斜め入射光の入射方向を混色補正に活かすことを説明した図である。 図21Eは、異常斜め入射光の入射方向を混色補正に活かすことを説明した図である。 図22Aは、異常斜め入射光の入射方向を混色補正に活かすことを説明した図である。 図22Bは、異常斜め入射光の入射方向を混色補正に活かすことを説明した図である。 図22Cは、異常斜め入射光の入射方向を混色補正に活かすことを説明した図である。 図22Dは、異常斜め入射光の入射方向を混色補正に活かすことを説明した図である。 図22Eは、異常斜め入射光の入射方向を混色補正に活かすことを説明した図である。 図23は、他のカラーフィルタ配列を示す図である。 図24は、図23に示されたカラーフィルタ配列の基本配列画素群を第1サブ配列及び第2サブ配列に分割した様子を示す図である。 図25は、他のカラーフィルタ配列を示す図である。 図26は、図25に示されたカラーフィルタ配列の基本配列画素群を第1サブ配列及び第2サブ配列に分割した様子を示す図である。 図27は、図25に示されたカラーフィルタ配列において、異常斜め入射光の入射方向を判別することを説明した図である。 図28は、図25に示されたカラーフィルタ配列において、異常斜め入射光の入射方向を判別することを説明した図である。 図29は、他のカラーフィルタ配列を示す図である。 図30は、図29に示されたカラーフィルタ配列の基本配列画素群を第1サブ配列及び第2サブ配列に分割した様子を示す図である。 図31は、図29に示されたカラーフィルタ配列において、異常斜め入射光の入射方向を判別することを説明した図である。 図32は、図29に示されたカラーフィルタ配列において、異常斜め入射光の入射方向を判別することを説明した図である。 図33は、カラー撮像素子の画素配列の一変形例を示す図である。 図34は、スマートフォンの外観図である。 図35は、スマートフォンの構成を示すブロック図である。
 図面を参照して、本発明の実施形態について説明する。まず、本発明の一適用例であるデジタルカメラ(撮像装置)の基本構成について説明し、その後、混色補正の手法について説明する。
 図1は、デジタルカメラ10の一構成例を示すブロック図である。なお本例では、図1に示される構成のうち、レンズユニット14以外の各部がカメラ本体12に設けられる例について説明するが、必要に応じて各部をレンズユニット14に設けることも可能である。
 デジタルカメラ(撮像装置)10は、カメラ本体12と、カメラ本体12の前面に交換可能に取り付けられたレンズユニット14とを備える。
 レンズユニット14は、ズームレンズ21及びフォーカスレンズ22を含む撮影光学系20、メカシャッタ23などを備える。ズームレンズ21及びフォーカスレンズ22は、それぞれズーム機構24及びフォーカス機構25によって駆動され、撮影光学系20の光軸O1に沿って前後移動される。ズーム機構24及びフォーカス機構25は、ギアやモータなどで構成される。
 メカシャッタ23は、カラー撮像素子27への被写体光の入射を阻止する閉鎖位置と、被写体光の入射を許容する開放位置との間で移動する可動部(図示省略)を有する。可動部を開放位置/閉鎖位置に移動させることによって、撮影光学系20からカラー撮像素子27へと至る光路が開放/遮断される。また、メカシャッタ23には、カラー撮像素子27に入射する被写体光の光量をコントロールする絞りが含まれる。メカシャッタ23、ズーム機構24及びフォーカス機構25は、レンズドライバ26を介してCPU30により駆動制御される。
 カメラ本体12に設けられるCPU30は、操作部36からの制御信号に基づき、メモリ37から読み出した各種プログラムやデータを逐次実行し、デジタルカメラ10の各部を統括的に制御する。メモリ37のRAM領域は、CPU30が処理を実行するためのワークメモリや、各種データの一時保管先として機能する。
 操作部36は、ユーザによって操作されるボタン、キー、タッチパネル及びこれらに類するものを含む。例えば、カメラ本体12に設けられユーザによって操作される電源スイッチ、シャッタボタン、フォーカスモード切替レバー、フォーカスリング、モード切替ボタン、十字選択キー、実行キー、バックボタン等が、操作部36に含まれうる。
 カラー撮像素子27は、撮影光学系20及びメカシャッタ23を通過した被写体光を、電気的な出力信号に変換して出力する。このカラー撮像素子27は、多数の画素が水平方向(第1の方向)及びこの水平方向に垂直な垂直方向(第2の方向)に並置された単板方式の画素配列を有し、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の任意の方式を採用可能である。以下では、カラー撮像素子27を構成する複数の画素がCMOSによって構成される例について説明する。
 カラー撮像素子27を構成する各画素は、詳細については後述するが、集光率を向上させるマイクロレンズと、RGB等のカラーフィルタと、マイクロレンズ及びカラーフィルタを透過した光を受光して画素データを出力するフォトダイオード(光電変換素子)とを有する。
 撮像素子ドライバ31は、CPU30の制御下でカラー撮像素子27を駆動制御し、カラー撮像素子27の画素から画像処理回路32に撮像信号(画像データ)を出力させる。
 画像処理回路32(画像処理装置)は、カラー撮像素子27から出力される撮像信号(画像データ)に対して階調変換、ホワイトバランス補正、γ補正処理などの各種画像処理を施して撮影画像データを生成する。特に本例の画像処理回路32は、詳細については後述するが、隣接画素間で生じる混色を補正する混色判定補正部を有する。
 圧縮伸長処理回路34は、シャッタボタンがユーザによって押し下げ操作されたときに、メモリ37のVRAM領域に格納された撮影画像データに対し、圧縮処理を施す。なお、RAWデータ取得モードでは、圧縮伸長処理回路34による圧縮処理が行われないようにすることも可能である。また圧縮伸長処理回路34は、メディアインターフェース33を介してメモリカード38から得られる圧縮画像データに対し、圧縮伸長処理を施す。メディアインターフェース33は、メモリカード38に対する撮影画像データの記録及び読み出しなどを行う。
 表示制御部35は、撮影モード時には、EVF(エレクトリックビューファインダ)39及び背面LCD(背面液晶)40のうち少なくとも一方に対し、画像処理回路32により生成されたスルー画像(ライブビュー画像)を表示させる制御を行う。また表示制御部35は、画像再生モード時には、圧縮伸長処理回路34で伸長された撮影画像データを背面LCD40(及び/又はEVF39)へ出力する。
 デジタルカメラ10(カメラ本体12)には、上記以外の他の処理回路等が設けられていてもよく、例えばオートフォーカス用のAF検出回路や自動露光調節用のAE検出回路が設けられる。CPU30は、AF検出回路の検出結果に基づきレンズドライバ26及びフォーカス機構25を介してフォーカスレンズ22を駆動することでAF処理を実行し、またAE検出回路の検出結果に基づきレンズドライバ26を介してメカシャッタ23を駆動することでAE処理を実行する。
 <カラーフィルタ配列>
 図2A、2Bは、カラー撮像素子27のカラーフィルタ(画素)の基本配列パターン例を示す平面図であり、図2Aは水平方向及び垂直方向に基本配列パターンPを計4つ並べた状態を示し、図2Bは1つの基本配列パターンPの拡大図である。なお図2A、2Bにおいて、「R」はレッド(赤)のフィルタ(R画素)を示し、「G」はグリーン(緑)のフィルタ(G画素)を示し、「B」はブルー(青)のフィルタ(B画素)を示す。
 本例のカラー撮像素子27のカラーフィルタは、M×N(6×6)画素に対応する正方配列パターンからなる基本配列パターンPを有し、この基本配列パターンPが水平方向及び垂直方向に繰り返し複数並べられてカラー撮像素子27の複数画素が構成される。したがって、カラー撮像素子27から読み出されるRGBのRAWデータ(モザイク画像)の画像処理等を行う際には、基本配列パターンPを基準とした繰り返しパターンに従って処理を行うことができる。
 各基本配列パターンPは、図2Bに示す3画素(水平方向)×3画素(垂直方向)の第1のサブ配列と、3画素(水平方向)×3画素(垂直方向)の第2のサブ配列とが、水平方向及び垂直方向に交互に並べられて、構成されている。
 第1のサブ配列及び第2のサブ配列では、それぞれGフィルタが四隅と中央に配置されており、両対角線上にGフィルタが配置されている。第1のサブ配列では、Rフィルタが中央のGフィルタを挟んで水平方向に設けられ、Bフィルタが中央のGフィルタを挟んで垂直方向に設けられている。一方、第2のサブ配列では、Bフィルタが中央のGフィルタを挟んで水平方向に設けられ、Rフィルタが中央のGフィルタを挟んで垂直方向に設けられている。したがって、第1のサブ配列と第2のサブ配列との間で、RフィルタとBフィルタとの位置関係が逆転しているが、Gフィルタの配置は同様になっている。
 また、第1のサブ配列と第2のサブ配列の四隅のGフィルタは、第1のサブ配列と第2のサブ配列とが水平方向及び垂直方向に交互に配置されることにより、2画素(水平方向)×2画素(垂直方向)に対応する正方配列のGフィルタ群を構成する。
 このカラーフィルタ配列では、図2Aからも明らかなように、一般に輝度信号を得るために最も寄与する色(この実施形態では、Gの色)に対応するGフィルタが、カラーフィルタ配列の水平、垂直、斜め右上、及び斜め左上方向の各ライン内に1以上配置される。このカラーフィルタ配列によれば、輝度系画素に対応するGフィルタが、カラーフィルタ配列の水平、垂直、及び斜め(NE、NW)方向の各ライン内に配置されるため、高周波となる方向によらず高周波領域でのデモザイク処理(同時化処理)の再現精度を向上させることができる。なおデモザイク処理またはデモザイキング処理とは、単板式のカラー撮像素子のカラーフィルタ配列に対応したモザイク画像から画素毎に全ての色情報を算出する処理であり、同時化処理ともいう(以下、本明細書で同じ)。例えば、RGB3色のカラーフィルタからなる撮像素子の場合、RGBからなるモザイク画像から画素毎にRGB全ての色情報を算出する処理である。
 なお、例えば単位カラーフィルタ(単位画素)が正方形を有する場合、斜め右上及び斜め右下方向は水平方向及び垂直方向に対して45°を成す方向となる。また、単位カラーフィルタが長方形を有する場合、斜め右上及び斜め右下方向はこの長方形の対角線の方向となり、長方形の長辺及び短辺の長さに応じて、水平方向及び垂直方向に対する斜め右上及び斜め右下方向の角度は変わりうる。
 図2A、2Bに示すカラーフィルタ配列は、上記Gの色以外の2色以上の他の色(本例では、赤(R)及び青(B))に対応するRフィルタ及びBフィルタが、それぞれ基本配列パターンPの水平方向及び垂直方向の各ライン内に1つ以上配置される。このように、Rフィルタ及びBフィルタがカラーフィルタ配列の水平方向及び垂直方向の各ライン内に配置されることで、偽色(色モワレ)の発生を低減することができ、偽色の発生を抑制するための光学ローパスフィルタを省略することができる。なお、光学ローパスフィルタを配置する場合でも、本例のカラーフィルタ配列を採用する場合には、偽色の発生を防止するための高周波数成分をカットする働きの弱いものを用いて、解像度を損なわないようにすることができる。
 また、この基本配列パターンPでは、Rフィルタ、Gフィルタ及びBフィルタに対応するR画素、G画素及びB画素の画素数が、それぞれ8画素、20画素及び8画素になっている。すなわち、R画素、G画素及びB画素の画素数の比率は2:5:2になっており、輝度信号を得るために最も寄与するG画素の画素数の比率がR画素及びB画素の画素数の比率よりも高い。このように、G画素の画素数とR画素及びB画素の画素数との比率が異なり、特に輝度信号を得るために最も寄与するG画素の画素数の比率を、R画素及びB画素の画素数の比率よりも大きくすることで、デモザイク処理(同時化処理)におけるエリアシングを抑制することができ、高周波再現性も改善することができる。
 以下、図2A、2Bに示すカラーフィルタ配列(画素配列)を「X-Trans(登録商標)」とも呼ぶ。
 <画像処理>
 図3は、画像処理回路32(画像処理装置;図1参照)の機能ブロック図である。
 画像処理回路32は、主として混色判定補正部41、ホワイトバランス補正部(WB補正部)42、ガンマ補正、デモザイク処理、RGB/YC変換等の信号処理を行う信号処理部43、RGB積算部44、及びホワイトバランスゲイン算出部(WBゲイン算出部)45から構成されている。
 画像処理回路32には、RAWデータ(モザイク画像:RGBの色信号)が入力される。このとき、カラー撮像素子27から出力されたRAWデータが直接的に画像処理回路32に入力されてもよいし、カラー撮像素子27から出力されたRAWデータをメモリ(図1のメモリ37等)に一旦格納し、このメモリから画像処理回路32にRAWデータが入力されてもよい。
 RAWデータのRGBの色信号は、点順次で混色判定補正部41に入力される。混色判定補正部41は、点順次で入力される混色補正の対象画素の色信号に含まれる隣接画素からの混色成分を除去する。なお、混色判定補正部41における混色補正処理の詳細については後述する。
 混色判定補正部41により混色成分が除去されたモザイク画像の各画素の色信号は、WB補正部42及びRGB積算部44に入力される。
 RGB積算部44は、1画面を8×8や16×16等に分割した分割領域毎に、RGBの色信号毎の積算平均値を算出し、RGB毎の積算平均値の比(R/G、B/G)からなる色情報を算出する。例えば、1画面を8×8の64の分割領域に分割する場合、RGB積算部44は64個の色情報(R/G、B/G)を算出する。
 WBゲイン算出部45は、RGB積算部44から入力される分割領域毎の色情報(R/G、B/G)に基づいてWBゲインを算出する。具体的には、64個の分割領域の各々に関する色情報の、R/G、B/G軸座標の色空間上の分布の重心位置を算出し、その重心位置が示す色情報から環境光の色温度を推定する。なお、色温度の代わりに、その重心位置が示す色情報を有する光源種、例えば、青空、日陰、晴れ、蛍光灯(昼光色、昼白色、白色、温白色)、タングステン、低タングステン等を求めることで撮影時の光源種を推定してもよいし(特開2007-53499参照)、また、推定した光源種から色温度を推定してもよい。
 WBゲイン算出部45には、予め環境光の色温度又は光源種に対応して、適正なホワイトバランス補正を行うためのRGB毎又はRB毎のWBゲインが用意(記憶保持)されており、WBゲイン算出部45は、推定した環境光の色温度又は光源種に基づいて対応するRGB毎又はRB毎のWBゲインを読み出し、この読み出したWBゲインをWB補正部42に出力する。
 WB補正部42は、混色判定補正部41から入力されるR、G、Bの色信号の各々に対して、WBゲイン算出部45から入力される色毎のWBゲインを掛け合わせることにより、ホワイトバランス補正を行う。
 WB補正部42から出力されたR、G、Bの色信号は、信号処理部43に入力される。信号処理部43は、ガンマ補正、カラー撮像素子27のカラーフィルタ配列に伴うR、G、Bの色信号の空間的なズレを補間してR、G、Bの色信号を同時式に変換するデモザイク処理(同時化処理)、同時化されたR、G、Bの色信号を輝度信号Y及び色差信号 Cr、Cbに変換するRGB/YC変換等の信号処理を行い、信号処理された輝度信号Y及び色差信号Cr、Cbを出力する。
 画像処理回路32から出力された輝度データY及び色差データCr、Cbは、圧縮処理された後、内部メモリ(メモリ37)や外部メモリ(メモリカード38)に記録される。
 <混色現象>
 図4A,4Bは、異常斜め入射光(ゴースト光等)に起因する混色現象のメカニズムを説明する断面図であり、図4AはG画素、R画素及びG画素の隣接配置例を示し、図4BはG画素、B画素及びG画素の隣接配置例を示す。
 本例のカラー撮像素子27を構成する複数の画素50は、緑色(第1色)のカラーフィルタによって構成されるG(緑)画素(第1色の画素)50Gと、赤のカラーフィルタによって構成されるR(赤)画素50R及び青のカラーフィルタによって構成されるB(青)画素(第2色の画素)50Bとを含む。G画素50Gは、輝度信号を得るための寄与率がR画素50R及びB画素50Bよりも高く、例えばY(輝度)=(0.3×R画素データ+0.6×G画素データ+0.1×B画素データ)によって輝度データ(輝度信号)を得ることが可能である。
 G画素50G、R画素50R及びB画素50Bの各々は、被写体光の進行方向に関して順次設けられたマイクロレンズ51、カラーフィルタ52及びフォトダイオード53を含み、フォトダイオード53の受光量に応じた画素データを出力する。被写体光を構成する通常光56は、マイクロレンズ51によって集光され、カラーフィルタ52を通過してフォトダイオード53に入射し、通常は、通常光56が通過するカラーフィルタ52と受光されるフォトダイオード53とは対応する。
 一方、異常斜め入射光57は通常光56とは異なる角度で各画素に進入し、ある画素のカラーフィルタ52を通過した異常斜め入射光57は、隣接画素のフォトダイオード53によって受光される。このように、異常斜め入射光57が通過するカラーフィルタ52と受光されるフォトダイオード53とは対応せず、異常斜め入射光57を受光するフォトダイオード53は、通常光56だけではなく異常斜め入射光57の受光量に応じた画素データを出力する。したがって、異常斜め入射光57を受光したフォトダイオード53からの出力画素データは、異常斜め入射光57を受光しないフォトダイオード53からの出力画素データよりも増大するため、同色画素間の画素データに段差が生じる。
 また、カラー撮像素子27に異常斜め入射光57が入射せずに通常光56のみが入射する場合であっても、画素特性(マイクロレンズ、カラーフィルタ、フォトダイオード、配線等の配置、サイズ、物性値等に基づく特性)に応じて、通常光56の一部が隣接画素に漏れ込んで混色現象を引き起こす。
 以下では、異常斜め入射光57が入射する画素から出力される画素データに対しては、同色画素間の画素データに段差が生じないようにする混色補正が行われ、異常斜め入射光57が入射しない画素から出力される画素データに対しては、画素特性に応じた混色を低減する混色補正が行われる例について説明する。
 なお、以下の例では、カラー撮像素子27を構成するR画素50R、G画素50G及びB画素50Bのうち、輝度信号を得るための寄与率が最も高いG画素(第1色の画素)50Gを、混色補正の補正対象画素とする。
 <第1実施形態>
 図5は、混色判定補正部41(図3参照)の機能ブロック図である。
 混色判定補正部41は、混色補正判定部61と、混色補正判定部61に接続される第1の混色補正部(第1の混色補正手段)62及び第2の混色補正部(第2の混色補正手段)63とを含む。
 混色補正判定部61は、異常斜め入射光検出部(異常斜め入射光検出手段)として働き、カラー撮像素子27より出力される画像データから、異常斜め入射光(ゴースト光等)の入射の有無を検出する。なお、混色補正判定部61による異常斜め入射光の入射の有無の具体的な検出手法は特に限定されず、その一例については後述する。
 また、混色補正判定部61は、混色補正判定部(混色補正判定手段)として働き、異常斜め入射光の有無の検出結果に応じて、第1の混色補正手段及び第2の混色補正手段のうちいずれによって画像データ(画素データ)の混色補正を行うかを判定する。具体的には、混色補正判定部61は、異常斜め入射光の入射が検出されない画素の画素データに対し、第1の混色補正部62によって補正対象画素の画素データの混色補正を行う判定をして、画像データ(画素データ)を第1の混色補正部62に送る。一方、混色補正判定部61は、異常斜め入射光の入射が検出される画素(G画素)の画素データに対し、第2の混色補正部63によって補正対象画素の画素データの補正を行う判定をして、画像データ(画素データ)を第2の混色補正部63に送る。
 なお、図5の例では、異常斜め入射光検出部及び混色補正判定部の機能を混色補正判定部61が担っているが、別個に設けられる回路等によって異常斜め入射光検出部及び混色補正判定部を実現することも可能である。
 第1の混色補正部62は、補正対象画素の隣接画素の画素データに基づいて、補正対象画素の画素データの混色補正A(第1の混色補正)を行う。
 第1の混色補正部62における混色補正アルゴリズムとしては、任意のアルゴリズムを採用することができる。例えば、第1の混色補正部62は、補正対象画素に対する上下左右(水平方向及び垂直方向)の隣接画素からの混色量を算出し、この算出した隣接画素からの混色量を補正対象画素の画素データ(元データ)から減算することで、混色補正Aを行うことも可能である。混色量の算出は、任意の算出手法を採用可能であり、例えば、隣接画素の画素データと混色率との積算(隣接画素データ値×混色率)によって混色量の算出が行われる。混色率は、種々の混色要因に基づいて適宜決定することができ、例えば(1)自画素(補正対象画素)の画素共有上の位置、(2)上下左右の混色補正方向、及び(3)混色補正に使用する画素の色、の各々に関して補正パターンを持つことができる。この補正パターン(方法)を補正対象画素の位置毎に個別に設定することで、混色補正Aの精度を向上させることができる。
 このように、第1の混色補正部62による混色補正Aの具体的な手法は特に限定されず、その一例については後述する。
 第2の混色補正部63は、補正対象画素の周辺画素の画素データに基づいて、補正対象画素の画素データの混色補正B(第2の混色補正)を行う。
 第2の混色補正部63は、補正対象画素(G画素)と同色のカラーフィルタを有する4以上の画素(G画素)を周辺画素として、補正対象画素の画素データの混色補正Bを行う。具体的には、第2の混色補正部63は、補正対象画素及び周辺画素の画素データから導出される代表値に基づいて、補正対象画素の画素データの混色補正Bを行う。
 代表値は、補正対象画素及び周辺画素の画素データの平均値又は加重平均値であってもよいし、補正対象画素及び周辺画素の画素データの中央値又は最頻値であってもよい。以下では、補正対象画素及び周辺画素の画素データの平均値に基づいて、補正対象画素の画素データの混色補正Bを行う例について説明する。
 本例の混色補正Bにおいて、補正対象画素(G画素)の周辺画素は、補正対象画素を中心(中央部)に含む6画素(水平方向)×6画素(垂直方向)の範囲に含まれる画素であって、補正対象画素と同色(緑)のカラーフィルタを有する画素(G画素)である。
 例えば本例のカラー撮像素子27のカラーフィルタ配列では、図6に示すように、6画素(水平方向)×6画素(垂直方向)の基本配列パターンPにおいて、G画素は隣接画素配置タイプによって10種類に分類される(G1~G10)。
 第2の混色補正部63は、これらのG画素(G1~G10)の画素データの積算値(総和)から求められる平均値に基づいて混色補正Bを行うため、補正対象画素を中心とした混色補正BのカーネルサイズK(基本配列パターンサイズ)内のG画素値の積算値を求める。本例の混色補正BのカーネルサイズKは、基本配列パターンPのサイズと同じ6画素(水平方向)×6画素(垂直方向)である。したがって、第2の混色補正部63は、このカーネルサイズKの領域内に含まれる10種類のG画素G1~G10の積算値を算出し、その積算値から代表値(本例では平均値)を算出し、算出した代表値によってカーネルサイズK内の補正対象画素(G画素)の画素データを置換することで、混色補正Bを行う。これにより、G画素間の画素データの段差が解消される。
 なお、第2の混色補正部63による混色補正Bの具体的な手法は特に限定されず、その一例については後述する。
 上述の混色補正A及び混色補正Bが行われた混色補正後の画像データ(モザイク状の画像データ)は、後段のWB補正部42及びRGB積算部44に送られる(図3参照)。一面の画像を構成する画像データ中の一部の画素データが異常斜め入射光の影響を受けている場合には、第1の混色補正部62による混色補正Aが施された画素データと第2の混色補正部63による混色補正Bが施された画素データとが混色判定補正部41において合成され、合成後の画像データが混色補正後の画像データ(モザイク状の画像データ)として後段の各処理部に送られる。なお、混色補正B後の画素データに対して混色補正Aが行われてもよく、第2の混色補正部63から第1の混色補正部62に混色補正B後の画像データ(画素データ)が送られるようにしてもよい。
 図7は、混色判定補正部41による混色補正のフローを示すフローチャートである。
 モザイク状の画像データ(RGB画像)が混色判定補正部41に入力されると、混色補正判定部61によって画像データ(画素データ)が取得され(図7のS2)、画像データにおけるゴースト光等の異常斜め入射光の有無が混色補正判定部61によって判定される(S4)。
 画像データに異常斜め入射光の入射があると判定された場合(S4のYes)、第2の混色補正部63において混色補正Bが行われ(S6)、G画素間の画素データの段差が解消される。一方、画像データに異常斜め入射光の入射がないと判定された場合(S4のNo)、第1の混色補正部62において混色補正Aが行われ(S8)、撮像素子固有の画素特性に応じた混色が補正される。
 したがって、上述の異常斜め入射光がゴースト光の場合、ゴースト発生の有無が検出され、ゴーストが発生していないときは通常の隣接画素を使用した混色補正(混色補正A)が選択され、ゴーストが発生しているときは補正対象画素及びその周辺画素(G画素)の画素データの積算値を使用した混色補正(混色補正B)が選択されるように、混色判定補正部41が第1の混色補正部62及び第2の混色補正部63の画像処理制御(混色補正処理制御)を行う。
 以上説明したように、本実施形態によれば、図2A,2B及び図6に示すX-Transカラーフィルタ配列のように、基本配列パターンPの配列マトリクスサイズが大きく、隣接するカラーフィルタの種類が多いカラー撮像素子27から得られる画像(画像データ)のゴーストによる画質劣化を効果的に低減することができる。
 特に、第2の混色補正部63による混色補正Bにおける混色量の算出を、補正対象画素の隣接画素の画素データの代わりにカーネルサイズK内の同色画素(G画素)の画素データに基づいて行うことで、入射光(撮影画像光)に近い情報に基づいて、異常斜め入射光によってもたらされる混色・同色段差を補正し、ゴーストの影響を排除することができる。
 <第2実施形態>
 図8は、第2実施形態に係るカラー撮像素子27のカラーフィルタ配列(画素配列)を示す図である。
 上述の第1実施形態と同一又は類似の要素には、同一の符号を付し、その詳細な説明は省略する。
 本実施形態のカラー撮像素子27を構成する複数の画素は、3画素(水平方向)×3画素(垂直方向)の基本配列パターンPを含み、この基本配列パターンPが水平方向及び垂直方向に複数並べられている。
 基本配列パターンPは、十字状に配置された5つのG画素と、四隅のうちの一方の対角位置に配置される2つのR画素と、四隅のうちの他方の対角位置に配置される2つのB画素とによって構成される。したがって、図8に示すように、カラー撮像素子27を構成するG画素は、隣接画素のカラーフィルタのタイプに応じて5種類(G1~G5)に分類される。
 本実施形態の第2の混色補正部63(図5参照)は、補正対象画素を含む3画素(水平方向)×3画素(垂直方向)の範囲よりも大きな範囲に含まれる画素であって、補正対象画素(G画素)と同色のカラーフィルタを有する画素を、混色補正Bに使用する周辺画素に設定する。図8に示す例では、基本配列パターンPの画素サイズ(3画素(水平方向)×3画素(垂直方向))よりも大きな6画素(水平方向)×6画素(垂直方向)が混色補正BのカーネルサイズKとされ、混色補正対象画素50AをカーネルサイズKの中央部(中心)に配置した場合のカーネルサイズKに含まれるG画素が混色補正Bに使用される周辺画素として設定される。
 第2の混色補正部63は、このカーネルサイズKに含まれるG画素の画素データの代表値に基づいて、第1実施形態と同様にして、補正対象画素の画素データの混色補正Bを行う。
 なお、混色補正BのカーネルサイズKは、基本配列パターンPのサイズよりも大きければよく、本例のように水平方向及び垂直方向の各々に関して基本配列パターンPの2倍程度の画素数(総画素数に関して4倍程度の画素数)を持つ範囲を、混色補正BのカーネルサイズKに設定することができる。
 基本配列パターンPの繰り返しによってカラー撮像素子27の複数画素が構成される場合、カラー撮像素子27の全体に関する「隣接画素のカラーフィルタのタイプに応じて決められる同色画素の種類」は、基本配列パターンPに含まれる画素に関して定められる「隣接画素のカラーフィルタのタイプに応じて決められる同色画素の種類」と基本的には同じになる。したがって、複雑なカラーフィルタ配列を有することで混色現象が複雑になる場合であっても、混色補正Bのカーネルサイズを水平方向及び垂直方向の各々に関して基本配列パターンPの2倍程度の画素数(総画素数に関して4倍程度の画素数)とすることで、混色補正Bのカーネルサイズには同種の同色画素が4つ以上含まれることとなる。したがって、そのような多くの画素データを用いることで、同色画素間の画素データの段差を解消するための混色補正Bを精度良く行うことが可能である。
 以上説明したように、本実施形態によれば、補正対象画素の周辺に配置された多くの同色画素(G画素)の画素データに基づいて混色補正Bが行われるため、より高精度な混色補正Bによって、同色画素間における画素データの段差の発生を抑制することができる。
 <他のカラーフィルタ配列>
 上述の混色判定補正部41による混色補正フロー(異常斜め入射光の検出、混色補正A及び混色補正B)の適用は、図2及び図6に示すカラーフィルタ配列(X-Trans)や図8に示すカラーフィルタ配列を有するカラー撮像素子27から出力される画像データ(RAWデータ等)に限定されず、他のカラーフィルタ配列を有するカラー撮像素子27から出力される画像データに対しても上述の混色補正フローを適用することが可能である。
 この場合、隣接画素のカラーフィルタの種類が相互に異なる同色画素(G画素:第1色の画素)を少なくとも5つ含む基本配列パターンPによって構成されるカラーフィルタ配列(画素配列)に対して上述の混色補正を適用することで、「異常斜め入射光に起因する同色画素間の画素データの段差」及び「画素特性に起因する混色」を効果的に低減することができる。
 図9は、カラーフィルタ配列の基本配列パターンの他の例を示す図である。本例の基本配列パターンPは6画素(水平方向)×6画素(垂直方向)の画素構成を有し、一方の対角線上に配置された2つの第1のサブ配列及び他方の対角線上に配置された2つの第2のサブ配列によって各基本配列パターンPは構成されている。第1のサブ配列は、四隅に配置された4つのR画素と、中央に配置された1つのB画素と、R画素間に配置された4つのG画素とによって構成されている。第2のサブ配列は、四隅に配置された4つのB画素と、中央に配置された1つのR画素と、B画素間に配置された4つのG画素とによって構成されている。本例のカラーフィルタ配列のG画素は、隣接画素のカラーフィルタのタイプによって8種類に分類される(G1~G8)。
 また、図10に示されるカラーフィルタ配列の基本配列パターンPは5画素(水平方向)×5画素(垂直方向)の画素構成を有し、「G画素、B画素、R画素、B画素、G画素」が隣接配置される行と、「R画素、G画素、B画素、G画素、R画素」が隣接配置される行と、「B画素、R画素、G画素、R画素、B画素」が隣接配置される行と、「R画素、G画素、B画素、G画素、R画素」が隣接配置される行と、「G画素、B画素、R画素、B画素、G画素」が隣接配置される行とが垂直方向に隣接配置される。本例のカラーフィルタ配列のG画素は、隣接画素のカラーフィルタのタイプによって9種類に分類される(G1~G9)。
 また、図11に示されるカラーフィルタ配列の基本配列パターンPは3画素(水平方向)×3画素(垂直方向)の画素構成を有し、「R画素、B画素、G画素」が隣接配置される行と、「B画素、R画素、G画素」が隣接配置される行と、「G画素、G画素、G画素」が隣接配置される行とが、垂直方向に隣接配置される。本例のカラーフィルタ配列のG画素は、隣接画素のカラーフィルタのタイプによって5種類に分類される(G1~G5)。
 また、図12に示されるカラーフィルタ配列の基本配列パターンPは3画素(水平方向)×3画素(垂直方向)の画素構成を有し、対角線上にX字状に配置される5つのG画素と、中央のG画素の上下(垂直方向)に隣接配置される2つのB画素と、中央のG画素の左右(水平方向)に隣接配置される2つのR画素とによって構成される。本例のカラーフィルタ配列のG画素は、隣接画素のカラーフィルタのタイプによって5種類に分類される(G1~G5)。
 また、図13Aに示されるカラーフィルタ配列はベイヤ配列であり、基本配列パターンPは2画素(水平方向)×2画素(垂直方向)の画素構成を有し、「G画素、B画素」が隣接配置される行と、「R画素、G画素」が隣接配置される行とが、垂直方向に隣接配置される。本例のカラーフィルタ配列のG画素は、隣接画素のカラーフィルタのタイプによって2種類に分類される(G1~G2)。
 また、図13Bに示されるカラーフィルタ配列の基本配列パターンPは4画素(水平方向)×4画素(垂直方向)の画素構成を有し、一方の対角線上に配置された2つの第1のサブ配列及び他方の対角線上に配置された2つの第2のサブ配列によって各基本配列パターンPは構成されている。第1のサブ配列は、一方の対角線上に配置された2つのR画素と、他方の対角線上に配置された2つのG画素とによって構成されている。第2のサブ配列は、一方の対角線上に配置された2つのB画素と、他方の対角線上に配置された2つのG画素とによって構成されている。本例のカラーフィルタ配列のG画素は、隣接画素のカラーフィルタのタイプによって2種類に分類される(G1~G2)。
 上述の図9~図13に示される各カラーフィルタ配列を有するカラー撮像素子27から出力される画像データ(画素データ)に対しても、上述の混色判定補正部41による混色補正フロー(異常斜め入射光の検出、混色補正A及び混色補正B)を適用することで、「異常斜め入射光に起因する同色画素間の画素データの段差」及び「画素特性に起因する混色」を効果的に低減することができる。また特に、基本配列パターンPに含まれる同色画素(G画素)の全てが隣接画素のカラーフィルタの種類が相互に異なる画素によって構成される場合(例えば図10~図13参照)、第2の混色補正部63による混色補正BのカーネルサイズKを基本配列パターンPの構成画素数と同じにすることで、混色補正Bで使用する周辺画素を、隣接画素のカラーフィルタの種類が相互に異なる画素によって構成することが可能である。
 <他の変形例>
 その他にも、カラー撮像素子27のカラーフィルタ配列の基本配列パターンPの画素サイズは特に限定されず、任意のM画素(水平方向)×N画素(垂直方向)(ただし、Mは3以上の整数、Nは3以上の整数)の画素によって基本配列パターンPを構成することが可能である。
 また、上述の実施形態ではRGBのカラーフィルタによってカラー撮像素子27の複数画素が構成される例について説明したが、RGBに加えて、又はRGBの一部又は全部に代えて、他の色のカラーフィルタが含まれていてもよい。例えば、カラー撮像素子27を構成する複数の画素が、RGB画素に加えてW画素(透明画素、白色画素)を含んでいてもよい。このW画素のカラーフィルタが、カラー撮像素子27に含まれる他のカラーフィルタよりも、輝度信号Yを得るための寄与率が高い場合(例えば、Y=0.5W+0.5(0.3R+0.59G+0.11B))には、このW画素を上述の混色補正の補正対象画素としてもよい。図14は、Rカラーフィルタ、Gカラーフィルタ、Bカラーフィルタ及びW(透明)カラーフィルタの分光感度の一例を示す図であり、横軸は光の波長を示し、縦軸は感度(光透過率)を示す。
 なお、透明画素及び白色画素は、両者共に可視光波長域の全域において比較的高い光透過率を有するカラーフィルタを有するが、透明画素のカラーフィルタ(透明フィルタ)は白色画素のカラーフィルタ(白色フィルタ)よりも高い光透過率を有する。
 <混色補正A>
 次に、第1の混色補正部62による、「異常斜め入射光(ゴースト光等)が検出されない場合の混色補正A」の一例について説明する。本例では、カラー撮像素子27が、X-Trans配列(図2A,2B及び図6参照)の基本配列パターンPによって構成されるカラーフィルタ配列を有する場合について説明する。
 図2A,2Bに示したカラーフィルタ配列内の2画素(水平方向)×2画素(垂直方向)の4つのGフィルタのうちの右上のGフィルタに対応するG画素(混色補正の対象画素)と、この対象画素(自画素)に隣接する上下左右の隣接画素(上画素(B画素)、下画素(G画素)、左画素(G画素)、右画素(R画素))に注目した場合、その対象画素を基準にした上下左右の各方位方向の隣接画素の色は、それぞれB、G、G、及びRとなっている。
 図2A,2Bに示す6画素×6画素の基本配列パターンPのうちの、3画素×3画素の第1のサブ配列の9画素及び第2のサブ配列の9画素は、いずれの画素を対象画素にした場合でも、その対象画素の上下左右に隣接する4つの画素の色の組合せは異なるものとなる。
 対象画素の4つの隣接画素の色は、RGBの3色のいずれの色も取り得るため、4つの隣接画素の色の組合せ(重複順列)は、3=81通り存在する。なお、この実施形態のカラーフィルタ配列の場合、4つの隣接画素の組合せは、第1のサブ配列及び第2のサブ配列の18画素に対応する18通り存在する。
 基本配列パターンPの画素サイズが大きくなり、3色のRGBの画素の配列の自由度が上がると、隣接する隣接画素の色配置の組合せが増える。また、RGBの3色以外に、エメラルドやイエローの画素が存在する場合には、更に色配置の組合せが増えることになる。
 4つの隣接画素別の混色率を1セットにして、隣接画素の色の組合せ毎に混色率を記憶しても良い。しかし、上下左右の4方向の他に、斜め方向(左上、右上、左下、右下)の隣接画素の色も考慮すると、色配置の組合せの数は更に増え、混色率のデータ量が増大する。
 また、この実施形態のカラー撮像素子27は、CMOS型の撮像素子であり、図15に示すようにCMOSの下地に画素共有アンプAが埋め込まれており、K×L(2×2)画素が1つのアンプAを共有している。このカラー撮像素子27の素子構造により、アンプAに対する画素(自画素)の位置1~4(アンプAに対して左上、右上、左下、右下の位置)により出力レベルに差が生じる。
 メモリ部(メモリ37)は、図16に示す補正テーブルを記憶している。この補正テーブルには、隣接画素の3つの色(RGB)を第1パラメータP1とし、アンプAを共有している2×2画素のうちの自画素の位置(図15上の位置1~4)を第2パラメータP2とし、これらのパラメータP1、P2の組合せに対応する混色率A1~A12の合計12個の混色率が、パラメータP1、P2に関連づけて記憶されている。メモリ部への補正テーブルの保存は、予め製品出荷前の検査時に上記パラメータの組合せに対応する混色率を求め、製品別に保存することが好ましい。
 また、モザイク画像の中央部と周辺部とでは、カラー撮像素子27の各画素へ被写体光の入射角が異なるため混色率が異なる。そこで、図17に示すようにモザイク画像の全領域を、例えば、8×8の分割領域に分割し、分割領域[0][0]~[7][7]毎に、図16に示した補正テーブルをメモリ部に記憶させる。以下、64(=8×8)の分割領域のうちのいずれかを特定するパラメータを第3パラメータP3という。
 図18は、第1の混色補正部62の内部構成の実施形態を示すブロック図である。
 第1の混色補正部62は、主として遅延処理部67と、減算器69と、乗算器70と、加算器71と、パラメータ取得部(パラメータ取得手段)72と、混色率設定部73とから構成されている。
 図18において、カラー撮像素子27を介して取得したモザイク画像(RGBの色信号)は、点順次で遅延処理部67に加えられる。遅延処理部67は、1H(水平ライン)のラインメモリ68a~68cを有し、点順次で入力するRGBの色信号は、1画素の処理を行うインターバルで順次ラインメモリ68a~68c内をシフトさせられる。ラインメモリ68bの斜線で示した位置の色信号を、混色補正の対象画素の色信号とすると、ラインメモリ68a、68c上の同じ位置の色信号は、それぞれ上画素、下画素の色信号となり、ラインメモリ68bの斜線で示した位置の左右の位置の色信号は、それぞれ左画素、右画素の色信号となる。
 このようにして遅延処理部67は、点順次で入力するRGBの色信号を適宜遅延させ、混色補正の対象画素と、その対象画素の上下左右の隣接画素(上画素、下画素、左画素、右画素)とを同時に出力する。遅延処理部67から出力される対象画素の色信号は、減算器69に加えられ、上画素、下画素、左画素、及び右画素の色信号は、それぞれ乗算器70に加えられる。
 パラメータ取得部72には、遅延処理部67から出力される、モザイク画像内における対象画素の位置(x、y)を示す情報が加えられており、パラメータ取得部72は、対象画素の位置(x、y)を示す情報に基づいて第1~第3パラメータP1~P3を取得する。なお、対象画素の位置(x、y)を示す情報は、モザイク画像の画素毎に信号処理を指示するCPU30又は画像処理回路32(混色補正判定部61等)から取得することができる。
 モザイク画像内における対象画素の位置(x、y)が特定されると、対象画素(自画素)の位置(図15上の位置1~4)を示す第2パラメータP2と、自画素が属する分割領域(図17参照)を示す第3パラメータP3とを決定することができる。また、モザイク画像内における対象画素の位置(x、y)が特定されると、対象画素の隣接画素(上画素、下画素、左画素、及び右画素)の色を決定することができる。即ち、隣接画素の色を示す第1パラメータP1を決定することができる。パラメータ取得部72は、上記のようにしてモザイク画像内における対象画素の位置(x、y)の情報に基づいて第1~第3パラメータP1~P3を決定し、混色率設定部73に出力する。
 混色率設定部73は、パラメータ取得部72から入力する第1~第3パラメータP1~P3に基づいて、メモリ37から対応する4つの混色率A~Dを読み出し、これらの混色率A~Dをそれぞれ乗算器70の他の入力に加える。即ち、混色率設定部73は、第3パラメータP3に基づいて対象画素が属する分割領域に対応する補正テーブルを選択し、選択した補正テーブルから第1、第2パラメータP1、P2に基づいて、隣接画素の方位方向別の4つの混色率A~D(図16のA1~A12参照)を読み出す。
 乗算器70は、それぞれ入力する上画素、下画素、左画素、及び右画素の色信号と混色率A~Dとを乗算し、乗算値を加算器71に出力する。加算器71は、入力する4つの乗算値を加算し、加算値を減算器69の他の入力に加える。この加算値は、混色補正の対象画素の色信号に含まれる混色成分に対応する。
 減算器69の一方の入力には、混色補正の対象画素の色信号が加えられており、減算器69は、対象画素の色信号から加算器71から入力する加算値(混色成分)を減算し、混色成分が除去(混色補正)された対象画素の色信号を出力する。
 上記減算器69、乗算器70、及び加算器71による計算を数式で示すと、次式で表すことができる。
 [数式1] 
 補正後の色信号=補正前の色信号-(上画素×混色率A+下画素×混色率B+左画素×混色率C+右画素×混色率D)
 上記のようにして第1の混色補正部62により混色補正された色信号は、後段のWB補正部42及びRGB積算部44に出力される(図3参照)。
 図19は、混色補正に係る画像処理の一例を示すフローチャートである。
 第1の混色補正部62は、まず、混色補正開始前に混色補正の対象画素の位置(x、y)を、初期値(0、0)に設定する(ステップS10)。
 続いて、対象画素(x、y)の色信号(画素値)と、対象画素(x、y)の上下左右の隣接画素の色信号(画素値)を取得する(ステップS12)。
 パラメータ取得部72は、対象画素の位置(x、y)に基づいて、前述したように第1~第3パラメータP1~P3を取得する(ステップS14)。
 混色率設定部73は、パラメータ取得部72により取得された第1~第3パラメータP1~P3に基づいてメモリ部から対応する混色率A~Dを読み出す(ステップS16)。
 次に、ステップS12で取得した対象画素の画素値及び隣接画素の画素値と、ステップS16で読み出した混色率A~Dとに基づいて、[数式1]で示した演算処理を行い、対象画素の画素値から混色成分を除去する混色補正を行う(ステップS18)。
 続いて、全ての対象画素の混色補正が終了したか否かを判別し(ステップS20)、終了していない場合(S20のNo)には、ステップS22に遷移させる。
 ステップS22では、対象画素の位置(x、y)を1画素移動させ、また、対象画素の位置(x、y)が水平方向の左端に達した場合には、水平方向の右端に戻すとともに、垂直方向に1画素移動させてステップS12に遷移させ、上記ステップS12からステップS20の処理を繰り返し実行させる。
 一方、ステップS20において、全ての対象画素の混色補正が終了したと判別されると(S20のYes)、本混色補正の処理を終了する。
 本発明は、図2A,2Bに示したカラーフィルタ配列のモザイク画像に限らず、種々のカラーフィルタ配列のモザイク画像に対して適用することができる。この場合、混色補正のハードウエアを変更することなく上述の混色補正を適用することができる。
 また、画素共有アンプが埋め込まれていない撮像素子から取得されるモザイク画像に対しては、アンプに対する自画素の位置を示す第3パラメータP3は不要になり、モザイク画像の中央部と周辺部とで混色率の変化が少ない場合には、分割領域毎に混色率の補正テーブルを持たなくてもよい。
 一方、補正対象画素に対する隣接画素の位置、すなわち、補正対象画素の上下左右方向及び斜め方向(左上、右上、左下、右下)の各々に関して補正のパラメータを設定するようにしても良い。このように補正対象画素に対する隣接画素の位置ごとに補正パラメータを設定することで、より高精度の混色補正が可能となる。
 <異常斜め入射光の検出及び混色補正B>
 次に、混色補正判定部61及び第2の混色補正部63による「異常斜め入射光(ゴースト光等)の検出及び異常斜め入射光が検出された場合の混色補正B」の一例について説明する。
 画像処理回路32の混色判定補正部41は、異常斜め入射光を検出する異常斜め入射光検出部として働く混色補正判定部61を有する。混色補正判定部61は、第1の第1方向同色隣接画素、第2の第1方向同色隣接画素、第1の第1方向異色隣接画素及び第2の第1方向異色隣接画素の画素データに基づいて、カラー撮像素子27へ水平方向に入射する異常斜め入射光を検出することができる。
 図20において、混色補正判定部61による水平方向の紙面に向かって左側からの異常斜め入射光の検出を説明する。図20の符号1-1で示されるGフィルタを有する画素(第1の第1方向同色隣接画素)は、紙面に向かって左側から水平方向に異常斜め入射光が入射された場合、紙面に向かって左側に隣接するGフィルタを有する画素(図20の符号3-1)からの混色の影響を受ける。そして、図20の符号1-1で示されるGフィルタを有する画素は、画素データGgを出力する。
 図20の符号2-1で示されるGフィルタを有する画素(第2の第1方向同色隣接画素)は、紙面に向かって左側から水平方向に異常斜め入射光が入射された場合、紙面に向かって左側に隣接するGフィルタを有する画素(図20の符号4-1)からの混色の影響を受ける。そして、図20の符号2-1で示されるGフィルタを有する画素は、画素データGgを出力する。
 図20の符号3-1で示されるGフィルタを有する画素(第1の第1方向異色隣接画素)は、紙面に向かって左側から水平方向に異常斜め入射光が入射された場合、紙面に向かって左側に隣接するBフィルタを有する画素からの混色の影響を受ける。そして、図20の符号3-1で示されるGフィルタを有する画素は、画素データGbを出力する。
 図20の符号4-1で示されるGフィルタを有する画素(第2の第1方向異色隣接画素)は、紙面に向かって左側から水平方向に異常斜め入射光が入射された場合、紙面に向かって左側に隣接するRフィルタを有する画素からの混色の影響を受ける。そして、図20の符号4-1で示されるGフィルタを有する画素は、画素データGrを出力する。
 そして、混色補正判定部61では、上述した、第1の第1方向同色隣接画素(図20の符号1-1、第2の第1方向同色隣接画素(図20の符号2-1)、第1の第1方向異色隣接画素(図20の符号3-1)、及び第2の第1方向異色隣接画素(図20の符号4-1)の画素データを比較する。
 上記したように、第1の第1方向同色隣接画素(図20の符号1-1)と第2の第1方向同色隣接画素(図20の符号2-1)との画素データはGgであり同じである。又、第1の第1方向異色隣接画素(図20の符号3-1)と第2の第1方向異色隣接画素(図20の符号4-1)との画素データは、GbとGrで異なる。この結果より、混色補正判定部61は、紙面に向かって左側から水平方向に異常斜め入射光があると判断することができる。
 なお、画素データGgが同じであるとは、第1の第1方向同色隣接画素の画素データ(Gg)と第2の第1方向同色隣接画素の画素データ(Gg)との差分値が第1の第1方向同色隣接画素(又は第2の第1方向同色隣接画素)の画素データの2%以内であることをいい、撮像対象によっては1%以内であってもよい。
 また、画素データGbとGrが異なるとは、その差分値の絶対値が第1の第1方向同色隣接画素(又は第2の第1方向同色隣接画素)の画素データの10%以上であることをいい、撮像対象によっては8%以上であってもよい。
 次に、図20において、垂直方向の紙面に向かって上側からの混色補正判定部61が行う異常斜め入射光の検出を説明する。図20の符号1-3で示されるGフィルタを有する画素(第1の第2方向同色隣接画素)は、紙面に向かって上側から垂直方向に異常斜め入射光が入射された場合、隣接するGフィルタを有する画素(図20の符号3-3)からの混色の影響を受ける。そして、図20の符号1-3で示されるGフィルタを有する画素は、画素データGgを出力する。
 図20の符号2-3で示されるGフィルタを有する画素(第2の第2方向同色隣接画素)は、紙面に向かって上側から垂直方向に異常斜め入射光が入射された場合、隣接するGフィルタを有する画素(図20の符号4-3)からの混色の影響を受ける。そして、図20の符号2-3で示されるGフィルタを有する画素は、画素データGgを出力する。
 図20の符号3-3で示されるGフィルタを有する画素(第1の第2方向異色隣接画素)は、紙面に向かって上側から垂直方向に異常斜め入射光が入射された場合、上側のBフィルタを有する画素からの混色の影響を受ける。そして、図20の符号3-3で示されるGフィルタを有する画素は、画素データGbを出力する。
 図20の符号4-3で示されるGフィルタを有する画素(第2の第2方向異色隣接画素)は、垂直方向の紙面に向かって上側から異常斜め入射光が入射された場合、上側のRフィルタを有する画素からの混色の影響を受ける。そして、図20の符号4-3で示されるGフィルタを有する画素は、画素データGrを出力する。
 そして、混色補正判定部61では、上述した、第1の第2方向同色隣接画素(図20の符号1-3、第2の第2方向同色隣接画素(図20の符号2-3)、第1の第2方向異色隣接画素(図20の符号3-3)、及び第2の第2方向異色隣接画素(図20の符号4-3)の画素データを比較する。上記したように、第1の第2方向同色隣接画素(図20の符号1-3)と第2の第2方向同色隣接画素(図20の符号2-3)との画素データはGgであり同じである。又、第1の第2方向異色隣接画素(図20の符号3-3)と第2の第2方向異色隣接画素(図20の符号4-3)との画素データは、GbとGrで異なる。この結果より、混色補正判定部61は、紙面に向かって上側から垂直方向に異常斜め入射光があると判断する。
 なお、画素データGgが同じであるとは、第1の第2方向同色隣接画素の画素データ(Gg)と第2の第2方向同色隣接画素の画素データ(Gg)との差分値が第1の第2方向同色隣接画素(又は第2の第2方向同色隣接画素)の画素データの2%以内であることをいい、撮像対象によっては1%以内であってもよい。
 また、画素データGbとGrが異なるとは、その差分値の絶対値が第1の第2方向同色隣接画素(又は第2の第2方向同色隣接画素)の画素データの10%以上であることをいい、撮像対象によっては8%以上であってもよい。
 尚、混色補正判定部61が行う「紙面に向かって右側から水平方向に入射する異常斜め入射光の検出」及び「紙面に向かって下側から垂直方向に入射する異常斜め入射光の検出」は、上記と同様に行われる。
 以上説明したように、混色補正判定部61は、四方向からの異常斜め入射光(紙面に向かって左側から水平方向に入射する異常斜め入射光、紙面に向かって右側から水平方向に入射する異常斜め入射光、紙面に向かって上側から垂直方向に入射する異常斜め入射光、紙面に向かって下側から垂直方向に入射する異常斜め入射光)を検出することができる。言い換えると、混色補正判定部61は、異常斜め入射光の検出を行うと、異常斜め入射光の入射方向の判別も行っている。
 尚、ここでは、紙面に向かって左側から右側に向かう水平方向を第1の方向の正方向とし、紙面に向かって右側から左側に向かう水平方向を第1の方向の負方向として説明している。また、紙面に向かって下側から上側に向かう垂直方向を第2の方向の正方向とし、紙面に向かって上側から下側に向かう垂直方向を第2の方向の負方向として説明している。
 なお、異常斜め入射光の検出は、上記のように、画素データのバラツキがある一定の範囲に発生する場合に検出する。ここでいう一定の範囲とは、一般的なゴースト(異常斜め入射光による本来存在しない像)を検出しうる範囲のことをいう。例えば、64画素×64画素の範囲において、上記異常斜め入射光の検出を行ってもよいし、32画素×32画素で上記異常斜め入射光の検出を行ってもよい。
 [混色補正]
 第2の混色補正部63では、異常斜め入射光の入射による混色の補正を行うことができる。すなわち、第2の混色補正部63は、異常斜め入射光検出手段によりカラー撮像素子27へ水平方向に入射する異常斜め入射光が検出された場合、画素データGgを使用して、画素データGb及び画素データGrを補正することができる。
 画素データGgを使用して画素データGb及び画素データGrを補正することにより、混色の影響を最小限に抑えることができる。すなわち、画素データGg、画素データGr、及び画素データGbを比較すると、画素データGgに対する混色は同色画素からの漏れ込みであり最も混色の影響が少ないので、画素データGgを使用して、画素データGr及び画素データGbを補正することが望ましい。
 第2の混色補正部63は、様々な方法により、画素データGgを使用して画素データGr及びGbに対して補正を行うことがきる。例えば、第2の混色補正部63は、画素データGr及びGbを有する画素の画素データを、画素データGgに置き換えることにより補正をすることもできる。また、Gフィルタ有する画素の画素データを、画素データGrと画素データGgとの平均値、画素データGbと画素データGgとの平均値、又は画素データGbと画素データGrと画素データGgとの平均値に補正することもできる。
 第2の混色補正部63は、図21A~21E及び図22A~22Eで説明するように、異常斜め入射光の入射方向を考慮して混色補正を行うこともできる。
 図21A及び図22Aには、図20において示したカラー撮像素子27の一部分を示しており、図21A~21E及び図22A~22Eの紙面に向かって右側から水平方向に異常斜め入射光が入射した場合を示している。図20において示されたカラー撮像素子27においては、図21A及び図22Aのように紙面に向かって右側から水平方向に異常斜め入射光が入射した場合には、Gフィルタを有する2画素×2画素の画素群(第1色画素群)がGg、Gg、Gr、及びGbという画素データを出力する。
 図21B~21Eに示すように、Gフィルタを有する画素の画素データに対して四方の画素データを基に補正を行う場合、補正にGrやGbといった混色の影響を受けている画素データを使用する為、補正後の画素データGgC間で値が異なってしまう場合がある。
 以下に補正後の画素データGgC間で値が異なることを説明する。先ず、図21Bで示されるように、第1画素群の紙面に向かって左上に位置するGgを示す画素データに対して、四方(紙面に向かって、左、右、上、下)の画素データの値を使用して混色補正を行い、画素データGgCを得る。この画素データGgCは、混色の影響を受けたGrを示す画素データを混色補正に使用しているので、混色の影響を受ける。
 次に、図21Cで示されるように、第1画素群の紙面に向かって右上のGrを示す画素データに対して、四方の画素データの値を使用して混色補正を行い画素データGrCを得る。次に、図21Dで示されるように、第1画素群の紙面に向かって左下のGgを示す画素データに対して、回りの画素データの値を使用して混色補正を行い画素データGgCを得る。この画素データGgCは、混色の影響を受けたGbを示す画素データを混色補正に使用しているので、混色の影響を受ける。
 次に、図21Eで示されるように、第1画素群の紙面に向かって右下のGbを示す画素データに対して、回りの画素データの値を使用して混色補正を行い、画素データGbCを得る。
 図21Bと図21Dでは、同じ画素データGgに対して混色補正が行われて、画素データGgCが得られる。しかし、図21Bと図21Dの画素データGgCの各々は、異なる混色の影響を受けているので、図21Bと図21D画素データGgCは異なる値を示す。すなわち、図21Bの場合は画素データGrが、及び、図21Dの場合は画素データGbが混色の影響を受けており、GrとGbとで混色が異なるため、混色補正の結果得られる画素データGgC間で混色の影響による差異が生じてしまう。
 一方、図22A~22Eに示されたような混色補正では、異常斜め入射光の入射方向を考慮して混色補正を行っている為に、混色補正後に得られる画素データGgC間で差異は生じない。以下に補正後の画素データGgC間で値が異なることを説明する。
 先ず、図22Bで示されるように、第1画素群の紙面に向かって右上のGrを示す画素データに対して、四方の画素データの値を使用して混色補正を行い画素データGrCを得る。尚、ここで、異常斜め入射光の入射方向(右側)への混色補正を強く行ってもよい。
 次に、図22Cで示されるように、第1画素群の紙面に向かって右下のGbを示す画素データに対して、四方の画素データの値を使用して混色補正を行い、画素データGbCを得る。次に、図22Dで示されるように、第1画素群の紙面に向かって左上のGgを示す画素データに対して、四方の画素データの値を使用して混色補正を行い画素データGgCを得る。この際、GrCを示す画素データを混色補正に使用するが、GrCは予め混色補正を行っているので、混色補正の影響は取り除かれている。
 次に、図22Eで示されるように、第1画素群の紙面に向かって左下のGgを示す画素データに対して、回りの画素データの値を使用して混色補正を行い画素データGgCを得る。この際、GbCを示す画素データを混色補正に使用するが、GbCは予め混色補正を行っているので、混色補正の影響は取り除かれている。
 図22Dと図22Eでは、同じ画素データGgに対して混色補正が行われ、得られる画素データのGgCも同じ値を示す。なぜならば、図22Bの場合は画素データGrが混色の影響を受け、図22Cの場合は画素データGbが混色の影響を受けているが、図22Dと図22Eで混色補正が行われる前に図22B及び図22Cで混色補正が行われていることにより混色の影響を取り除いているからである。
 このように、異常斜め入射光の入射方向を考慮して、混色補正を行う画素の順番を変えることにより、より精度の高い混色補正を行うことができる。図22の場合では、異常斜め入射光の入射方向に位置する画素から、混色補正を行うことにより、より精度の高い混色補正を行うことができる。
 本発明において、様々なカラーフィルタ配列を有するカラー撮像素子27を使用することができる。以下に、異なるカラーフィルタ配列を有するカラー撮像素子27を変形例として説明する。
 <撮像素子の他の実施形態(変形例1)>
 図23は、上記カラー撮像素子27の他の実施形態を示す図であり、特にカラー撮像素子27の受光面上に配置されているカラーフィルタ配列に関して示している。
 図23に示すカラーフィルタ配列は、水平方向及び垂直方向に関して6画素×6画素配列される画素によって構成される複数の基本配列画素群が、水平方向及び垂直方向に並置される複数の基本配列画素群を含む。
 図23に示すカラーフィルタ配列は、6画素×6画素に対応する正方配列パターンからなる基本配列パターンP(太枠で示した画素群)を含み、この基本配列パターンPが水平方向及び垂直方向に繰り返し配置されている。即ち、このカラーフィルタ配列は、Rフィルタ、Gフィルタ、Bフィルタが周期性をもって配列されている。
 このようにRフィルタ、Gフィルタ、Bフィルタが周期性をもって配列されているため、カラー撮像素子27から読み出されるR、G、B信号のデモザイク処理等を行う際に、繰り返しパターンに従って処理を行うことができる。
 図23に示すカラーフィルタ配列を構成する基本配列パターンPは、輝度信号を得るために最も寄与する色(Gの色)に対応するGフィルタと、Gの色以外の他の色(R及びB)に対応するRフィルタ、Bフィルタとが、基本配列パターンP内の水平及び垂直方向の各ライン内に1つ以上配置されている。
 R、G、Bフィルタが、それぞれ基本配列パターンP内の水平及び垂直方向の各ライン内に配置されるため、色モワレ(偽色)の発生を抑圧することができる。これにより、偽色の発生を抑制するための光学ローパスフィルタを光学系の入射面から撮像面までの光路に配置しないようにでき、又は光学ローパスフィルタを適用する場合でも偽色の発生を防止するための高周波数成分をカットする働きの弱いものを適用することができ、解像度を損なわないようにすることができる。
 輝度系画素に対応するGフィルタは、基本配列パターンP内において、水平、垂直、及び斜め方向の各方向に2以上隣接する部分が含まれるように配置されている。
 基本配列パターンPの各々は、水平方向及び垂直方向に関して3画素×3画素配列される画素のカラーフィルタによって構成される二つの第1のサブ配列及び二つの第2サブ配列を含む。
 図24は、図23に示した基本配列パターンPを、3画素×3画素に4分割した状態に関して示している。
 図24において、第1のサブ配列は、中央に配置されるRフィルタを有する1画素と、四隅に配置されるBフィルタを有する4画素と、四隅の画素の各々間に配置されるGフィルタを有する4画素とを有し、第2サブ配列は、中央に配置されるBフィルタを有する1画素と、四隅に配置されるRフィルタを有する4画素と、四隅の画素の各々間に配置されるGフィルタを有する4画素とを有し、第1のサブ配列は、水平方向及び垂直方向に第2のサブ配列と隣接配置される。
 図24に示すように基本配列パターンPは、実線の枠で囲んだ3画素×3画素の第1のサブ配列と、破線の枠で囲んだ3画素×3画素の第2のサブ配列とが、水平、垂直方向に交互に並べられた配列となっていると捉えることもできる。
 第1のサブ配列は、中心にRフィルタが配置され、4隅にBフィルタが配置され、中心のRフィルタを挟んで上下左右にGフィルタが配置されている。一方、第2のサブ配列は、中心にBフィルタが配置され、4隅にRフィルタが配置され、中心のBフィルタを挟んで上下左右にGフィルタが配置されている。これらの第1のサブ配列と第2のサブ配列とは、RフィルタとBフィルタとの位置関係が逆転しているが、その他の配置は同様になっている。
 [異常斜め入射光検出]
 上記変形例1のカラー撮像素子27を有するデジタルカメラ10の場合、混色補正判定部61では以下のように異常斜め入射光の検出及び方向の特定を行う。
 図23に示された変形例1おいて、水平方向の紙面に向かって左側からの混色補正判定部61が行う異常斜め入射光の検出を具体的に説明する。図23の符号1-1で示されるGフィルタを有する画素は、図23の紙面に向かって左側にGフィルタを有する画素(図23の符号3-1)が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第1方向同色隣接画素)である。図23の符号2-1で示されるGフィルタを有する画素は、図23の紙面に向かって左側にGフィルタを有する画素(図23の符号4-1)が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第1方向同色隣接画素)である。
 図23の符号3-1で示されるGフィルタを有する画素は、図23の紙面に向かって左側にGフィルタとは異色であるRフィルタを有する画素が隣接配置されており、第1の色と異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第1方向異色隣接画素)である。又、図23の符号4-1で示されるGフィルタを有する画素は、図23の紙面に向かって左側にGフィルタとは異色であるBフィルタを有する画素が隣接配置されており、第1の色と異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第1方向異色隣接画素)である。
 そして、混色補正判定部61では、上述した、第1の第1方向同色隣接画素(図23の符号1-1)、第2の第1方向同色隣接画素(図23の符号2-1)、第1の第1方向異色隣接画素(図23の符号3-1)、及び第2の第1方向異色隣接画素(図23の符号4-1)の画素データを比較し、第1の第1方向同色隣接画素(図23の符号1-1)と、第2の第1方向同色隣接画素(図23の符号2-1)の値が同じであり、且つ第1の第1方向異色隣接画素(図23の符号3-1)と、第2の第1方向異色隣接画素(図23の符号4-1)との値が異なる場合には、紙面に向かって左側から水平方向に進行する異常斜め入射光の存在が検出される。
 図23に示された変形例1おいて、水平方向の紙面に向かって右側からの混色補正判定部61が行う異常斜め入射光の検出を具体的に説明する。図23の符号1-2で示されるGフィルタを有する画素は、図23の紙面に向かって右側にGフィルタを有する画素(図23の符号3-2)が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第1方向同色隣接画素)である。図23の符号2-2で示されるGフィルタを有する画素は、図23の紙面に向かって右側にGフィルタを有する画素(図23の符号4-2)が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第1方向同色隣接画素)である。
 図23の符号3-2で示されるGフィルタを有する画素は、図23の紙面に向かって右側にGフィルタとは異色であるRフィルタを有する画素が隣接配置されており、第1の色と異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第1方向異色隣接画素)である。又、図23の符号4-2で示されるGフィルタを有する画素は、図23の紙面に向かって右側にGフィルタとは異色であるBフィルタを有する画素が隣接配置されており、第1の色と異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第1方向異色隣接画素)である。
 そして、混色補正判定部61では、上述した、第1の第1方向同色隣接画素(図23の符号1-2)、第2の第1方向同色隣接画素(図23の符号2-2)、第1の第1方向異色隣接画素(図23の符号3-2)、及び第2の第1方向異色隣接画素(図23の符号4-2)の画素データを比較し、第1の第1方向同色隣接画素(図23の符号1-2)、第2の第1方向同色隣接画素(図23の符号2-2)の値が同じであり、且つ第1の第1方向異色隣接画素(図23の符号3-2)と、第2の第1方向異色隣接画素(図23の符号4-2)との値が異なる場合には、紙面に向かって右側から水平方向に進行する異常斜め入射光の存在が検出される。
 次に、垂直方向の紙面に向かって上側から入射される異常斜め入射光の検出を行う場合について説明する。図23に示された変形例1おいて、垂直方向の紙面に向かって上側からの混色補正判定部61が行う異常斜め入射光の検出は以下のように行う。
 図23の符号1-3で示されるGフィルタを有する画素は、図23の紙面に向かって上側にGフィルタを有する画素(図23の符号3-3)が隣接配置されており、Gフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第2方向同色隣接画素)である。図23の符号2-3で示されるGフィルタを有する画素は、図23の紙面に向かって上側にGフィルタを有する画素(図23の符号4-3)が隣接配置されており、Gフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第2方向同色隣接画素)である。
 図23の符号3-3で示されるGフィルタを有する画素は、図23の紙面に向かって上側にGフィルタと異色であるRフィルタを有する画素が隣接配置されており、Gフィルタと異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第2方向異色隣接画素)である。又、図23の符号4-3で示されるGフィルタを有する画素は、図23の紙面に向かって上側にGフィルタと異色であるBフィルタを有する画素が隣接配置されており、Gフィルタと異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第2方向異色隣接画素)である。
 そして、混色補正判定部61では、上述した、第1の第2方向同色隣接画素(図23の符号1-3)、第2の第2方向同色隣接画素(図23の符号2-3)、第1の第2方向異色隣接画素(図23の符号3-3)、及び第2の第2方向異色隣接画素(図23の符号4-3)の画素データを比較し、第1の第2方向同色隣接画素(図23の符号1-3)、第2の第2方向同色隣接画素(図23の符号2-3)の値が同じであり、且つ第1の第2方向異色隣接画素(図23の符号3-3)と、第2の第2方向異色隣接画素(図23の符号4-3)との値が異なる場合には、垂直方向からの異常斜め入射光の存在が検出される。
 紙面に向かって下側から垂直方向に入射される異常斜め入射光の検出を行う場合は、以下のように行う。図23に示された変形例1おいて、垂直方向の紙面に向かって下側からの混色補正判定部61が行う異常斜め入射光の検出を具体的に説明する。
 図23の符号1-4で示されるGフィルタを有する画素は、図23の下側にGフィルタを有する画素(図23の符号3-4)が隣接配置されており、Gフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第2方向同色隣接画素)である。図23の符号2-4で示されるGフィルタを有する画素は、図23の下側にGフィルタを有する画素(図23の符号4-4)が隣接配置されており、Gフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第2方向同色隣接画素)である。
 図23の符号3-4で示されるGフィルタを有する画素は、図23の下側にGフィルタと異色であるRフィルタを有する画素が隣接配置されており、Gフィルタと異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第2方向異色隣接画素)である。又、図23の符号4-4で示されるGフィルタを有する画素は、図23の下側にGフィルタと異色であるBフィルタを有する画素が隣接配置されており、Gフィルタと異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第2方向異色隣接画素)である。
 そして、混色補正判定部61では、上述した、第1の第2方向同色隣接画素(図23の符号1-4)、第2の第2方向同色隣接画素(図23の符号2-4)、第1の第2方向異色隣接画素(図23の符号3-4)、及び第2の第2方向異色隣接画素(図23の符号4-4)の画素データを比較し、第1の第2方向同色隣接画素(図23の符号1-4)、第2の第2方向同色隣接画素(図23の符号2-4)の値が同じであり、且つ第1の第2方向異色隣接画素(図23の符号3-4)と、第2の第2方向異色隣接画素(図23の符号4-4)との値が異なる場合には、垂直方向からの異常斜め入射光の存在が検出される。
 尚、説明の明瞭化のため、図23において、符号1-1~4-1の画素による水平方向の紙面に向かって左側からの異常斜め入射光の検出と、符号1-2~4-2の画素による水平方向の紙面に向かって右側からの異常斜め入射光の検出と、符号1-3~4-3の画素による垂直方向からの異常斜め入射光の検出と、符号1-4~4-4の画素による垂直方向からの異常斜め入射光の検出とを、隣接する異なる基本配列画素群Pに配置された画素で検出するように説明した。しかし、同一の基本配列画素群P内に、符号1-1~4-1の画素、符号1-2~4-2の画素、符号1-3~4-3の画素、及び符号1-4~4-4の画素に対応する画素から検出するようにしてもよい。
 <撮像素子の他の実施形態(変形例2)>
 図25は、上記カラー撮像素子27の他の実施形態(変形例2)を示す図であり、特にカラー撮像素子27の受光面上に配置されているカラーフィルタ配列に関して示している。
 図25に示された、カラーフィルタ配列は、水平方向及び垂直方向に関して4画素×4画素配列される画素によって構成される複数の基本配列画素群を有する。また、カラーフィルタ配列は、水平方向及び垂直方向に並置される複数の基本配列画素群を含み、基本配列画素群の各々は、水平方向及び垂直方向に関して2画素×2画素配列される画素によって構成される二つの第1のサブ配列及び二つの第2のサブ配列を含む。
 第1のサブ配列はGフィルタを有する4画素によって構成され、第2のサブ配列はRフィルタを有する2画素及びBフィルタを有する2画素によって構成され、第1のサブ配列は、水平方向及び垂直方向に第2のサブ配列と隣接配置され、第1色画素群は、第1のサブ配列によって構成される。
 具体的には、図25のカラーフィルタ配列は、4画素×4画素に対応する正方配列パターンからなる基本配列パターンP(太枠で示した画素群)を含み、この基本配列パターンPが水平方向及び垂直方向に繰り返し配置されている。即ち、このカラーフィルタ配列は、Rフィルタ、Gフィルタ、Bフィルタが周期性をもって配列されている。
 このようにRフィルタ、Gフィルタ、Bフィルタが周期性をもって配列されているため、カラー撮像素子27から読み出されるR、G、B信号のデモザイク処理等を行う際に、繰り返しパターンに従って処理を行うことができる。
 図25に示すカラーフィルタ配列は、R、G、Bの全ての色のフィルタが、基本配列パターンP内の水平方向及び垂直方向の各ライン内に配置されている。
 図26は、図25に示した基本配列パターンPを、2画素×2画素に4分割した状態を示している。
 図26に示すように基本配列パターンPは、実線の枠で囲んだ2画素×2画素の第1のサブ配列と、破線の枠で囲んだ2画素×2画素の第2のサブ配列とが、水平、垂直方向に交互に並べられた配列となる。
 第1のサブ配列は、Rフィルタ及びBフィルタが水平、垂直方向に交互に並べられた配列となっている。また、第1のサブ配列は、Rフィルタ又はBフィルタが2画素×2画素配列の対角線上に配列されているということもできる。
 一方、第2サブ配列は、Gフィルタを有する画素が2画素×2画素配列されている。Gフィルタを有する画素が2画素×2画素配列は、Gフィルタを有する画素の画素群であり、第1の第1方向同色隣接画素、第2の第1方向同色隣接画素、第1の第1方向異色隣接画素、及び第2の第1方向異色隣接画素を構成し、且つ、第1の第2方向同色隣接画素、第2の第2方向同色隣接画素、第1の第2方向異色隣接画素、及び第2の第2方向異色隣接画素を構成する。
 [異常斜め入射光検出]
 図25に示された例における、変形例2のカラー撮像素子27を有するデジタルカメラ10の混色補正判定部61が行う、水平方向の紙面に向かって左側からの異常斜め入射光の検出を具体的に説明する。
 図25の符号1-1で示されるGフィルタを有する画素は、図25の紙面に向かって左側にGフィルタを有する画素(図25の符号3-1)が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第1方向同色隣接画素)である。図25の符号2-1で示されるGフィルタを有する画素は、図25の紙面に向かって左側にGフィルタを有する画素(図25の符号4-1)が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第1方向同色隣接画素)である。
 図25の符号3-1で示されるGフィルタを有する画素は、図25の紙面に向かって左側に異色であるBフィルタを有する画素が隣接配置されており、異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第1方向異色隣接画素)である。又、図25の符号4-1で示されるGフィルタを有する画素は、図25の紙面に向かって左側に異色であるRフィルタを有する画素が隣接配置されており、異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第1方向異色隣接画素)である。
 そして、混色補正判定部61では、上述した、第1の第1方向同色隣接画素(図25の符号1-1)、第2の第1方向同色隣接画素(図25の符号2-1)、第1の第1方向異色隣接画素(図25の符号3-1)、及び第2の第1方向異色隣接画素(図25の符号4-1)の画素データを比較し、第1の第1方向同色隣接画素(図25の符号1-1)、第2の第1方向同色隣接画素(図25の符号2-1)の値が同じであり、且つ第1の第1方向異色隣接画素(図25の符号3-1)と、第2の第1方向異色隣接画素(図25の符号4-1)との値が異なる場合には、第1方向からの異常斜め入射光の存在が検出される。
 図25に示された、変形例2のカラー撮像素子27を有するデジタルカメラ10の混色補正判定部61が行う、水平方向の紙面に向かって右側からの異常斜め入射光の検出を具体的に説明する。
 図25の符号1-2で示されるGフィルタを有する画素は、図25の紙面に向かって右側にGフィルタを有する画素(図25の符号4-2)が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第1方向同色隣接画素)である。図25の符号2-2で示されるGフィルタを有する画素は、図25の紙面に向かって右側にGフィルタを有する画素(図25の符号3-2)が隣接配置されており、同色のカラーフルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第1方向同色隣接画素)である。
 図25の符号3-2で示されるGフィルタを有する画素は、図25の紙面に向かって右側に異色であるBフィルタを有する画素が隣接配置されており、異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第1方向異色隣接画素)である。又、図25の符号4-2で示されるGフィルタを有する画素は、図25の紙面に向かって右側に異色であるRフィルタを有する画素が隣接配置されており、異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第1方向異色隣接画素)である。
 そして、混色補正判定部61では、上述した、第1の第1方向同色隣接画素(図25の符号1-2)、第2の第1方向同色隣接画素(図25の符号2-2)、第1の第1方向異色隣接画素(図25の符号3-2)、及び第2の第1方向異色隣接画素(図25の符号4-2)の画素データを比較し、第1の第1方向同色隣接画素(図25の符号1-2)、第2の第1方向同色隣接画素(図25の符号2-2)の値が同じであり、且つ第1の第1方向異色隣接画素(図25の符号3-2)と、第2の第1方向異色隣接画素(図25の符号4-2)との値が異なる場合には、紙面に向かって右側から水平方向へ進行する異常斜め入射光の存在が検出される。
 図25に示された、変形例2のカラー撮像素子27を有するデジタルカメラ10の混色補正判定部61が行う、垂直方向の紙面に向かって上側から入射される異常斜め入射光の検出を説明する。
 図25の符号1-3で示されるGフィルタを有する画素は、図25の紙面に向かって上側にGフィルタを有する画素(図25の符号3-3)が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第2方向同色隣接画素)である。図25の符号2-3で示されるGフィルタを有する画素は、図25の紙面に向かって上側にGフィルタを有する画素(図25の符号4-3)が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第2方向同色隣接画素)である。
 図25の符号3-3で示されるGフィルタを有する画素は、図25の紙面に向かって上側に異色であるRフィルタを有する画素が隣接配置されており、異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第2方向異色隣接画素)である。又、図25の符号4-3で示されるGフィルタを有する画素は、図25の紙面に向かって上側に異色であるBフィルタを有する画素が隣接配置されており、異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第2方向異色隣接画素)である。
 そして、混色補正判定部61では、上述した、第1の第2方向同色隣接画素(図25の符号1-3)、第2の第2方向同色隣接画素(図25の符号2-3)、第1の第2方向異色隣接画素(図25の符号3-3)、及び第2の第2方向異色隣接画素(図25の符号4-3)の画素データを比較し、第1の第2方向同色隣接画素(図25の符号1-3)、第2の第2方向同色隣接画素(図25の符号2-3)の値が同じであり、且つ第1の第2方向異色隣接画素(図25の符号3-3)と、第2の第2方向異色隣接画素(図25の符号4-3)との値が異なる場合には、垂直方向からの異常斜め入射光の存在が検出される。
 図25に示された、変形例2のカラー撮像素子27を有するデジタルカメラ10の混色補正判定部61が行う、紙面に向かって下側から垂直方向に入射される異常斜め入射光の検出を説明する。
 図25の符号1-4で示されるGフィルタを有する画素は、図25の紙面に向かって下側にGフィルタを有する画素(図25の符号3-4)が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第2方向同色隣接画素)である。図25の符号2-4で示されるGフィルタを有する画素は、図25の紙面に向かって下側にGフィルタを有する画素(図25の符号4-4)が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第2方向同色隣接画素)である。
 図25の符号3-4で示されるGフィルタを有する画素は、図25の紙面に向かって下側に異色であるRフィルタを有する画素が隣接配置されており、異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第2方向異色隣接画素)である。又、図25の符号4-4で示されるGフィルタを有する画素は、図25の紙面に向かって下側に異色であるBフィルタを有する画素が隣接配置されており、異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第2方向異色隣接画素)である。
 そして、混色補正判定部61では、上述した、第1の第2方向同色隣接画素(図25の符号1-4)、第2の第2方向同色隣接画素(図25の符号2-4)、第1の第2方向異色隣接画素(図25の符号3-4)、及び第2の第2方向異色隣接画素(図25の符号4-4)の画素データを比較し、第1の第2方向同色隣接画素(図25の符号1-4)、第2の第2方向同色隣接画素(図25の符号2-4)の値が同じであり、且つ第1の第2方向異色隣接画素(図25の符号3-4)と、第2の第2方向異色隣接画素(図25の符号4-4)との値が異なる場合には、垂直方向からの異常斜め入射光の存在が検出される。
 図27及び図28では、図25で示されたカラーフィルタ配列を有するカラー撮像素子27において、異常斜め入射光が水平方向における正方向又は負方向のいずれの方向に入射するかの判定の仕方が示されている。図27及び図28では紙面に向かって右側を正方向、左側を負方向とする。
 図27及び図28に示された複数の画素は、Gフィルタを有する画素と水平方向の正方向に隣接し且つ第1の色と異色のカラーフィルタを有する画素と水平方向の負方向に隣接するGフィルタを有する第1の第1色画素(図27の符号3-1)(図28の符号1-2)及び第2の第1色画素(図27の符号4-1)(図28の符号2-2)と、Gフィルタを有する画素と水平方向の負方向に隣接し且つ第1の色と異色のカラーフィルタを有する画素と水平方向の正方向に隣接するGフィルタを有する第3の第1色画素(図27の符号1-1)(図28の符号4-2)及び第4の第1色画素(図27の符号2-1)(図28の符号3-2)を含む。
 図27では、水平方向の正方向に沿って異常斜め入射光が入射している状態を示す。異常斜め入射光が、水平方向の正方向に沿ってカラー撮像素子27に入射した場合、第3の第1色画素(図27の符号1-1)、は、隣接するGフィルタを有する画素(図27の符号3-1)からの混色があるので、画素データがGgとなる。又、第4の第1色画素(図27の符号2-1)も、隣接するGフィルタを有する画素(図27の符号2-1)からの混色があるので、画素データがGgとなる。
 一方、第1の第1色画素(図27の符号3-1)は、負方向側で隣接するBフィルタを有する画素からの混色があるので、画素データがGbとなる。又、第2の第1色画素(図27の符号4-1)は、負方向側で隣接するRフィルタを有する画素からの混色があるので、画素データがGrとなる。
 図27で示すように、第1の第1色画素(図27の符号3-1)がGb、第2の第1色画素(図27の符号4-1)がGr、第3の第1色画素(図27の符号1-1)がGg、及び第4の第1色画素(図27の符号2-1)がGgの出力値が検出された場合に、水平方向の正方向に沿って異常斜め入射光の入射があると判断することができる。更に、第1の画素又は第2の画素の画素データが、Ggである場合に第1の正方向からの異常斜め入射光があると判断することができる。
 図28では、水平方向の負方向に沿って異常斜め入射光が入射している状態を示す。異常斜め入射光が、水平方向の負方向に沿ってカラー撮像素子27に入射した場合、第3の第1色画素(図28の符号4-2)は、正方向側に隣接するRフィルタを有する画素からの混色があるので、画素データがGrとなる。又、第4の第1色画素(図28の符号3-2)も、正方向側に隣接するBフィルタを有する画素からの混色があるので、画素データがGbとなる。
 一方、第1の第1色画素(図28の符号1-2)は、正方向側で隣接するGフィルタを有する画素(図28の符号4-2)からの混色があるので、画素データがGgとなる。又、第2の第1色画素(図28の符号2-2)は、正方向側で隣接するGフィルタを有する画素(図28の符号3-2)からの混色があるので、画素データがGgとなる。
 図28で示すように、第1の第1色画素(図28の符号1-2)がGg、第2の第1色画素(図28の符号2-2)がGg、第3の第1色画素(図28の符号4-2)がGr、及び第4の第1色画素(図28の符号3-2)がGbの出力値が検出された場合に、水平方向の負方向に沿って異常斜め入射光の入射があると判断することができる。更に、第1の画素又は第2の画素の画素データが、Ggである場合に水平方向の負方向からの異常斜め入射光があると判断することができる。
 さらに、異常斜め入射光を検出した場合、第1の第1色画素、第2の第1色画素、第3の第1色画素及び第4の第1色画素のうち、同じ画素データを出力する画素の画素データを使って、異常斜め入射光が入射されるフォトダイオードを有する画素の画素データを補正することができる。
 図27及び図28は説明の都合上、上記カラー撮像素子27の他の実施形態(変形例1)での、水平方向に関して、説明を行っている。しかし、上記カラー撮像素子27の実施形態(図20、図23、及び図25に示されたカラーフィルタ配列を有する撮像素子)は、水平方向及び垂直方向に関して、正方向、負方向のいずれから異常斜め入射光の入射光が入射しているかを判別することができる。
 <撮像素子の他の実施形態(変形例3)>
 図29は、上記カラー撮像素子27の他の実施形態(変形例3)を示す図であり、特にカラー撮像素子27の受光面上に配置されているカラーフィルタ配列に関して示している。
 図29で示されたカラーフィルタ配列では、水平方向及び垂直方向に関して4画素×4画素配列される画素のカラーフィルタによって構成される複数の基本配列パターンPであって、水平方向及び垂直方向に並置される複数の基本配列パターンPを含む。
 このようにRフィルタ、Gフィルタ、Bフィルタが周期性をもって配列されているため、カラー撮像素子27から読み出されるR、G、B信号のデモザイク処理等を行う際に、繰り返しパターンに従って処理を行うことができる。
 図29に示すカラーフィルタ配列は、R、G、Bの全ての色のフィルタが、基本配列パターンP内の水平方向及び垂直方向の各ライン内に配置されている。
 画素ブロックQ(図29において点線で図示)は、基本配列パターンPの画素群の各々におけるRフィルタを有する2画素、Bフィルタを有する2画素及びGフィルタを有する5画素によって構成される。
 基本配列パターンPの各々は、水平方向及び垂直方向に関して2画素×2画素配列される画素のカラーフィルタによって構成される二つの第1のサブ配列及び二つの第2のサブ配列を含む。
 図30は、図29に示した基本配列パターンPを、2画素×2画素に4分割した状態を示している。
 図30で示されるように、第1のサブ配列はGフィルタを有する3画素及びRフィルタを有する1画素によって構成され、第2のサブ配列はGフィルタを有する3画素及びBフィルタを有する1画素によって構成され、第1のサブ配列におけるRフィルタを有する画素の位置と第2のサブ配列におけるBフィルタを有する画素の位置とは対応し、第1のサブ配列は、水平方向及び垂直方向に第2のサブ配列と隣接配置される。
 具体的には、図30に示すように基本配列パターンPは、実線の枠で囲んだ2画素×2画素の第1のサブ配列と、破線の枠で囲んだ2画素×2画素の第2のサブ配列とが、水平、垂直方向に交互に並べられた配列となる。
 第1のサブ配列は、3つのGフィルタと1つのRフィルタを有する。また、第2のサブ配列は、3つのGフィルタと1つのBフィルタを有する。さらに、第1のサブ配列におけるRフィルタが配列される位置と、第2のサブ配列におけるBフィルタが配列される位置とは同じである。
 [異常斜め入射光検出]
 図29に示された例において、水平方向からの混色補正判定部61が行う異常斜め入射光の検出を具体的に説明する。図29の符号1Aで示されるGフィルタを有する画素は、図29の紙面に向かって左側及び右側にGフィルタを有する画素が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第1方向同色隣接画素)である。図29の符号2Aで示されるGフィルタを有する画素は、図29の紙面に向かって左側及び右側にGフィルタを有する画素が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第1方向同色隣接画素)である。
 図29の符号3Aで示されるGフィルタを有する画素は、図29の紙面に向かって左側にRフィルタ及び右側にBフィルタを有する画素が隣接配置されており、異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第1方向異色隣接画素)である。又、図29の符号4Aで示されるGフィルタを有する画素は、図29の紙面に向かって左側にBフィルタ及び右側にRフィルタを有する画素が隣接配置されており、異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第1方向異色隣接画素)である。
 そして、混色補正判定部61では、上述した、第1の第1方向同色隣接画素(図29の符号1A)、第2の第1方向同色隣接画素(図29の符号2A)、第1の第1方向異色隣接画素(図29の符号3A)、及び第2の第1方向異色隣接画素(図29の符号4A)の画素データを比較し、第1の第1方向同色隣接画素(図29の符号1A)、第2の第1方向同色隣接画素(図29の符号2A)の値が同じであり、且つ第1の第1方向異色隣接画素(図29の符号3A)と、第2の第1方向異色隣接画素(図29の符号4A)との値が異なる場合には、水平方向からの異常斜め入射光の存在が検出される。
 垂直方向から入射される異常斜め入射光の検出を行う場合は、以下のように行う。
 図29において、垂直方向からの混色補正判定部61が行う異常斜め入射光の検出を具体的に説明する。図29の符号1Bで示されるGフィルタを有する画素は、図29の紙面に向かって上側及び下側にGフィルタを有する画素が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第1の第2方向同色隣接画素)である。図29の符号2Bで示されるGフィルタを有する画素は、図29の紙面に向かって上側及び下側にGフィルタを有する画素が隣接配置されており、同色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素(第2の第2方向同色隣接画素)である。
 図29の符号3Bで示されるGフィルタを有する画素は、図29の紙面に向かって上側及び下側に異色であるRフィルタ及びBフィルタを有する画素が隣接配置されており、異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素であるので、第1の第2方向異色隣接画素とすることができる。又、図29の符号4Bで示されるGフィルタを有する画素は、図29の紙面に向かって上側及び下側に異色であるBフィルタ及びRフィルタを有する画素が隣接配置されており、異色のカラーフィルタを有する画素が隣接配置されるGフィルタを有する画素であるので、第2の第2方向異色隣接画素とすることができる。
 そして、混色補正判定部61では、上述した、第1の第2方向同色隣接画素(図29の符号1B)、第2の第2方向同色隣接画素(図29の符号2B)、第1の第2方向異色隣接画素(図29の符号3B)、及び第2の第2方向異色隣接画素(図29の符号4B)の画素データを比較し、第1の第2方向同色隣接画素(図29の符号1B)、第2の第2方向同色隣接画素(図29の符号2B)の値が同じであり、且つ第1の第2方向異色隣接画素(図29の符号3B)と、第2の第2方向異色隣接画素(図29の符号4B)との値が異なる場合には、垂直方向からの異常斜め入射光の存在が検出される。
 また、図31及び図32に示すように、デジタルカメラ10の他の実施形態(変形例3)では、Gフィルタを有する画素が水平方向に連続して並んでおり、又はGフィルタを有する画素が垂直方向に連続して並んでいるので、異常斜め入射光の方向をより容易に行うことができる。
 さらに、混色補正判定部61は、画素ブロック(図29において点線で図示)に含まれるGフィルタを有する5画素の画素データに基づいて、水平方向又は垂直方向にカラー撮像素子27へ入射する異常斜め入射光を検出することができる。
 図31では、図29で示されたカラーフィルタ配列を有するカラー撮像素子27の、水平方向から異常斜め入射光が入射している場合を示している。また、図32では、図29で示されたカラーフィルタ配列を有するカラー撮像素子27の、垂直方向からの異常斜め入射光が入射している場合を示している。
 図31では、水平方向に、連続して配列されるGフィルタを有する画素の画素データはGgとなる。言い換えると、Ggの値を示す画素データが水平方向に連続して配列されている。この場合には、水平方向からの異常斜め入射光が検出される。
 一方、図32では、垂直方向に、連続して配列されるGフィルタを有する画素の画素データはGgとなる。言い換えると、Ggの値を示す画素データが垂直方向に連続して配列されている。この場合には、垂直方向からの異常斜め入射光が検出される。
 また、複数の画素は、少なくともGフィルタ、Rフィルタ、及びBフィルタを有する画素によって構成される。また、Gフィルタを有する画素が出力する画素データは、輝度信号を得るのに最も寄与する。
 また、第1色の画素は、緑色、透明、又は白色のカラーフィルタを有する。透明フィルタ及び白色フィルタは、赤波長域の光、青波長域の光及び緑波長域の光のいずれも透過するフィルタであり、透明フィルタは比較的高い光透過率(例えば70%以上の光透過率)を有し、白色フィルタは透明フィルタよりも低い光透過率を有する。
 カラー撮像素子27の受光面上に配置されているカラーフィルタ配列は、ここに示した配列以外も、採用することが可能である。例えば、第1の方向及び第2の方向に関してN画素×M画素(Nは3以上の整数、Mは3以上の整数)の配列群を基本配列画素群とし、基本配列画素群が、第1の方向及び第2の方向に並置されている配列を採用することができる。そして、基本配列画素群の各々は、第1の第1方向同色隣接画素、第2の第1方向同色隣接画素、第1の第1方向異色隣接画素、第2の第1方向異色隣接画素、第1の第2方向同色隣接画素、第2の第2方向同色隣接画素、第1の第2方向異色隣接画素、及び第2の第2方向異色隣接画素を含む配列も採用し得る。
 また、カラー撮像素子27の画素配列は特に限定されない。例えば、第1の方向(例えば水平方向)及び第2の方向(例えば垂直方向)に関してN画素×M画素(Nは3以上の整数、Mは3以上の整数)の配列群を基本配列パターンとし、この基本配列パターンが第1の方向及び第2の方向に並置されている配列を、カラー撮像素子27の画素配列として採用することができる。一例として、図33に示すような3画素×3画素の配列群(水平方向に並置される「G画素、G画素、R画素」の行、「G画素、G画素、B画素」の行及び「B画素、R画素、G画素」の行が垂直方向に並置される配列群)を基本配列パターンPとして採用するケースが考えられる。なお、基本配列パターンの大きさに関し、基本配列パターンの画素数が増加するとデモザイク処理等の信号処理が複雑化してしまう。したがって、信号処理の複雑化を防止する観点からは、基本配列パターンのサイズは大きすぎない10画素×10画素(水平方向×垂直方向)以下のサイズが好ましく、より好ましくは8画素×8画素(水平方向×垂直方向)以下のサイズが好ましい。
 上記実施形態ではデジタルカメラ10について説明したが、撮像装置(画像処理装置)の構成はこれに限定されない。本発明を適用可能な他の撮像装置としては、例えば、内蔵型又は外付け型のPC用カメラ、或いは、以下に説明するような、撮影機能を有する携帯端末装置とすることができる。また、上述の各処理ステップ(手順)をコンピュータに実行させるプログラム(ソフトウエア)に対しても、本発明を適用することが可能である。
 本発明の撮像装置(画像処理装置)の一実施形態である携帯端末装置としては、例えば、携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。
 <スマートフォンの構成>
 図34は、本発明の撮像装置(画像処理装置)の一実施形態であるスマートフォン101の外観を示すものである。図34に示すスマートフォン101は、平板状の筐体102を有し、筐体102の一方の面に表示部としての表示パネル121と、入力部としての操作パネル122とが一体となった表示入力部120を備えている。また、斯かる筐体102は、スピーカ131と、マイクロホン132、操作部140と、カメラ部141とを備えている。なお、筐体102の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
 図35は、図34に示すスマートフォン101の構成を示すブロック図である。図35に示すように、スマートフォンの主たる構成要素として、無線通信部110と、表示入力部120と、通話部130と、操作部140と、カメラ部141と、記憶部150と、外部入出力部160と、GPS(Global Positioning System)受信部170と、モーションセンサ部180と、電源部190と、主制御部100とを備える。また、スマートフォン101の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部110は、主制御部100の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。斯かる無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部120は、主制御部100の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル121と、操作パネル122とを備える。
 表示パネル121は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル122は、表示パネル121の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。斯かるデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部100に出力する。次いで、主制御部100は、受信した検出信号に基づいて、表示パネル121上の操作位置(座標)を検出する。
 図34に示すように、本発明の撮像装置(画像処理装置)の一実施形態として例示しているスマートフォン101の表示パネル121と操作パネル122とは一体となって表示入力部120を構成しているが、操作パネル122が表示パネル121を完全に覆うような配置となっている。斯かる配置を採用した場合、操作パネル122は、表示パネル121外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル122は、表示パネル121に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル121に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル121の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル122が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体102の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル122で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部130は、スピーカ131やマイクロホン132を備え、マイクロホン132を通じて入力されたユーザーの音声を主制御部100にて処理可能な音声データに変換して主制御部100に出力したり、無線通信部110あるいは外部入出力部160により受信された音声データを復号してスピーカ131から出力するものである。また、図34に示すように、例えば、スピーカ131を表示入力部120が設けられた面と同じ面に搭載し、マイクロホン132を筐体102の側面に搭載することができる。
 操作部140は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図34に示すように、操作部140は、スマートフォン101の筐体102の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部150は、主制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部150は、スマートフォン内蔵の内部記憶部151と着脱自在な外部メモリスロットを有する外部記憶部152により構成される。なお、記憶部150を構成するそれぞれの内部記憶部151と外部記憶部152は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部160は、スマートフォン101に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン101に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン101の内部の各構成要素に伝達することや、スマートフォン101の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部170は、主制御部100の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン101の緯度、経度、高度からなる位置を検出する。GPS受信部170は、無線通信部110や外部入出力部160(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部180は、例えば、3軸の加速度センサなどを備え、主制御部100の指示にしたがって、スマートフォン101の物理的な動きを検出する。スマートフォン101の物理的な動きを検出することにより、スマートフォン101の動く方向や加速度が検出される。斯かる検出結果は、主制御部100に出力されるものである。
 電源部190は、主制御部100の指示にしたがって、スマートフォン101の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部100は、マイクロプロセッサを備え、記憶部150が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン101の各部を統括して制御するものである。また、主制御部100は、無線通信部110を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部150が記憶するアプリケーションソフトウェアにしたがって主制御部100が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部160を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部100は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部120に表示する等の画像処理機能を備える。画像処理機能とは、主制御部100が、上記画像データを復号し、斯かる復号結果に画像処理を施して、画像を表示入力部120に表示する機能のことをいう。
 更に、主制御部100は、表示パネル121に対する表示制御と、操作部140、操作パネル122を通じたユーザ操作を検出する操作検出制御を実行する。
 表示制御の実行により、主制御部100は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル121の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部100は、操作部140を通じたユーザ操作を検出したり、操作パネル122を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部100は、操作パネル122に対する操作位置が、表示パネル121に重なる重畳部分(表示領域)か、それ以外の表示パネル121に重ならない外縁部分(非表示領域)かを判定し、操作パネル122の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部100は、操作パネル122に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部141は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部141は、主制御部100の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部150に記録したり、外部入出力部160や無線通信部110を通じて出力することができる。図34に示すようにスマートフォン101において、カメラ部141は表示入力部120と同じ面に搭載されているが、カメラ部141の搭載位置はこれに限らず、表示入力部120の背面に搭載されてもよいし、あるいは、複数のカメラ部141が搭載されてもよい。なお、複数のカメラ部141が搭載されている場合には、撮影に供するカメラ部141を切り替えて単独にて撮影したり、あるいは、複数のカメラ部141を同時に使用して撮影することもできる。
 また、カメラ部141はスマートフォン101の各種機能に利用することができる。例えば、表示パネル121にカメラ部141で取得した画像を表示することや、操作パネル122の操作入力のひとつとして、カメラ部141の画像を利用することができる。また、GPS受信部170が位置を検出する際に、カメラ部141からの画像を参照して位置を検出することもできる。更には、カメラ部141からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン101のカメラ部141の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部141からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、静止画又は動画の画像データにGPS受信部170により取得した位置情報、マイクロホン132により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部180により取得した姿勢情報等などを付加して記憶部150に記録したり、外部入出力部160や無線通信部110を通じて出力することもできる。
 上述のスマートフォン101において、図1の画像処理回路32は、例えば主制御部100、記憶部150等によって適宜実現可能である。
 10…デジタルカメラ、12…カメラ本体、14…レンズユニット、20…撮影光学系、21…ズームレンズ、22…フォーカスレンズ、23…メカシャッタ、24…ズーム機構、25…フォーカス機構、26…レンズドライバ、27…カラー撮像素子、30…CPU、31…撮像素子ドライバ、32…画像処理回路、33…メディアインターフェース、34…圧縮伸長処理回路、35…表示制御部、36…操作部、37…メモリ、38…メモリカード、40…背面LCD、41…混色判定補正部、42…WB補正部、43…信号処理部、44…RGB積算部、45…WBゲイン算出部、50…画素、51…マイクロレンズ、52…カラーフィルタ、53…フォトダイオード、56…通常光、57…異常斜め入射光、61…混色補正判定部、62…第1の混色補正部、63…第2の混色補正部、67…遅延処理部、69…減算器、70…乗算器、71…加算器、72…パラメータ取得部、73…混色率設定部、100…主制御部、101…スマートフォン、102…筐体、110…無線通信部、120…表示入力部、121…表示パネル、122…操作パネル、130…通話部、131…スピーカ、132…マイクロホン、140…操作部、141…カメラ部、150…記憶部、151…内部記憶部、152…外部記憶部、160…外部入出力部、170…GPS受信部、180…モーションセンサ部、190…電源部

Claims (14)

  1.  カラーフィルタ及びフォトダイオードを含み受光量に応じた画素データを出力する複数の画素を有する撮像素子より出力される画像データから、異常斜め入射光の有無を検出する異常斜め入射光検出手段と、
     補正対象画素の隣接画素の前記画素データに基づいて、前記補正対象画素の前記画素データに第1の混色補正を行う第1の混色補正手段と、
     補正対象画素の周辺画素の前記画素データに基づいて、前記補正対象画素の前記画素データに第2の混色補正を行う第2の混色補正手段と、
     前記異常斜め入射光検出手段の検出結果に応じて、前記第1の混色補正手段及び前記第2の混色補正手段のうちいずれによって前記画像データの補正を行うか判定する混色補正判定手段と、を備え、
     前記混色補正判定手段は、前記異常斜め入射光検出手段によって異常斜め入射光が検出されない場合には前記第1の混色補正手段によって前記補正対象画素の前記画素データの補正を行い、前記異常斜め入射光検出手段によって異常斜め入射光が検出される場合には前記第2の混色補正手段によって前記補正対象画素の前記画素データの補正を行う判定をする画像処理装置。
  2.  前記第2の混色補正手段は、前記補正対象画素と同色のカラーフィルタを有する4以上の画素を前記周辺画素として、前記補正対象画素の前記画素データに前記第2の混色補正を行う請求項1に記載の画像処理装置。
  3.  前記周辺画素は、前記周辺画素に対し隣接する画素の前記カラーフィルタの種類が相互に異なる画素によって構成される請求項1又は2に記載の画像処理装置。
  4.  前記撮像素子の前記複数の画素は、M画素×N画素(ただし、Mは3以上の整数、Nは3以上の整数)の基本配列パターンであって第1の方向及び当該第1の方向に垂直な第2の方向に複数並べられた基本配列パターンを有し、
     前記周辺画素は、前記補正対象画素を含むM画素×N画素の範囲に含まれる画素であって前記補正対象画素と同色の前記カラーフィルタを有する画素である請求項1から3のいずれか1項に記載の画像処理装置。
  5.  前記撮像素子の前記複数の画素は、M画素×N画素(ただし、Mは3以上の整数、Nは3以上の整数)の基本配列パターンであって第1の方向及び当該第1の方向に垂直な第2の方向に複数並べられた基本配列パターンを有し、
     前記周辺画素は、前記補正対象画素を含むM画素×N画素の範囲よりも大きな範囲に含まれる画素であって前記補正対象画素と同色の前記カラーフィルタを有する画素である請求項1から3のいずれか1項に記載の画像処理装置。
  6.  前記第2の混色補正手段は、前記補正対象画素及び前記周辺画素の前記画素データから導出される代表値に基づいて、前記補正対象画素の前記画素データの前記第2の混色補正を行う請求項1から5のいずれか1項に記載の画像処理装置。
  7.  前記代表値は、前記補正対象画素及び前記周辺画素の前記画素データの平均値又は加重平均値である請求項6に記載の画像処理装置。
  8.  前記代表値は、前記補正対象画素及び前記周辺画素の前記画素データの中央値又は最頻値である請求項6に記載の画像処理装置。
  9.  前記複数の画素は、少なくとも1以上の色を含む第1色の前記カラーフィルタによって構成される第1色の画素と、前記第1色以外の少なくとも2以上の色を含む第2色の前記カラーフィルタによって構成される第2色の画素とを含み、
     前記第1色の画素は、輝度信号を得るための寄与率が前記第2色の画素の前記カラーフィルタよりも高い色の前記カラーフィルタを有し、
     前記補正対象画素は、前記第1色の画素である請求項1から8のいずれか1項に記載の画像処理装置。
  10.  前記第1色の画素は、緑色、透明または白色のカラーフィルタを有する請求項9に記載の画像処理装置。
  11.  前記撮像素子の前記複数の画素は、M画素×N画素(ただし、Mは3以上の整数、Nは3以上の整数)の基本配列パターンであって第1の方向及び当該第1の方向に垂直な第2の方向に複数並べられた基本配列パターンを有し、
     前記基本配列パターンは、隣接画素のカラーフィルタの種類が相互に異なる前記第1色の画素を少なくとも5つ含む請求項9又は10に記載の画像処理装置。
  12.  カラーフィルタ及びフォトダイオードを含み受光量に応じた画素データを出力する複数の画素を有する撮像素子より出力される画像データから、異常斜め入射光の有無を検出するステップと、
     補正対象画素の隣接画素の前記画素データに基づいて、前記補正対象画素の前記画素データの第1の混色補正を行うステップと、
     補正対象画素の周辺画素の前記画素データに基づいて、前記補正対象画素の前記画素データの第2の混色補正を行うステップと、
     前記異常斜め入射光検出手段の検出結果に応じて、前記第1の混色補正及び前記第2の混色補正のうちいずれによって前記画像データの補正を行うか判定するステップと、を備え、
     前記画像データの補正を行うか判定する前記ステップでは、異常斜め入射光の有無を検出する前記ステップにおいて異常斜め入射光が検出されない場合には前記第1の混色補正によって前記補正対象画素の前記画素データの補正を行い、異常斜め入射光の有無を検出する前記ステップにおいて異常斜め入射光が検出される場合には前記第2の混色補正によって前記補正対象画素の前記画素データの補正を行う判定をする画像処理方法。
  13.  カラーフィルタ及びフォトダイオードを含み受光量に応じた画素データを出力する複数の画素を有する撮像素子より出力される画像データから、異常斜め入射光の有無を検出する手順と、
     補正対象画素の隣接画素の前記画素データに基づいて、前記補正対象画素の前記画素データの第1の混色補正を行う手順と、
     補正対象画素の周辺画素の前記画素データに基づいて、前記補正対象画素の前記画素データの第2の混色補正を行う手順と、
     前記異常斜め入射光検出手段の検出結果に応じて、前記第1の混色補正及び前記第2の混色補正のうちいずれによって前記画像データの補正を行うか判定する手順と、をコンピュータに実行させるためのプログラムであって、
     前記画像データの補正を行うか判定する前記手順では、異常斜め入射光の有無を検出する前記手順において異常斜め入射光が検出されない場合には前記第1の混色補正によって前記補正対象画素の前記画素データの補正を行い、異常斜め入射光の有無を検出する前記手順において異常斜め入射光が検出される場合には前記第2の混色補正によって前記補正対象画素の前記画素データの補正を行う判定をするプログラム。
  14.  カラーフィルタ及びフォトダイオードを含み受光量に応じた画素データを出力する複数の画素を有する撮像素子より出力される画像データから、異常斜め入射光の有無を検出する手順と、
     補正対象画素の隣接画素の前記画素データに基づいて、前記補正対象画素の前記画素データの第1の混色補正を行う手順と、
     補正対象画素の周辺画素の前記画素データに基づいて、前記補正対象画素の前記画素データの第2の混色補正を行う手順と、
     前記異常斜め入射光検出手段の検出結果に応じて、前記第1の混色補正及び前記第2の混色補正のうちいずれによって前記画像データの補正を行うか判定する手順と、をコンピュータに実行させるためのプログラムのコンピュータ読み取り可能なコードが記録された記録媒体であって、
     前記画像データの補正を行うか判定する前記手順では、異常斜め入射光の有無を検出する前記手順において異常斜め入射光が検出されない場合には前記第1の混色補正によって前記補正対象画素の前記画素データの補正を行い、異常斜め入射光の有無を検出する前記手順において異常斜め入射光が検出される場合には前記第2の混色補正によって前記補正対象画素の前記画素データの補正を行う判定をする、記録媒体。
PCT/JP2013/080411 2012-12-07 2013-11-11 画像処理装置、画像処理方法及びプログラム、並びに記録媒体 WO2014087808A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014551011A JP5778873B2 (ja) 2012-12-07 2013-11-11 画像処理装置、画像処理方法及びプログラム、並びに記録媒体
CN201380063609.7A CN104838646B (zh) 2012-12-07 2013-11-11 图像处理装置、图像处理方法、程序及记录介质
US14/729,872 US9369686B2 (en) 2012-12-07 2015-06-03 Image processing device, image processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012268182 2012-12-07
JP2012-268182 2012-12-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/729,872 Continuation US9369686B2 (en) 2012-12-07 2015-06-03 Image processing device, image processing method, and recording medium

Publications (1)

Publication Number Publication Date
WO2014087808A1 true WO2014087808A1 (ja) 2014-06-12

Family

ID=50883233

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/080411 WO2014087808A1 (ja) 2012-12-07 2013-11-11 画像処理装置、画像処理方法及びプログラム、並びに記録媒体

Country Status (4)

Country Link
US (1) US9369686B2 (ja)
JP (1) JP5778873B2 (ja)
CN (1) CN104838646B (ja)
WO (1) WO2014087808A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104581100A (zh) * 2015-02-12 2015-04-29 张李静 色彩滤镜阵列和图像处理方法
WO2016140809A1 (en) * 2015-03-04 2016-09-09 Microsoft Technology Licensing, Llc Sensing images and light sources

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014087807A1 (ja) * 2012-12-05 2014-06-12 富士フイルム株式会社 撮像装置、異常斜め入射光検出方法及びプログラム、並びに記録媒体
WO2014087804A1 (ja) * 2012-12-07 2014-06-12 富士フイルム株式会社 撮像装置、画像処理方法及びプログラム
CN104995912B (zh) * 2013-03-05 2017-03-08 富士胶片株式会社 摄像装置、图像处理装置及图像处理方法
WO2014185209A1 (ja) * 2013-05-13 2014-11-20 富士フイルム株式会社 混色率算出装置及び方法並びに撮像装置
KR102282457B1 (ko) * 2014-12-05 2021-07-28 한화테크윈 주식회사 컬러 모아레 저감 방법, 컬러 모아레 저감 장치 및 영상 처리 장치
KR102301620B1 (ko) * 2015-02-02 2021-09-14 삼성전자주식회사 빛 샘 보정을 위한 촬영 장치 및 방법
KR20160114474A (ko) * 2015-03-24 2016-10-05 (주)실리콘화일 4-컬러 이미지 센서, 4-컬러 이미지 센서의 제조방법 및 이에 따른 4-컬러 이미지 센서
JP2018093257A (ja) * 2016-11-30 2018-06-14 オリンパス株式会社 撮像装置
US10079255B1 (en) * 2017-08-04 2018-09-18 GM Global Technology Operations LLC Color filter array apparatus
JP2019041352A (ja) * 2017-08-29 2019-03-14 キヤノン株式会社 撮像装置及び撮像システム
CN108683898B (zh) * 2018-05-31 2020-10-09 歌尔股份有限公司 彩色汇聚误差的修正方法、装置及设备
US10630922B1 (en) * 2018-10-11 2020-04-21 Omnivision Technologies, Inc. Local exposure sensor and method for operating the same
US11170690B2 (en) * 2019-09-26 2021-11-09 Apple Inc. Pixel leakage and internal resistance compensation systems and methods
CN113141444B (zh) 2020-01-19 2023-08-08 Oppo广东移动通信有限公司 图像传感器、成像装置、电子设备、图像处理系统及信号处理方法
JP7363555B2 (ja) * 2020-02-14 2023-10-18 株式会社Jvcケンウッド 画像処理装置及び画像処理方法
US11394935B2 (en) 2020-06-15 2022-07-19 Samsung Electronics Co., Ltd. Pixel array for reducing image information loss and image sensor including the same
US20230388662A1 (en) * 2022-05-24 2023-11-30 Samsung Electronics Co., Ltd. Color filter array for de-mosaicing and binning
CN116156089B (zh) * 2023-04-21 2023-07-07 摩尔线程智能科技(北京)有限责任公司 处理图像的方法、装置、计算设备和计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010130583A (ja) * 2008-11-28 2010-06-10 Canon Inc 撮像装置、撮像システム、及び撮像装置における信号の補正方法
JP2011066801A (ja) * 2009-09-18 2011-03-31 Canon Inc 固体撮像装置及び撮像システム
JP2012009919A (ja) * 2010-06-22 2012-01-12 Olympus Imaging Corp 撮像装置および撮像方法
JP2012204449A (ja) * 2011-03-24 2012-10-22 Sony Corp 固体撮像装置および電子機器

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2739586B2 (ja) 1989-02-10 1998-04-15 富士写真フイルム株式会社 カラー固体撮像デバイス
DE19616440A1 (de) 1996-04-25 1997-10-30 Eastman Kodak Co Verfahren und Vorrichtung zur Gewinnung eines vollen Farbbildes oder Multispektralbildes aus Bilddaten eines CCD-Bildsensors mit Mosaik-Farbfilter
JP2005333251A (ja) 2004-05-18 2005-12-02 Olympus Corp 撮像装置、カメラ及び撮像処理方法
JP4447988B2 (ja) * 2004-08-24 2010-04-07 パナソニック株式会社 固体撮像装置、その製造方法およびカメラ
JP4822683B2 (ja) * 2004-10-08 2011-11-24 パナソニック株式会社 固体撮像装置およびその製造方法
JP5151075B2 (ja) 2005-06-21 2013-02-27 ソニー株式会社 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
CN101569205B (zh) * 2007-06-15 2012-05-23 松下电器产业株式会社 图像处理装置
WO2009072260A1 (ja) * 2007-12-07 2009-06-11 Panasonic Corporation 画像処理装置および画像処理方法ならびに撮像装置
US7745779B2 (en) 2008-02-08 2010-06-29 Aptina Imaging Corporation Color pixel arrays having common color filters for multiple adjacent pixels for use in CMOS imagers
JP5173493B2 (ja) * 2008-02-29 2013-04-03 キヤノン株式会社 撮像装置及び撮像システム
JP4702384B2 (ja) * 2008-03-26 2011-06-15 ソニー株式会社 固体撮像素子
US8619163B2 (en) 2009-09-18 2013-12-31 Canon Kabushiki Kaisha Solid state imaging using a correction parameter for correcting a cross talk between adjacent pixels
JP5631325B2 (ja) * 2009-10-05 2014-11-26 キヤノン株式会社 撮像装置の欠陥検出方法及び撮像装置
CN101704529B (zh) * 2009-11-05 2011-06-22 西北工业大学 两亲性纳米二氧化硅粉体的制备方法以及采用该粉体制备Pickering乳液的方法
US8742309B2 (en) * 2011-01-28 2014-06-03 Aptina Imaging Corporation Imagers with depth sensing capabilities
CN103404123B (zh) * 2011-02-28 2017-10-20 富士胶片株式会社 成像装置和缺陷像素校正方法
JP2012182332A (ja) * 2011-03-02 2012-09-20 Sony Corp 撮像素子および撮像装置
EP2645722A4 (en) * 2011-03-11 2014-05-14 Fujifilm Corp IMAGING APPARATUS AND METHOD FOR CONTROLLING THEIR OPERATION
WO2012128154A1 (ja) * 2011-03-24 2012-09-27 富士フイルム株式会社 カラー撮像素子、撮像装置、及び撮像装置の制御プログラム
CN103444183B (zh) * 2011-03-24 2015-01-28 富士胶片株式会社 彩色摄像元件及摄像装置
WO2012147515A1 (ja) * 2011-04-28 2012-11-01 富士フイルム株式会社 撮像装置及び撮像方法
JP5899684B2 (ja) * 2011-07-11 2016-04-06 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2013046973A1 (ja) * 2011-09-29 2013-04-04 富士フイルム株式会社 固体撮像素子、撮像装置、及び合焦制御方法
US9818202B2 (en) * 2011-12-13 2017-11-14 Sony Corporation Object tracking based on distance prediction
WO2013145888A1 (ja) * 2012-03-28 2013-10-03 富士フイルム株式会社 固体撮像素子、撮像装置、及び固体撮像素子の駆動方法
CN104205808B (zh) * 2012-03-30 2020-06-05 株式会社尼康 摄像装置以及摄像元件
CN104335578B (zh) * 2012-06-07 2016-09-28 富士胶片株式会社 摄像装置、图像处理装置及图像处理方法
CN104380168B (zh) * 2012-06-19 2016-04-20 富士胶片株式会社 摄像装置及自动调焦方法
WO2014087807A1 (ja) * 2012-12-05 2014-06-12 富士フイルム株式会社 撮像装置、異常斜め入射光検出方法及びプログラム、並びに記録媒体
WO2014087804A1 (ja) * 2012-12-07 2014-06-12 富士フイルム株式会社 撮像装置、画像処理方法及びプログラム
CN104885446B (zh) * 2012-12-28 2018-02-13 富士胶片株式会社 像素校正方法及摄像装置
CN104995912B (zh) * 2013-03-05 2017-03-08 富士胶片株式会社 摄像装置、图像处理装置及图像处理方法
US9224782B2 (en) * 2013-04-19 2015-12-29 Semiconductor Components Industries, Llc Imaging systems with reference pixels for image flare mitigation
JP6295526B2 (ja) * 2013-07-11 2018-03-20 ソニー株式会社 固体撮像装置および電子機器
JP2015076476A (ja) * 2013-10-08 2015-04-20 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
US9432568B2 (en) * 2014-06-30 2016-08-30 Semiconductor Components Industries, Llc Pixel arrangements for image sensors with phase detection pixels
KR20160008364A (ko) * 2014-07-14 2016-01-22 삼성전자주식회사 이미지 센서 및 이미지 센서를 포함하는 영상 촬영 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010130583A (ja) * 2008-11-28 2010-06-10 Canon Inc 撮像装置、撮像システム、及び撮像装置における信号の補正方法
JP2011066801A (ja) * 2009-09-18 2011-03-31 Canon Inc 固体撮像装置及び撮像システム
JP2012009919A (ja) * 2010-06-22 2012-01-12 Olympus Imaging Corp 撮像装置および撮像方法
JP2012204449A (ja) * 2011-03-24 2012-10-22 Sony Corp 固体撮像装置および電子機器

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104581100A (zh) * 2015-02-12 2015-04-29 张李静 色彩滤镜阵列和图像处理方法
WO2016140809A1 (en) * 2015-03-04 2016-09-09 Microsoft Technology Licensing, Llc Sensing images and light sources
US9696470B2 (en) 2015-03-04 2017-07-04 Microsoft Technology Licensing, Llc Sensing images and light sources via visible light filters
CN107407600A (zh) * 2015-03-04 2017-11-28 微软技术许可有限责任公司 感测图像和光源

Also Published As

Publication number Publication date
CN104838646B (zh) 2016-11-23
JP5778873B2 (ja) 2015-09-16
US9369686B2 (en) 2016-06-14
JPWO2014087808A1 (ja) 2017-01-05
CN104838646A (zh) 2015-08-12
US20150271461A1 (en) 2015-09-24

Similar Documents

Publication Publication Date Title
JP5778873B2 (ja) 画像処理装置、画像処理方法及びプログラム、並びに記録媒体
JP5777825B2 (ja) 撮像装置、異常斜め入射光検出方法及びプログラム、並びに記録媒体
JP5802858B2 (ja) 撮像装置、画像処理装置、画像処理方法及びプログラム
JP5755814B2 (ja) 画像処理装置、方法、プログラム及び撮像装置
US9172927B2 (en) Imaging device, and image processing method
US9148560B2 (en) Imaging device, and image processing method
US9172926B2 (en) Imaging device, and image processing method
US9374544B2 (en) Image capture device, image processing method, and program
JP5865555B2 (ja) 混色率算出装置及び方法並びに撮像装置
US9363435B2 (en) Apparatus and method of determining how to perform low-pass filter processing as a reduction association processing when moire is suppressed in a captured image represented by image capture data according to an array of color filters and when the moire appears in the reduced image after processing the reduction processing on the image pickup data, on the basis of an acquisition result of the shooting condition data
US9270955B2 (en) Imaging apparatus that generates three-layer color data on the basis of a first mosaic image
CN104838647B (zh) 摄像装置、图像处理方法
JP5740053B6 (ja) 撮像装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13860525

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2014551011

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13860525

Country of ref document: EP

Kind code of ref document: A1