WO2014136570A1 - 撮像装置、画像処理装置、画像処理方法及びプログラム - Google Patents

撮像装置、画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
WO2014136570A1
WO2014136570A1 PCT/JP2014/053817 JP2014053817W WO2014136570A1 WO 2014136570 A1 WO2014136570 A1 WO 2014136570A1 JP 2014053817 W JP2014053817 W JP 2014053817W WO 2014136570 A1 WO2014136570 A1 WO 2014136570A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
pixels
color
incident light
determination
Prior art date
Application number
PCT/JP2014/053817
Other languages
English (en)
French (fr)
Inventor
智行 河合
林 健吉
秀和 倉橋
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2015504233A priority Critical patent/JP5802858B2/ja
Priority to CN201480007868.2A priority patent/CN104995912B/zh
Publication of WO2014136570A1 publication Critical patent/WO2014136570A1/ja
Priority to US14/804,915 priority patent/US9363491B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements

Definitions

  • the present invention relates to an imaging apparatus, an image processing apparatus, an image processing method, and a program, and more particularly to a technique for detecting abnormal oblique incident light.
  • RGB color signal having a large influence of color mixture is digitally processed to generate an image, the color reproducibility (image quality) of the image is deteriorated, and the RGB color signal having a large influence of color mixture is used for white balance (WB) correction. It is difficult to accurately calculate the WB gain.
  • a pixel that is configured by a color filter that receives abnormally oblique incident light may not correspond to a pixel that is configured by a photodiode that receives abnormally oblique incident light.
  • the color filter through which the abnormally obliquely incident light has passed does not completely correspond to the photodiode that actually received the abnormally obliquely incident light, a color mixing phenomenon occurs and the color reproducibility of the photographed image is deteriorated.
  • This color mixing phenomenon is particularly likely to be caused by abnormally oblique incident light including a long wavelength component (for example, a red light component).
  • Patent Document 1 discloses a technique for obtaining the average pixel value of Gr / Gb for each predetermined region in a Bayer array, counting the comparative cumulative value of the relative difference value and the threshold value, and detecting the presence or absence of a step.
  • Patent Document 2 discloses a technique for detecting noise in MCU units (8 lines ⁇ 16 pixels) using a reference pattern in a Bayer array. According to the technique of Patent Document 2, the reference pattern 100P (5 ⁇ 5 pixels) for determining color noise is held, and color noise is detected by matching with the reference pattern 100P.
  • Patent Document 3 discloses a technique for dividing an image area into blocks, specifying a ghost detection block position, and performing ghost correction.
  • a color filter array is configured by repeatedly arranging pixels in the horizontal direction and the vertical direction.
  • the color mixing phenomenon is relatively simple, and therefore it is possible to reduce the influence of color mixing on the image data by relatively simple color mixing correction.
  • an image sensor having a relatively complicated color filter array is also used, and there are cases where there are many pixels having different types of adjacent pixels (color filters) even if the pixels have the same color filter. is there.
  • a pixel having a green color filter (G pixel) is classified into two types according to the adjacent pixel type (color filter type) in the Bayer array, but very many types (for example, 10 or more types) in a complex color filter array. )are categorized.
  • the color mixing phenomenon is also complicated, and even in the case of close-same color pixels that output pixel data that is essentially the same or approximate, depending on the color filter type of the adjacent pixel due to the color mixing phenomenon Different pixel data is output from adjacent pixels of the same color.
  • the present invention has been made in view of the above circumstances, and can easily detect the presence and the direction of incidence of abnormally oblique incident light even when the image sensor has a complex color filter array.
  • the purpose is to provide technology.
  • One embodiment of the present invention is an imaging element having a plurality of pixels arranged in a first direction and a second direction perpendicular to the first direction, and each of the plurality of pixels includes a color filter and a color filter.
  • An image sensor having a photodiode that receives light transmitted through and outputs pixel data; and an abnormal oblique incident light detection unit that detects abnormal oblique incident light incident on the image sensor based on the pixel data.
  • the plurality of pixels have at least different color filter patterns of pixels adjacent in the positive direction and negative direction of the first direction and pixels adjacent in the positive direction and negative direction of the second direction.
  • a first color pixel having a color filter of the first color, a pixel adjacent to each of the determination pixels in the positive direction and the negative direction in the first direction, and a positive direction and a negative direction in the second direction
  • the pixel disposed at the position facing the first color pixel across the determination pixel has a color filter other than the first color filter
  • the abnormally oblique incident light detection means Detecting abnormally oblique incident light incident on the image sensor based on an average value of pixel data for each type of determination pixel in an area within the image sensor that includes a plurality of determination pixels of each type
  • the present invention relates to an imaging apparatus.
  • the image sensor it is possible to detect abnormal oblique incident light incident on the image sensor based on the average value of the pixel data for each type of determination pixel in the area of the image sensor.
  • the image sensor has a complex color filter array, if it includes determination pixels that satisfy the above-described conditions, the presence / absence and incidence of abnormal oblique incident light based on image data output from the image sensor It is possible to easily detect the direction.
  • the “abnormally oblique incident light” here is a light component incident on the pixel (photodiode) at an angle different from the normal incident light on the subject image, and the color filter passing through and the photodiode receiving the light are the same. It means a light component that does not constitute a pixel. Therefore, light components that cause a phenomenon such as so-called ghost and flare can be included in the abnormal oblique incident light referred to here.
  • the “area in the image sensor” is an arbitrary area of the image sensor, and a part or all of the pixel area of the image sensor can be set as the “area in the image sensor”.
  • the “area in the image pickup device” here may be a predetermined area, but is not limited to a fixed area or a set area, and is a variable area that is not predetermined. May be. Therefore, for example, when there is a region that preferentially detects abnormal oblique incident light, such as a flat region with low contrast where the same color step is conspicuous, a region where a face is detected, etc., depending on the priority Thus, an aspect in which the “area in the image sensor” is variable can be considered.
  • the abnormally oblique incident light detection means detects the incident direction of the abnormally oblique incident light incident on the image sensor based on the average value of the pixel data for each type of determination pixel in the area.
  • a storage unit is further provided for storing a determination table that associates information regarding incidence of abnormally oblique incident light on the image sensor and a data pattern based on an average value of pixel data for each type of determination pixel in the area.
  • the abnormal oblique incident light detection means detects abnormal oblique incident light incident on the image sensor with reference to the discrimination table.
  • the “data pattern based on the average value of the pixel data for each type of determination pixel in the area” may be a data pattern of the average value of the pixel data for each type of determination pixel. Data patterns based on other criteria derived from such average values may also be used.
  • the information regarding the incidence of abnormal oblique incident light on the image sensor in the discrimination table is determined for each color type of the abnormal oblique incident light, and the abnormal oblique incident light detection means is a color filter in the area of the image sensor. Based on the pixel data for each color type, the color type of the abnormal oblique incident light is detected, and the abnormal oblique incident light incident on the imaging device is detected with reference to the discrimination table corresponding to the detected color type of the abnormal oblique incident light. To detect.
  • the discrimination table is based on an average value of the total average value of pixel data for each type of at least four types of determination pixels or a median value of average values of pixel data for each type of at least four types of determination pixels.
  • the data pattern indicating the ratio of the pixel data for each type of at least four types of determination pixels is associated with information regarding incidence of abnormally oblique incident light on the image sensor.
  • the discrimination table associates a ranking based on the average value of pixel data for each type of at least four types of judgment pixels with information on incidence of abnormal oblique incident light on the image sensor.
  • the oblique incident light detection means assigns ranks to at least four types of determination pixels based on an average value of pixel data for each type of at least four types of determination pixels in the area, and refers to the determination table to the image sensor. Detects incident obliquely incident light.
  • the plurality of pixels includes at least a pixel having a color filter of a first color type, a pixel having a color filter of a second color type, and a pixel having a color filter of a third color type
  • the incident light detection means includes a color filter of a color type corresponding to the detected color type of the obliquely incident light among the color filter of the first color type, the color filter of the second color type, and the color filter of the third color type. At least four types of determination pixels are defined as the first color filter.
  • the determination pixel from among the pixel having the first color filter, the pixel having the second color filter, and the pixel having the third color filter. It can.
  • the constituent pixels of the image sensor have RGB (red, green, blue) color filters, at least one of red abnormal oblique incident light, green abnormal oblique incident light, and blue abnormal oblique incident light can be detected. .
  • the abnormally oblique incident light detecting means has a value X times the average value of pixel data of pixels having the color filter of the first color type (0 ⁇ X ⁇ 1) and the second color in the area of the image sensor.
  • a value Y times the average value of the pixel data of the pixel having the color filter (0 ⁇ Y ⁇ 1) and a value Z times the average value of the pixel data of the pixel having the color filter of the third color type (0 ⁇ Among Z ⁇ 1) it is determined that the abnormal oblique incident light of the color type corresponding to the color filter having the largest value is incident on the image sensor.
  • the image forming apparatus further includes correction means for correcting pixel data of a pixel having a photodiode in which abnormal oblique incident light is detected based on a detection result of the abnormal oblique incident light detection means.
  • this aspect it is possible to correct the pixel data of a pixel having a photodiode in which abnormal oblique incident light is detected, and it is possible to effectively remove the influence of color mixing due to abnormal oblique incident light.
  • there is a region where abnormally obliquely incident light is weakly incident (weakly incident) but the region where such abnormally obliquely incident light is weakly incident cannot be detected due to the capability of the device actually used ( A case where the influence of abnormally oblique incident light remains on the captured image) can also be included in the application range of this aspect.
  • the correction method by the correction means is not particularly limited, and any correction method effective for reducing / removing the influence of color mixing due to abnormal oblique incident light can be employed.
  • a correction method that removes the amount of color mixing due to abnormally oblique incident light from the corresponding pixel data or a correction method that eliminates pixel data differences (pixel data step) between adjacent pixels of the same color caused by abnormally oblique incident light It is possible to adopt.
  • the area is an area including all of the plurality of pixels of the image sensor.
  • a region including all the constituent pixels of the image sensor is set as a single “area”. Therefore, when calculating the average value of the pixel data for each type of determination pixel, the pixel data average value can be calculated from a large number of pixel data, so that the detection accuracy of abnormal oblique incident light is improved.
  • the area is each of a plurality of divided regions obtained by dividing the image sensor into a plurality of regions.
  • each area of the plurality of divided areas is set as an “area”, abnormal oblique incident light can be detected in the limited area, and the influence of the abnormal oblique incident light can be detected.
  • the pixel area to be received can be specified in detail.
  • the plurality of divided regions include all of the plurality of pixels of the image sensor.
  • a plurality of first divided areas are set in the imaging device, and a plurality of second divided areas having a division method different from the first divided area are set, and the plurality of first divided areas are set.
  • the region and the plurality of second divided regions at least partially overlap, and the plurality of pixels are classified as one of the first divided regions and classified as one of the second divided regions.
  • the abnormally obliquely incident light detecting means includes an abnormally obliquely incident light incident on each of the first divided regions based on an average value of pixel data for each type of determination pixel in each of the first divided regions.
  • abnormal oblique incident light can be accurately detected in the overlap region between the first divided region and the second divided region, and color mixing such as ghost due to the abnormal oblique incident light occurs. Area can be specified more accurately.
  • each of the second divided areas overlaps with two or more first divided areas.
  • the overlap region between the first divided region and the second divided region is more limited than the individual regions of the first divided region and the second divided region, a more specific area It is possible to detect abnormal oblique incident light.
  • each of the first divided regions and each of the second divided regions have the same shape and size, and the first divided region is at least one of the first direction and the second direction.
  • the first divided area and the second divided area are set so as to be shifted by half the size.
  • the overlap region between the first divided region and the second divided region can be regularly arranged, and the pixel region affected by the abnormal oblique incident light is specified in detail over a wide range. be able to.
  • the plurality of pixels includes a plurality of basic array pixel groups having a predetermined color filter array pattern, and includes a plurality of basic array pixel groups juxtaposed in the first direction and the second direction,
  • Each of the basic array pixel groups includes at least one set of at least four types of determination pixels.
  • the determination pixels are periodically arranged, and the average value of the pixel data for each type of determination pixel can be calculated with high accuracy.
  • each basic array pixel group includes a plurality of sets of determination pixels, it is possible to improve the detection accuracy of abnormal oblique incident light by combining the plurality of sets of determination pixels.
  • the at least four types of determination pixels include a first determination pixel, a second determination pixel, a third determination pixel, and a fourth determination pixel, and the first determination pixel is ,
  • the first color pixel is adjacent to the positive direction of the first direction, and the pixel having a color filter other than the first color filter is the negative direction of the first direction, the positive direction of the second direction, and the 2 is adjacent to the negative direction of the second direction, the second determination pixel is the first color pixel adjacent to the negative direction of the first direction, and the pixel having a color filter other than the first color filter is the first pixel.
  • the third pixel for determination Adjacent to the positive direction of the first direction, the positive direction of the second direction, and the negative direction of the second direction, and the third pixel for determination is adjacent to the first color pixel in the positive direction of the second direction
  • pixels having color filters other than the color filter of the first color are in the positive direction of the first direction and the first direction.
  • Direction and the negative direction of the second direction, and the fourth determination pixel has a first color pixel adjacent to the negative direction of the second direction and a color filter other than the color filter of the first color.
  • the pixel having the pixel is adjacent to the positive direction in the first direction, the negative direction in the first direction, and the positive direction in the second direction.
  • the determination pixel of this aspect it is possible to detect abnormal oblique incident light based on the pixel data.
  • the at least four types of determination pixels include a first determination pixel, a second determination pixel, a third determination pixel, and a fourth determination pixel, and the first determination pixel is The first color pixel is adjacent to the positive direction of the first direction and the positive direction of the second direction, and the pixel having a color filter other than the color filter of the first color is the negative direction and the second direction of the first direction.
  • the first color pixel is adjacent to the negative direction in the first direction and the positive direction in the second direction, and the second determination pixel is other than the first color filter.
  • the pixel having the color filter is adjacent to the positive direction in the first direction and the negative direction in the second direction
  • the third determination pixel is a pixel in which the first color is in the positive direction in the first direction and the second direction.
  • a pixel having a color filter other than the color filter of the first color adjacent to the negative direction of the direction is the first direction.
  • the first color pixel is adjacent to the negative direction of the first direction and the negative direction of the second direction, and the first color is adjacent to the negative direction and the positive direction of the second direction.
  • Pixels having color filters other than the color filter are adjacent in the positive direction of the first direction and the positive direction of the second direction.
  • the determination pixel of this aspect it is possible to detect abnormal oblique incident light based on the pixel data.
  • the color filter of the first color is one of a red filter, a transparent filter, and a white filter.
  • each of the basic array pixel groups includes two sets of first sub-array pixel groups and two sets of second sub-arrays each having a pixel array of 3 pixels ⁇ 3 pixels with respect to the first direction and the second direction.
  • the first sub-array pixel group is adjacent to the first sub-array pixel group with respect to the direction
  • the second sub-pixel group includes a second color pixel having a second color filter disposed at the center and four corners, and the center pixel.
  • a third color pixel having three color filters, and the second sub-array pixel group includes: A second color pixel disposed at the center and four corners; a first color pixel disposed at a position adjacent to the central pixel in the positive and negative directions in the second direction; and the central pixel.
  • the image sensor has the complicated color filter array of this aspect, it is possible to detect abnormally oblique incident light based on the pixel data of the determination pixels.
  • each of the plurality of pixels includes a color filter and a color filter.
  • An image processing apparatus comprising abnormal oblique incident light detection means for detecting abnormal oblique incident light incident on an imaging device having a photodiode that receives transmitted light and outputs pixel data,
  • a determination pixel including at least four types of determination pixels having different color filter patterns of pixels adjacent in the positive direction and negative direction of the first direction and pixels adjacent in the positive direction and the negative direction of the second direction.
  • At least one of the pixels adjacent to each of the first direction in the positive direction and the negative direction and the pixels adjacent to the second direction in the positive direction and the negative direction has a color filter of the first color.
  • a pixel arranged at a position facing the first color pixel across the pixel is a pixel having a color filter other than the color filter of the first color
  • the abnormally oblique incident light detecting means is an area in the image sensor.
  • the present invention relates to an image processing apparatus that detects abnormal oblique incident light incident on an image sensor based on an average value of pixel data for each type of determination pixel in an area including a plurality of determination pixels of each type.
  • each of the plurality of pixels includes a color filter and a color filter.
  • An image processing method comprising a step of detecting abnormal oblique incident light incident on an imaging device having a photodiode that receives transmitted light and outputs pixel data, wherein the plurality of pixels are positive in the first direction.
  • a color filter pattern of pixels adjacent to each other in the direction and negative direction and pixels adjacent to each other in the positive direction and negative direction of the second direction includes at least four types of determination pixels, and each of the determination pixels At least one of the pixels adjacent in the positive and negative directions of the first direction and the pixels adjacent in the positive and negative directions of the second direction is a first color pixel having a color filter of the first color. Yes, among the pixels adjacent to each of the determination pixels in the positive direction and the negative direction in the first direction and the pixels adjacent in the positive direction and the negative direction in the second direction with the determination pixel interposed therebetween The pixels arranged at positions facing the color pixels are pixels having a color filter other than the color filter of the first color.
  • the present invention relates to an image processing method for detecting abnormal oblique incident light incident on an image sensor based on an average value of pixel data for each type of determination pixel in an area including a plurality of types of determination pixels.
  • each of the plurality of pixels includes a color filter and a color filter.
  • Each of the determination pixels includes at least four types of determination pixels having different color filter patterns of pixels adjacent in the positive direction and negative direction of the direction and pixels adjacent in the positive direction and negative direction of the second direction.
  • At least one of the pixels adjacent in the positive direction and the negative direction of the first direction and the pixels adjacent in the positive direction and the negative direction of the second direction is a color filter of the first color.
  • a pixel arranged at a position facing the first color pixel across the pixel for use is a pixel having a color filter other than the color filter of the first color, and is an area in the image sensor, and each type of determination
  • the present invention relates to a program for causing a computer to execute a procedure for detecting abnormal oblique incident light incident on an image sensor based on an average value of pixel data for each type of determination pixel in an area including a plurality of pixels.
  • the present invention it is possible to easily detect abnormal oblique incident light incident on the image sensor based on the average value of the pixel data for each type of determination pixel in the area of the image sensor.
  • FIG. 2A is a plan view showing an example of a color filter (pixel) of an image sensor
  • FIG. 2A shows a state in which a total of four basic array patterns are arranged
  • FIG. 2B is an enlarged view of the basic array pattern.
  • FIG. 4A is a schematic cross-sectional view illustrating the mechanism of a color mixing phenomenon caused by abnormally oblique incident light.
  • FIG. 4A shows an example of an adjacent arrangement of G pixels, R pixels, and G pixels, and FIG. The example of adjacent arrangement
  • FIG. 3 is a graph illustrating an example of pixel data output from G pixels included in a basic array pattern when abnormal oblique incident light is incident on the image sensor of FIG. 2. It is a block diagram which shows the function structure which concerns on the detection of the abnormal oblique incident light in a color mixing determination correction
  • FIG. 8 is a diagram for explaining an example of a basic principle of a method for detecting abnormally oblique incident light, and FIGS. 8A to 8D show various arrangement patterns of G pixels and R pixels.
  • FIG. 11 is a diagram for explaining another example of the basic principle of the detection method of abnormally oblique incident light
  • FIGS. 11A to 11D show various arrangement patterns of G pixels and R pixels.
  • 12 is a table showing a relationship between pixel data output of G pixels (determination pixels) having various arrangement patterns shown in FIG.
  • FIG. 3 is a plan view of the basic array pattern of FIG. 2 in which an arrangement pattern of G pixels and R pixels is highlighted. It is a mimetic diagram showing an example of area division of an image sensor. It is a figure which shows an example of the detection method of the presence or absence, incident direction, and intensity
  • FIGS. 22 (a) to 22 (d) are diagrams showing examples of determination pixels used for detecting blue abnormal oblique incident light
  • FIGS. 22 (e) to 22 (h) are green abnormal oblique incident light. It is a figure which shows an example of the pixel for a determination used for the detection of light. It is a figure which shows the example which divides
  • FIG. 24 is an enlarged view of a “C” portion (area B11) shown in FIG.
  • FIGS. 27A to 27D are plan views of image pickup devices showing other color filter arrangement examples.
  • FIGS. 28A to 28D are plan views of image pickup devices showing other color filter arrangement examples. It is an external view of a smart phone. It is a block diagram which shows the structure of a smart phone.
  • FIG. 1 is a block diagram illustrating a configuration example of the digital camera 10.
  • each part other than the lens unit 14 and the lens driver 26 in the configuration shown in FIG. 1 is provided in the camera body 12
  • each part may be provided in the lens unit 14 as necessary. It is.
  • the digital camera (imaging device) 10 includes a camera body 12 and a lens unit 14 attached to the front surface of the camera body 12 in an interchangeable manner.
  • the lens unit 14 includes a photographing optical system 20, and the photographing optical system 20 includes a zoom lens 21, a focus lens 22, a mechanical shutter 23, and the like.
  • the zoom lens 21 and the focus lens 22 are driven by the zoom mechanism 24 and the focus mechanism 25, respectively, and move along the optical axis O1 of the photographing optical system 20.
  • the zoom mechanism 24 and the focus mechanism 25 are configured by gears, motors, and the like.
  • the mechanical shutter 23 has a movable portion (not shown) that moves between a closed position where the object light is prevented from entering the image sensor 27 and an open position where the object light is allowed to enter. By moving the movable part to the open / closed position, the optical path from the photographing optical system 20 to the image sensor 27 is opened / closed. Further, the mechanical shutter 23 includes an aperture for controlling the amount of subject light incident on the image sensor 27.
  • the mechanical shutter 23, zoom mechanism 24, and focus mechanism 25 are driven and controlled by the CPU 30 via the lens driver 26.
  • the CPU 30 provided in the camera main body 12 sequentially executes various programs and data read from the memory 37 based on a control signal from the operation unit 36, and comprehensively controls each unit of the digital camera 10.
  • the RAM area of the memory 37 functions as a work memory for the CPU 30 to execute processing and a temporary storage destination for various data.
  • the operation unit 36 includes buttons, keys, a touch panel operated by the user, and the like.
  • buttons, keys, a touch panel operated by the user For example, a power switch, a shutter button, a focus mode switching lever, a focus ring, a mode switching button, a cross selection key, an execution key, a back button, and the like that are provided on the camera body 12 and are operated by the user can be included in the operation unit 36. .
  • the image sensor 27 converts the subject light that has passed through the photographing optical system 20 and the mechanical shutter 23 into an electrical output signal and outputs it.
  • the image sensor 27 has a single-plate pixel arrangement in which a large number of pixels are juxtaposed in a horizontal direction (first direction) and a vertical direction (second direction) perpendicular to the horizontal direction. Any method such as Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) can be employed. Hereinafter, an example in which a plurality of pixels constituting the image sensor 27 is formed of CMOS will be described.
  • each pixel constituting the image pickup device 27 outputs a pixel data by receiving a microlens for improving the light collection rate, an RGB color filter, and light transmitted through the microlens and the color filter.
  • a photodiode photoelectric conversion element
  • the image sensor driver 31 drives and controls the image sensor 27 under the control of the CPU 30, and causes the image processing circuit (image processing device) 32 to output an image signal (image data) from the pixels of the image sensor 27.
  • the image processing circuit 32 performs various image processing such as gradation conversion, white balance correction, and ⁇ correction processing on the received imaging signal (image data) to generate captured image data.
  • the image processing circuit 32 includes a color mixture determination correction unit that detects correction of abnormal oblique incident light such as ghost light.
  • the compression / decompression processing circuit 34 performs compression processing on the captured image data stored in the VRAM area of the memory 37 when the shutter button is pressed down by the user. In the RAW data acquisition mode, the compression processing by the compression / decompression processing circuit 34 may not be performed.
  • the compression / decompression processing circuit 34 performs compression / decompression processing on the compressed image data obtained from the memory card 38 via the media interface 33.
  • the media interface 33 performs recording and reading of photographed image data with respect to the memory card 38.
  • the display control unit 35 displays a through image (live view image) generated by the image processing circuit 32 on at least one of the EVF (electric view finder) 39 and the rear LCD (back liquid crystal) 40 in the photographing mode. Take control. Further, the display control unit 35 outputs the captured image data expanded by the compression / decompression processing circuit 34 to the rear LCD 40 (and / or the EVF 39) in the image reproduction mode.
  • the digital camera 10 (camera body 12) may be provided with a processing circuit other than those described above, for example, an AF detection circuit for autofocus and an AE detection circuit for automatic exposure adjustment.
  • the CPU 30 performs AF processing by driving the focus lens 22 via the lens driver 26 and the focus mechanism 25 based on the detection result of the AF detection circuit, and also via the lens driver 26 based on the detection result of the AE detection circuit.
  • AE processing is executed by driving the mechanical shutter 23.
  • FIG. 2 is a plan view showing an example of a color filter (pixel) of the image sensor 27.
  • FIG. 2A shows a basic array pattern (basic array pixel group) P having a predetermined color filter array pattern in the horizontal direction and the vertical direction. 4 shows a state in which a total of four are arranged, and (b) is an enlarged view of one basic array pattern P.
  • R indicates a red filter (first color filter; R pixel)
  • G including G1 to G20
  • B indicates a blue filter (third color filter; B pixel).
  • the color filter of the image sensor 27 of this example has a basic array pattern P composed of a square array pattern corresponding to M ⁇ N (6 ⁇ 6) pixels, and a plurality of the basic array patterns P are repeated in the horizontal and vertical directions. A plurality of pixels of the image sensor 27 are configured in parallel. Therefore, when image processing of RGB mosaic image data (RAW data) read from the image sensor 27 is performed, the processing can be performed according to a repetitive pattern based on the basic array pattern P.
  • RGB mosaic image data RAW data
  • Each basic array pattern P includes a first sub-array (first sub-array pixel group) having a pixel array of 3 pixels (horizontal direction) ⁇ 3 pixels (vertical direction) shown in FIG.
  • a second sub-array (second sub-array pixel group) having a pixel array of (horizontal direction) ⁇ 3 pixels (vertical direction) is arranged alternately in the horizontal direction and the vertical direction. Accordingly, the first sub-array is adjacent to the second sub-array in the horizontal direction and the vertical direction, and the second sub-array is adjacent to the first sub-array in the horizontal direction and the vertical direction.
  • the first sub-array includes G pixels arranged at the center and the four corners, and R pixels arranged at positions adjacent to the central G pixel in the horizontal positive direction and the negative direction (right and left in FIG. 2). And B pixels arranged at positions adjacent to the central G pixel in the positive direction and the negative direction (vertical direction in FIG. 2) in the vertical direction.
  • the second sub-array is arranged at a position adjacent to the G pixel arranged at the center and the four corners, and the positive direction and the negative direction (vertical direction in FIG. 2) in the vertical direction with respect to the central G pixel.
  • the G filters at the four corners of the first sub-array and the second sub-array have two pixels (horizontal direction) by alternately arranging the first sub-array and the second sub-array in the horizontal direction and the vertical direction. ) ⁇ G pixel group corresponding to ⁇ 2 pixels (vertical direction). That is, two pixels arranged in one diagonal direction among the pixels arranged at the four corners of the first sub-array and one pixel arranged in the other diagonal direction among the pixels arranged at the four corners of the second sub-array These two pixels constitute a square array of G pixel groups. Note that G pixels included in this square array of G pixel groups can be used as “determination pixels for detecting abnormally oblique incident light” to be described later.
  • the G filter corresponding to the color that contributes most to obtain a luminance signal is in the horizontal, vertical, diagonal upper right, and diagonal upper left directions of the color filter array.
  • One or more are arranged.
  • the G filters corresponding to the luminance system pixels are arranged in the horizontal, vertical, and diagonal lines of the color filter array. The reproduction accuracy of demosaic processing is improved.
  • the diagonally upper right and diagonally lower right directions are 45 ° with respect to the horizontal direction and the vertical direction.
  • the diagonal upper right and diagonal lower right directions are diagonal directions of the rectangle, and the diagonal upper right and vertical directions with respect to the horizontal and vertical directions according to the long and short sides of the rectangle.
  • the angle in the diagonally lower right direction can vary.
  • the R filter and the B filter corresponding to two or more other colors (R and B in this example) other than the G color are respectively in the horizontal direction and the vertical direction of the basic array pattern P.
  • One or more lines are arranged in each line.
  • the R filter and the B filter are arranged in the horizontal and vertical lines of the color filter array, so that the generation of false colors (color moire) can be reduced, and the generation of false colors can be reduced.
  • An optical low-pass filter for suppression can be omitted. Even when an optical low-pass filter is arranged, when the color filter arrangement of this example is adopted, the loss of resolution is reduced by using a weak filter that cuts off high-frequency components for preventing the occurrence of false colors. It may be prevented.
  • the numbers of R pixels, G pixels, and B pixels corresponding to the R filter, G filter, and B filter are 8 pixels and 20 pixels (“G1” to “G1” in FIG. 2B), respectively. “G20”) and 8 pixels. That is, the ratio of the number of R pixels, G pixels, and B pixels is 2: 5: 2, and the ratio of the number of G pixels that contributes most to obtain a luminance signal is the pixel number of R pixels and B pixels. Higher than the ratio of numbers. As described above, the ratio of the number of G pixels to the number of R pixels and B pixels is different, and in particular, the ratio of the number of G pixels that contributes most to obtain a luminance signal is set to the pixel of R pixels and B pixels. By making it larger than the ratio of the numbers, aliasing in the synchronization processing (demosaic processing) can be suppressed, and high frequency reproducibility can also be improved.
  • color filter array pixel array shown in FIG. 2 is also referred to as “X-Trans (registered trademark)”.
  • FIG. 3 is a functional block diagram of the image processing circuit 32 (see FIG. 1).
  • the image processing circuit 32 includes a color mixture determination correction unit 41, a white balance correction unit (WB correction unit) 42, a signal processing unit 43 that performs signal processing such as gamma correction, demosaic processing, and RGB / YC conversion, an RGB integration unit 44, and A white balance gain calculation unit (WB gain calculation unit) 45 is included.
  • WB correction unit white balance correction unit
  • WB gain calculation unit white balance gain calculation unit
  • Mosaic image data (RAW data: RGB color signal) is input to the image processing circuit 32.
  • Mosaic image data may be input directly from the image sensor 27 to the image processing circuit 32.
  • the mosaic image data output from the image sensor 27 may be temporarily stored in a memory (such as the memory 37 in FIG. 1), and the mosaic image data may be input to the image processing circuit 32 from this memory.
  • the mosaic image data input to the image processing circuit 32 is input to the color mixture determination correction unit 41.
  • the color mixing determination correction unit 41 detects abnormal oblique incident light based on the input mosaic image data, and performs pixel data correction that reduces or eliminates the influence (pixel data step) of the color mixing phenomenon caused by the abnormal oblique incident light. Do.
  • the color signal of each pixel of the mosaic image that has been subjected to pixel data correction by the color mixture determination correction unit 41 is input to the WB correction unit 42 and the RGB integration unit 44.
  • the RGB integrating unit 44 calculates an integrated average value for each RGB color signal for each divided region obtained by dividing one screen into 8 ⁇ 8, 16 ⁇ 16, and the like, and a ratio (R / G) of the integrated average values for each RGB. , B / G). For example, when dividing one screen into 64 divided areas of 8 ⁇ 8, the RGB integrating unit 44 calculates 64 pieces of color information (R / G, B / G).
  • the WB gain calculation unit 45 calculates the WB gain based on the color information (R / G, B / G) for each divided region input from the RGB integration unit 44. Specifically, the WB gain calculation unit 45 calculates the barycentric position of the distribution of the color information regarding each of the 64 divided areas in the color space of the R / G and B / G axis coordinates, and the barycentric position is calculated.
  • the color temperature of ambient light is estimated from the color information shown.
  • obtain a light source type having color information indicated by the center of gravity position for example, blue sky, shade, clear, fluorescent lamp (daylight color, day white, white, warm white), tungsten, low tungsten, etc.
  • the light source type at the time of shooting may be estimated (see Japanese Patent Application Laid-Open No. 2007-53499), or the color temperature may be estimated from the estimated light source type.
  • a WB gain for each RGB or RB for appropriate white balance correction corresponding to the color temperature or light source type of the ambient light is prepared (stored).
  • the WB gain calculation unit 45 reads the corresponding WB gain for each RGB or RB based on the estimated color temperature or light source type of the ambient light, and outputs the read WB gain to the WB correction unit 42.
  • the WB correction unit 42 multiplies each of the R, G, and B color signals input from the color mixture determination correction unit 41 by the WB gain for each color input from the WB gain calculation unit 45, thereby obtaining white. Perform balance correction.
  • the R, G, and B color signals output from the WB correction unit 42 are input to the signal processing unit 43.
  • the signal processor 43 simultaneously converts the R, G, and B color signals into simultaneous equations by interpolating gamma correction and the spatial shift of the R, G, and B color signals associated with the color filter array of the image sensor 27.
  • Signal processing such as RGB / YC conversion for converting demodulated R, G, B color signals into luminance signal Y and color difference signals Cr, Cb.
  • the signal Y and the color difference signals Cr and Cb are output.
  • the luminance data Y and the color difference data Cr and Cb output from the image processing circuit 32 are compressed and then recorded in the internal memory (memory 37) and the external memory (memory card 38).
  • FIG. 4 is a schematic cross-sectional view for explaining the mechanism of the color mixing phenomenon caused by abnormal oblique incident light (ghost light or the like).
  • FIG. 4A shows an example of the adjacent arrangement of G pixels, R pixels, and G pixels.
  • b) shows an example of the adjacent arrangement of G pixels, B pixels, and G pixels.
  • the plurality of pixels 50 constituting the image sensor 27 of this example are a G (green) pixel 50G configured by a green color filter, an R (red) pixel 50R configured by a red color filter, and a blue color. And a B (blue) pixel (third color pixel) 50B constituted by a filter.
  • the G pixel 50G has a higher contribution rate for obtaining a luminance signal than the R pixel 50R and the B pixel 50B.
  • luminance data (luminance signal) Y can be obtained by the following equation.
  • Y (luminance data) (0.3 ⁇ R pixel data + 0.6 ⁇ G pixel data + 0.1 ⁇ B pixel data)
  • Each of the G pixel 50G, the R pixel 50R, and the B pixel 50B includes a microlens 51, a color filter 52, and a photodiode 53 that are sequentially provided in the traveling direction of the subject light, and pixel data corresponding to the amount of light received by the photodiode 53. Is output. Normal light 56 constituting the subject light is collected by the microlens 51, passes through the color filter 52, and enters the photodiode 53. The color filter 52 through which the normal light 56 passes and the photodiode 53 that receives the normal light 56 generally correspond.
  • the abnormal oblique incident light 57 enters each pixel at an angle different from that of the normal light 56, and the abnormal oblique incident light 57 that has passed through the color filter 52 of a certain pixel is received by the photodiode 53 of the adjacent pixel.
  • the color filter 52 through which the abnormally obliquely incident light 57 passes does not completely correspond to the photodiode 53 that receives the abnormally obliquely incident light 57, and the photodiode 53 that receives the abnormally obliquely incident light 57.
  • the output pixel data from the photodiode 53 that has received the abnormal oblique incident light 57 is larger than the output pixel data from the photodiode 53 that does not receive the abnormal oblique incident light 57, so that there is a step difference in the pixel data between the same color pixels. Occurs.
  • FIG. 5 is a graph showing an example of pixel data output from the G pixels (G1 to G20) included in the basic array pattern P when abnormally oblique incident light is incident on the image sensor 27 of FIG. Since the G pixels included in the basic array pattern P are arranged very close to each other, pixel data of the same value or approximate value is often output originally, but when abnormal oblique incident light is incident. Is a difference (pixel data step) in output pixel data between pixels of the same color (between G1 and G20 shown in FIG. 5).
  • FIG. 6 is a block diagram showing a functional configuration related to detection of abnormally oblique incident light in the color mixture determination correction unit 41 of FIG.
  • the color mixing determination correction unit 41 includes an abnormal oblique incident light detection unit (abnormal oblique incident light detection unit) 61 that detects abnormal oblique incident light, and an abnormal oblique correction that corrects mosaic image data based on the detection result of the incident light detection unit 61. And an incident light correction unit (correction unit) 63.
  • the abnormal oblique incident light detection unit 61 is provided with a storage unit (storage unit) 65 for storing and storing various data used for detecting abnormal oblique incident light.
  • the abnormal oblique incident light detection unit 61 detects abnormal oblique incident light incident on the image sensor 27 based on the mosaic image data (RAW data) input to the color mixture determination correction unit 41.
  • the abnormally oblique incident light detection unit 61 of this example analyzes pixel data (output value) of a later-described determination pixel based on the mosaic image data, and detects the presence / absence, incident direction, and intensity of abnormally oblique incident light. .
  • the abnormal oblique incident light correction unit 63 corrects the pixel data of the pixel 50 having the photodiode 53 in the area where the abnormal oblique incident light is detected based on the detection result of the abnormal oblique incident light detection unit 61. That is, the abnormal oblique incident light correction unit 63 detects the abnormal oblique incident light 57 among the plurality of pixels 50 of the image sensor 27 based on the incident direction of the abnormal oblique incident light detected and determined by the abnormal oblique incident light detection unit 61. The pixel 50 having the selected photodiode 53 is determined, and the pixel data of the determined pixel 50 is corrected. In addition, when the abnormal oblique incident light detection unit 61 does not detect the abnormal oblique incident light, the correction process in the abnormal oblique incident light correction unit 63 is skipped.
  • the specific correction method of the pixel data in the abnormal oblique incident light correction unit 63 is not particularly limited, and the pixel data of the pixel (correction target pixel) on which the abnormal oblique incident light 57 is incident can be corrected by an arbitrary method. It is. For example, a representative value derived from pixel data of a correction target pixel and its peripheral pixels (for example, a pixel included in the size range of the basic array pattern P including the correction target pixel) and a pixel having the same color as the correction target pixel.
  • pixel data correction can be performed by replacing the pixel data of the correction target pixel.
  • the representative value may be an average value or a weighted average value of pixel data of the correction target pixel and the peripheral pixels, or may be a median value or a mode value of the pixel data of the correction target pixel and the peripheral pixels.
  • the representative value may be pixel data of a pixel having the same color as the correction target pixel and having the smallest influence of abnormal oblique incident light in the basic array pattern P.
  • the abnormal oblique incident light correction unit 63 can also correct pixel data of a pixel (correction target pixel) on which the abnormal oblique incident light 57 is incident by applying a predetermined filter to the correction target pixel.
  • the predetermined filter that can be used in the incident light correction unit 63 is not particularly limited, and for example, a filter (such as a median filter) that suppresses a step difference between pixel data of the correction target pixel and surrounding pixels of the same color.
  • FIG. 7 shows an example of a flowchart relating to detection of abnormal oblique incident light and color mixture correction.
  • S1 abnormal oblique incident light detection step in FIG. 7
  • Y in S2 a photodiode in which abnormal oblique incident light is detected among a plurality of pixels in this area, based on the incident direction of the detected abnormal oblique incident light.
  • the pixel 50 having 53 is determined, and the pixel data of the determined pixel 50 is corrected (S3).
  • N in S2 the correction process in the abnormal oblique incident light correction unit 63 is skipped.
  • the specific detection method and color mixture correction method of abnormally oblique incident light in the abnormally oblique incident light detection unit 61 and the abnormally oblique incident light correction unit 63 are determined according to the pixel array (color filter array) of each color of the image sensor 27.
  • pixel array color filter array
  • a specific method for detecting abnormal oblique incident light will be described in association with an example of the arrangement of color filters in the image sensor 27.
  • FIG. 8 is a diagram for explaining an example of the basic principle of the detection method of abnormally oblique incident light.
  • (A) to (d) show various arrangement patterns of G pixels and R pixels.
  • G1 to G4 each represent a G pixel
  • R represents an R pixel
  • A represents a pixel other than the R pixel (G pixel or B pixel in the pixel array shown in FIG. 2).
  • a G pixel (second color pixel) having a G filter (second color filter) is used as a determination pixel, and an R filter (first color pixel) of the R pixel (first color pixel) is used.
  • an R filter (first color pixel) of the R pixel (first color pixel) is used.
  • a case will be described in which the presence / absence of incidence of abnormal oblique incident light (red abnormal oblique incident light) that has passed through the color filter is detected.
  • a case where abnormal oblique incident light that has passed through a color filter other than the R filter is received by other than the G pixel has a similar mechanism.
  • the image sensor 27 includes at least four types of determination pixels (same color pixels) having different color filter patterns for pixels adjacent in the positive and negative directions in the horizontal direction and pixels adjacent in the positive and negative directions in the vertical direction. G1 to G4. For each of the determination pixels G1 to G4, at least one of a pixel adjacent in the horizontal positive direction and negative direction and a pixel adjacent in the vertical positive direction and negative direction has an R filter.
  • Pixel G1 third determination pixel
  • R pixel is adjacent in the horizontal positive direction
  • a pixel having a color filter other than the R filter is horizontal negative, vertical positive, and vertical.
  • Pixel G2 (first determination pixel) adjacent in the negative direction of the direction ”,“ R pixel is adjacent to the negative direction in the vertical direction, and a pixel having a color filter other than the R filter is the positive direction in the horizontal direction, horizontal direction
  • the pixel G3 (fourth determination pixel) adjacent in the negative direction and the positive direction in the vertical direction and the pixel having a color filter other than the R filter in the horizontal direction are adjacent to the R pixel in the horizontal negative direction.
  • Positive direction, positive in the vertical direction Direction, and the pixel G4 adjacent to the negative direction of the vertical direction (second determination pixel) is used as the determination pixel.
  • the determination pixels G1 to G4 are sandwiched.
  • a pixel arranged at a position facing the R pixel has a color filter other than the R filter.
  • the output value characteristics of the determination pixels G1 to G4 vary depending on the presence or absence of abnormal oblique incident light. That is, when abnormal oblique incident light is not incident on the determination pixels G1 to G4, the pixel data (output values) of the determination pixels G1 to G4 are likely to be the same value or approximate values. However, when red abnormal oblique incident light is incident on the determination pixels G1 to G4, the pixel data of the determination pixels G1 to G4 varies depending on the incident direction of the red abnormal oblique incident light.
  • the pixel data of the determination pixel G1 when there is red anomalous obliquely incident light traveling from the positive direction side to the negative direction side in the vertical direction, the pixel data of the determination pixel G1 (see FIG. 8A) is the pixels of the other determination pixels G2 to G4. It becomes larger than the data (see FIG. 9).
  • the pixel data of the determination pixel G2 when there is red abnormal oblique incident light traveling from the horizontal positive direction to the negative direction, the pixel data of the determination pixel G2 (see FIG. 8B) becomes relatively larger than the others.
  • the pixel data of the determination pixel G3 When there is red anomalous oblique incident light from the negative direction side to the positive direction side in the vertical direction, the pixel data of the determination pixel G3 (see FIG. 8C) becomes relatively larger than the others, and the horizontal
  • the pixel data of the determination pixel G4 is relatively larger than the others.
  • the abnormal oblique incident light detection unit 61 can detect the presence / absence, incident direction, and intensity of abnormal oblique incident light from the magnitude relationship of the pixel data of the determination pixels G1 to G4.
  • the presence / absence, incident direction, and intensity of abnormal oblique incident light may be referred to as “abnormally oblique incident light state”.
  • FIG. 9 only the relative magnitude relationship of the pixel data of the determination pixels G1 to G4 is shown, but the specific example of the pixel data of the determination pixels G1 to G4 is shown.
  • the magnitude relationship is influenced by the color type of the pixel adjacent to the incident side of the abnormal oblique incident light.
  • FIG. 10 is a diagram showing the magnitude of the influence of the red abnormal oblique incident light on the determination pixels G1 to G4 when the red abnormal oblique incident light is incident from the horizontal positive direction side to the negative direction side.
  • “Large”, “Medium”, and “Small” represented by arrows in the lower part of each of FIGS. 10A to 10D indicate the magnitude of the influence of such an abnormally red incident light.
  • the B filter and the G filter cannot completely block the red light, and actually pass a part of the red light.
  • the G filter has a lower red light transmittance than the R filter, but has a higher red light transmittance than the B filter. Therefore, when red abnormally oblique incident light is incident on the negative direction side from the positive direction side in the horizontal direction, “the determination pixel G2 in which the R pixel is adjacent in the positive direction in the horizontal direction (see FIG. 10B)” is the most.
  • the determination pixel G1 (see FIG. 10A) and the G4 pixel (see FIG. 10D) in which the G pixel is adjacent in the positive direction in the horizontal direction is greatly influenced
  • the determination pixel G3 in which the B pixel is adjacent in the positive direction in the horizontal direction is affected the smallest.
  • pixel data differences inherently exist between the determination pixels G1 to G4 in the basic array pattern P (for example, various patterns and edges (image boundary portions) in the subject image).
  • pixel data having greatly different values is output from the determination pixels G1 to G4.
  • the average value of “pixel data for each type of determination pixels G1 to G4 (various determination pixel data)” included in the area of the image sensor 27 for example, an area including about 100 or more basic array patterns P. If there is no abnormally oblique incident light, it converges to the average value of all the same color pixels (G pixels) regardless of the subject image, and is statistically approximate to each other.
  • the influence of the abnormally oblique incident light is measured as a step with respect to the average value of all the same color pixels.
  • the abnormally oblique incident light detection unit 61 determines the average value of the pixel data for each type of the determination pixels G1 to G4 in the area of the image sensor 27. Based on the above, the state of abnormal oblique incident light incident on the image sensor 27 is detected.
  • FIG. 11 is a diagram for explaining another example of the basic principle of the detection method of abnormally oblique incident light, and (a) to (d) show various arrangement patterns of G pixels and R pixels.
  • G1 to G4 each represent a G pixel
  • R represents an R pixel
  • A represents a pixel other than the R pixel.
  • each of the determination pixels G1 to G4 in this example two of the pixels adjacent in the positive and negative directions in the horizontal direction and the pixels adjacent in the positive and negative directions in the vertical direction have R filters. That is, “R pixel is adjacent to the positive direction in the horizontal direction and the positive direction in the vertical direction, and a pixel having a color filter other than the R filter is adjacent to the negative direction in the horizontal direction and the negative direction in the vertical direction (first G1 Determination pixels) ”,“ R pixels are adjacent to the horizontal negative direction and vertical positive direction, and pixels having color filters other than the R filter are adjacent to the horizontal positive direction and vertical negative direction.
  • Pixel G2 (second determination pixel) ”,“ R pixel is adjacent to the horizontal positive direction and vertical negative direction, and a pixel having a color filter other than the R filter is horizontal negative and vertical.
  • Pixel G3 (third determination pixel) adjacent in the positive direction and “R pixel are adjacent in the horizontal negative direction and the vertical negative direction, and pixels having color filters other than the R filter are in the horizontal positive direction.
  • the determination pixel G1 When there is red abnormal oblique incident light from the positive side in the vertical direction toward the negative side with respect to the determination pixels G1 to G4 shown in FIG. 11, the determination pixel G1 (see FIG. 11A) and the determination The pixel data of the pixel G2 (see FIG. 11B) is larger than the pixel data of the other determination pixels G3 to G4 (see FIG. 12).
  • the determination pixel G1 when there is red anomalous oblique incident light from the horizontal positive direction toward the negative direction, the determination pixel G1 (see FIG. 11 (a)) and the determination pixel G3 (see FIG. 11 (c)).
  • the plurality of R pixels pixels corresponding to the color type of the abnormal oblique incident light to be detected
  • the relationship between the pixel data of the determination pixels G1 to G4 It is possible to detect the state of abnormal oblique incident light.
  • FIG. 13 is a plan view of the basic array pattern P of FIG. 2 in which the arrangement pattern of G pixels and R pixels is highlighted.
  • the G pixel 50G included in the image sensor 27 of the present example includes 10 types of different color filter patterns of pixels adjacent in the positive and negative directions in the horizontal direction and pixels adjacent in the positive and negative directions in the vertical direction. Of G pixels (G1 to G10).
  • the G1 pixel has an R pixel adjacently arranged in the vertical positive direction
  • the G2 pixel has an R pixel adjacently arranged in the horizontal positive direction
  • the G3 pixel has an R pixel adjacently arranged in the vertical negative direction.
  • R pixels are adjacently arranged in the horizontal negative direction.
  • the G5 pixel has an R pixel adjacently arranged in the negative horizontal direction
  • the G6 pixel has an R pixel adjacently arranged in the vertical positive direction
  • the G7 pixel has an R pixel adjacently arranged in the horizontal positive direction
  • the R pixel is adjacently arranged in the negative direction of the vertical direction.
  • G1 pixel and G6 pixel “G2 pixel and G7 pixel”, “G3 pixel and G8 pixel”, and “G4 pixel and G5 pixel” are common in the adjacent arrangement of the R pixel, but the adjacent pixels other than the R pixel
  • the arrangement patterns of the color filters are different from each other.
  • G pixel in this example is “G9 pixel in which R pixel is adjacent in both the positive and negative directions in the horizontal direction and B pixel is adjacent in both the positive and negative directions in the vertical direction”. And “G10 pixel in which B pixel is adjacent in both positive and negative directions in the horizontal direction and R pixel is adjacent in both positive and negative directions in the vertical direction”.
  • the color filter patterns of the pixels adjacent in the horizontal positive direction and the negative direction and the pixels adjacent in the vertical positive direction and the negative direction are different from each other”.
  • “At least one of the pixels adjacent in the positive and negative directions in the horizontal direction and the pixels adjacent in the positive and negative directions in the vertical direction is an R color filter (corresponding to the color type of the abnormal oblique incident light to be detected.
  • the pixels adjacent in the positive and negative directions in the horizontal direction and the pixels adjacent in the positive and negative directions in the vertical direction with respect to each of the determination pixels. It is mentioned that the pixel disposed at a position opposite to the R pixel across the pixel has a color filter other than the R color filter. Since G1 to G4 pixels shown in FIG. 13 satisfy these conditions, they are preferably used as the determination pixels in this example.
  • G5 to G8 pixels also satisfy the above conditions, and therefore can be used as determination pixels instead of G1 to G4 pixels or in combination with G1 to G4 pixels. That is, each basic array pattern P of the image sensor 27 of this example includes two sets of determination pixels, and not only “G1 pixel to G4 pixel” but also “G5 pixel to G8 pixel” are used as determination pixels. can do. Therefore, the detection result of the abnormal oblique incident light state by the set of determination pixels “G1 pixel to G4 pixel” and the detection result of the abnormal oblique incident light state by the set of determination pixels “G5 pixel to G8 pixel” It is also possible to improve detection accuracy by combining.
  • the B1 to B4 pixels shown in FIG. 13 also satisfy the above conditions, it can be used as a determination pixel instead of the G1 to G8 pixels or in combination with the G1 to G8 pixels.
  • the R1 to R4 pixels shown in FIG. 13 satisfy the above conditions for the B pixel, and can be used as determination pixels for detecting blue abnormally oblique incident light.
  • the abnormally oblique incident light detection unit 61 uses G1 to G4 pixels among these G pixels shown in FIG. 13 as determination pixels, and pixel data for each type of G1 to G4 pixels in the area of the image sensor 27. Based on the average value, the state of abnormally oblique incident light in the area of the image sensor 27 is detected.
  • FIG. 14 is a schematic diagram showing an example of area division of the image sensor 27.
  • the image sensor 27 is divided into “5 divisions in the horizontal direction” and “5 divisions in the vertical direction” (25 divisions in total).
  • the number of pixels of the image sensor 27 is 4900 pixels (horizontal direction) ⁇ 3265 pixels (vertical direction)
  • each of the divided areas (area 00 to area 44) shown in FIG. 14 is 980 pixels (horizontal direction) ⁇ It is configured by the number of pixels of 653 pixels (vertical pixels).
  • the abnormal oblique incident light detection unit 61 For each of these areas, the abnormal oblique incident light detection unit 61 has an average value of pixel data (output value) of G1 pixels, an average value of pixel data of G2 pixels, and an average value of pixel data of G3 pixels. And the average value of the pixel data of the G4 pixels can be calculated, and the state of the red abnormal oblique incident light in each area can be detected based on the magnitude relationship of these average values (see FIGS. 8 and 9). As described above, according to the example shown in FIG. 14, a color mixture occurrence place due to abnormal oblique incident light such as ghost light can be specified with an accuracy of 25 divisions.
  • FIG. 15 is a diagram illustrating an example of a detection method of the state of the red abnormal oblique incident light using the pixel data of the determination pixels G1 to G4.
  • the horizontal axis indicates the determination pixels G1 to G4
  • the vertical axis indicates the ratio of the determination pixels G1 to G4 to the average pixel data.
  • the average value of the pixel data of all the determination pixels G1 to G4 in the area of the image sensor 27 is set to “pixel data average value”, and “1” on the vertical axis represents the determination pixel.
  • the average value of the pixel data for each type is the same as the average value of the pixel data.
  • the average value of the pixel data for each type of the determination pixels G1 and G3 is the same as the average pixel data value
  • the average value of the pixel data for each type of the determination pixel G2 is the pixel data average value.
  • the average value of the pixel data for each type of the determination pixel G4 is smaller than the average value of the pixel data. Therefore, in the case of the example shown in FIG. 15 in which the red abnormal oblique incident light is incident on this area and the pixel data of the determination pixels G1 to G4 in this area is shown in FIG. It can be determined that the red abnormal oblique incident light is incident toward the “negative direction side” (see FIGS. 8 and 9).
  • the “pixel data value of the determination pixel for each type”, in particular, with respect to the “average value of the pixel data values of all the determination pixels” The state of abnormally oblique incident light can be detected based on the ratio of “average value of”.
  • the abnormally oblique incident light detection unit 61 refers to the determination table stored in the storage unit 65 (see FIG. 6) and detects abnormally oblique incident light incident on the image sensor 27 from these average values. Is possible. For example, in the discrimination table, “data pattern of average value (ratio, etc.) of pixel data for each type of determination pixel” and “presence / absence of abnormal oblique incident light, incident direction and intensity (status of abnormal oblique incident light)” make it correspond. Then, the abnormally oblique incident light detection unit 61 determines the “abnormally obliquely incident light state” from the actually acquired “data pattern of the average value of pixel data for each type of determination pixel” in light of this determination table.
  • the comparison of the “average value of pixel data for each type of pixel for determination” with the determination table does not necessarily have to be strictly performed, and the “average value of pixel data for each type of pixel for determination” defined in the determination table If the pattern is similar to the pattern, the corresponding “abnormally oblique incident light state” defined in the discrimination table may be acquired.
  • FIG. 16 is a diagram illustrating another example of a method for detecting the state of the abnormal red oblique incident light using the pixel data of the determination pixels G1 to G4.
  • the horizontal axis indicates determination pixels G1 to G4
  • the vertical axis indicates pixel data values (left vertical axis) and pixel data indexes (right vertical axis) of determination pixels G1 to G4.
  • FIG. 16 shows an average value of pixel data for each type of G1 to G4 pixels in the area of the image sensor 27 as “pixel data value”.
  • “0”, “0” is set according to the average value of pixel data for each type of G1 to G4 pixels in the area of the image sensor 27. Either “1” or “2” is assigned to each determination pixel as a pixel data index. For example, “2” is assigned when the average value of the pixel data is large, “0” is assigned when the average value of the pixel data is small, and “0” is assigned when the average value of the pixel data is between them. 1 "is assigned.
  • the pixel data index can be a numerical value in an arbitrary range. For example, “ ⁇ 2” to “+2” ( ⁇ 2, ⁇ 1, 0, +1, +2) can also be used as the pixel data index.
  • These pixel data indices can be assigned by any method. For example, with respect to “the average value of the pixel data of all the determination pixels G1 to G4 in the area of the image sensor 27 (the average value of the total of the average values of the pixel data for each type of determination pixel)” If there is an “average value of pixel data for each type of determination pixel in the area” within a range of ⁇ 5%, “1” is assigned, and “pixel data for each type of determination pixel in the area is assigned. When “average value” is larger than this range, “2” is assigned, and when “average value of pixel data for each type of determination pixel in the area” is smaller than this range, “0” is assigned. You may do it.
  • a pixel data index may be assigned to each determination pixel.
  • a pixel data index “0” is assigned to the determination pixels G1, G3, and G4, and a pixel data index “2” is assigned to the determination pixel G2.
  • the abnormal oblique incident light detection unit 61 refers to the discrimination table and detects abnormal oblique incident light incident on the image sensor 27.
  • This discrimination table is stored in the storage unit 65 (see FIG. 6), and is read from the storage unit 65 by the abnormal oblique incident light detection unit 61.
  • information related to the incidence of abnormal oblique incident light on the image sensor 27 is associated with a pattern based on the average value of pixel data for each type of the determination pixels G1 to G4 in the area. More specifically, “a pixel indicating the ratio of pixel data for each type of determination pixels G1 to G4” based on “the average value of the total of average values of pixel data for each type of determination pixels G1 to G4”.
  • the data pattern of “data index” and “presence / absence of incidence of abnormal oblique incident light on the area, incident direction and intensity” are associated in the discrimination table. A specific example of the discrimination table of this example will be described later (see FIG. 20).
  • the abnormal oblique incident light detection unit 61 For each area of the image sensor 27, the abnormal oblique incident light detection unit 61 “average value of pixel data for each type of determination pixels G1 to G4” and “average of pixel data for each type of determination pixels G1 to G4”. The average value of the sum of the values ”is calculated, and pixel data indexes of the determination pixels G1 to G4 are calculated from the calculation result. Then, the abnormal oblique incident light detection unit 61 compares the data pattern of the pixel data index calculated in this way with the determination table read from the storage unit 65, and information on the incidence of the corresponding abnormal oblique incident light (abnormal The presence / absence of oblique incident light, the incident direction and intensity) are acquired.
  • FIG. 17 is a diagram illustrating another example of a method for detecting the state of the abnormal red oblique incident light using the pixel data of the determination pixels G1 to G4.
  • the horizontal axis indicates the determination pixels G1 to G4
  • the vertical axis indicates the pixel data values (left vertical axis) and pixel data rank (right vertical axis) of the determination pixels G1 to G4.
  • FIG. 17 shows an average value of pixel data for each type of G1 to G4 pixels in the area of the image sensor 27 as “pixel data value”.
  • a pixel data rank of “1” is assigned to the determination pixel G2
  • a pixel data rank of “2” is assigned to the determination pixels G1 and G3
  • a pixel data rank of “3” is assigned to the determination pixel G4.
  • Pixel data order is assigned.
  • the abnormal oblique incident light detection unit 61 in this example detects abnormal oblique incident light incident on the image sensor 27 with reference to the determination table stored in the storage unit 65 (see FIG. 6).
  • the order based on the average value of pixel data for each type of determination pixel is associated with information related to the incidence of abnormal oblique incident light on the image sensor 27.
  • the abnormally oblique incident light detection unit 61 calculates “an average value of pixel data for each type of determination pixels G1 to G4” for each area of the image sensor 27, and determines a determination pixel based on the magnitude of the calculated value.
  • a rank (pixel data rank) is assigned to G1 to G4.
  • the abnormally oblique incident light detection unit 61 may sort the “average value of the pixel data for each type of the determination pixels G1 to G4” according to the size, and then assign the pixel data rank. .
  • the abnormal oblique incident light detection unit 61 compares the data pattern of the calculated pixel data order with the determination table read from the storage unit 65, and information on the incident of the abnormal oblique incident light (the abnormal oblique incident light Presence / absence, incident direction and intensity).
  • FIG. 18 is a block diagram illustrating an example of a functional configuration of the abnormally oblique incident light detection unit 61.
  • the abnormal oblique incident light detection unit 61 includes a pixel data value calculation unit 66, a pixel data pattern calculation unit 67, and an abnormal oblique incident light determination unit 68.
  • the pixel data value calculation unit 66 determines determination pixels to be used for detection of abnormal oblique incident light from the input mosaic image data (RAW data), and the average value of the pixel data for each type of the determined determination pixels Is calculated for each divided area of the image sensor 27 (see FIG. 14).
  • the pixel data pattern calculation unit 67 calculates a data pattern of pixel data for each type of determination pixel for each divided area of the image sensor 27. For example, when the above-mentioned “abnormally oblique incident light detection example 1 (see FIG. 15)” is adopted, the “ratio of the pixel data value of the determination pixel to the average value” is calculated and acquired by the pixel data pattern calculation unit 67. Is done. Further, when the above-described “abnormally oblique incident light detection example 2 (see FIG. 16)” is employed, the relationship of “determination pixel-pixel data index” is calculated and acquired by the pixel data pattern calculation unit 67. In addition, when the above-described “abnormally incident light detection example 3 (see FIG. 17)” is employed, the relationship of “determination pixel-pixel data order” is calculated and acquired by the pixel data pattern calculation unit 67.
  • the abnormal oblique incident light determination unit 68 refers to the determination table stored in the storage unit 65 and captures an image from the “data pattern of pixel data for each type of determination pixel” calculated by the pixel data pattern calculation unit 67. Abnormally incident light incident on the element 27 is detected. For example, when the above-described “abnormally oblique incident light detection example 1 (see FIG. 15)” is adopted, the “ratio of the determination pixel to the average pixel data value” and the abnormally oblique incident light state information are discriminated. Stipulated in the table.
  • the abnormal oblique incident light determination unit 68 compares the “ratio of the pixel data value of the determination pixel with respect to the average value of the pixel data values” calculated and acquired by the pixel data pattern calculation unit 67 with the determination table, and information on the state of the abnormal oblique incident light To get. Further, when the above-described “abnormally oblique incident light detection example 2 (see FIG. 16)” is adopted, the relationship between “determination pixel-pixel data index” and abnormal oblique incident light state information are defined in the discrimination table.
  • the abnormal oblique incident light determination unit 68 compares the relationship of “determination pixel-pixel data index” calculated and acquired by the pixel data pattern calculation unit 67 with the determination table, and determines the state of abnormal oblique incident light. Get information.
  • the relationship of “determination pixel-pixel data order” and abnormal oblique incident light state information are defined in the discrimination table.
  • the abnormal oblique incident light determination unit 68 compares the relationship of “determination pixel-pixel data order” calculated and acquired by the pixel data pattern calculation unit 67 with the determination table, and determines the state of abnormal oblique incident light. Get information.
  • FIG. 19 is a flowchart showing an example of color type determination of abnormally oblique incident light.
  • an abnormal oblique incident light detector 61 which indicates which of the red (R) abnormal oblique incident light and the green (G) abnormal oblique incident light is incident on the area of the image sensor 27.
  • An example in which the pixel data value calculation unit 66) discriminates will be described, but it is possible to discriminate in the same manner for other colors of abnormal oblique incident light (for example, blue (B) abnormal oblique incident light).
  • a total value of pixel data (pixel data before white balance correction) of the R pixel, G pixel, and B pixel in the area is calculated by the pixel data value calculation unit 66 ( S11 in FIG. 19).
  • the pixel data value calculation unit 66 determines whether the “total value of pixel data of R pixels” and the “total value of pixel data of G pixels” in the area are large or small (S12). When the total value of the pixel data of the R pixel is larger than the total value of the pixel data of the G pixel (Y in S12), it is determined that red abnormal oblique incident light may be incident on this area, and R A discrimination table for abnormally oblique incident light is employed (S13).
  • the pixel data value calculation unit 66 determines a determination pixel according to the determined color type of the abnormal oblique incident light. Then, the abnormal oblique incident light determination unit 68 reads the adopted determination table from the storage unit 65 and detects the state of the abnormal oblique incident light.
  • FIG. 20 is a diagram showing an example of a discrimination table used for detecting abnormally oblique incident light on the image sensor 27 (X-Trans array) in FIG.
  • FIG. 20 shows a discrimination table (see “R discrimination table” in FIG. 20) for “a pattern based on an average value of pixel data for each type of judgment pixel in an area” for red abnormal oblique incident light, and a green abnormality. This is shown in combination with a discrimination table (see “G discrimination table” in FIG. 20) regarding “pattern based on the average value of pixel data for each type of determination pixel in an area” for oblique incident light.
  • “PAT00” to “PAT28” indicate typical output pattern examples of the determination pixels, respectively. In the case of output patterns other than “PAT00” to “PAT28”, “abnormally oblique incident light” is indicated. Determined. Further, “G1” to “G8” in FIG. 20 correspond to the G pixels shown in FIG. In FIG. 20, the output data of the G1 to G8 pixels are represented by pixel data indices (see FIG. 16), “0” (the average pixel data in the area is small), “1” (the average pixel in the area) Pixel data indexes of “medium” and “2” (average pixel data in the area is large) are used. “ ⁇ ” In FIG.
  • the 20 indicates a case where it is difficult to use as a determination result for detection of the corresponding abnormal oblique incident light. If the determination result is “ ⁇ ”, the process is the same as when no obliquely incident light is incident (“no ghost”), so it is determined that no abnormally oblique incident light is incident (“no ghost”). You may do it.
  • the incidence of abnormally oblique incident light is simply expressed as “ghost”, and the incidence of abnormally oblique incident light having a stronger intensity than normal is expressed as “strong ghost”.
  • “upper and lower” means “a positive direction side and a negative direction side in the vertical direction”
  • “right and left” means “a positive direction side and a negative direction side in the horizontal direction”.
  • “ghost from above” means “abnormally oblique incident light from the vertical positive direction to the negative direction”
  • “ghost from right” means “negative from the horizontal positive direction. It means that abnormally obliquely incident light directed toward the direction side is incident.
  • the determination pixel is adjacent to the “diagonal diagonal direction”.
  • the incident direction of the red abnormal oblique incident light is oblique with respect to the horizontal direction and the vertical direction (hereinafter, simply referred to as “incident direction is oblique”.
  • incident direction is oblique.
  • “upper right” in FIG. “Lower right”, “upper left”, and “lower left”
  • the influence from the G pixels adjacent in the horizontal direction and the vertical direction up, down, left and right
  • the influence from the R pixel adjacent in the horizontal direction and the vertical direction up, down, left and right
  • the influence from the G pixel adjacent to the two pixels in the horizontal direction and the vertical direction (up, down, left, and right) is the horizontal direction and the vertical direction (up and down). This is almost the same as the influence from the R pixel adjacent to one pixel on the left and right. Therefore, for example, when the abnormal red obliquely incident light is incident from the upper right, among the determination pixels, “adjacent to the R pixel on the positive direction side (upper side in the vertical direction) and on the positive direction side (right side) in the horizontal direction.
  • the state of abnormal oblique incident light is determined from the output pattern of at least one of the determination pixel set of “G1 pixel to G4 pixel” and the determination pixel set of “G5 pixel to G8 pixel”. Can be detected.
  • the abnormal oblique incident light detection unit 61 (pixel data value calculation unit 66, pixel data pattern calculation unit 67, abnormal oblique incident light determination unit 68) is based on pixel data for each color type of the color filter in the area of the image sensor.
  • the color type of the abnormal oblique incident light is determined, and the state of the abnormal oblique incident light with respect to the image sensor 27 is detected with reference to the determination table (FIG. 20) corresponding to the determined color type of the abnormal oblique incident light.
  • FIG. 21 is a flowchart showing another example of color type determination of abnormally oblique incident light.
  • the pixel data value calculation unit 66 identifies the type of the corresponding abnormal oblique incident light from among the red abnormal oblique incident light, the green abnormal oblique incident light, and the blue abnormal oblique incident light will be described.
  • a total value of pixel data (pixel data before white balance correction) of the R pixel, G pixel, and B pixel in the area is calculated by the pixel data value calculation unit 66 ( S21 in FIG.
  • the pixel data value calculation unit 66 determines whether the “total value of pixel data of R pixels” and the “total value of pixel data of G pixels” in the area are large or small (S22). When the total value of the pixel data of the R pixel is larger than the total value of the pixel data of the G pixel (Y in S22), the “total value of the pixel data of R pixel” and the “total value of the pixel data of B pixel” in the area "Is discriminated in the pixel data value calculation unit 66 (S23).
  • the pixel data value calculation unit 66 determines whether the value is “value” (S24).
  • S24 the total value of the pixel data of the G pixel is larger than the total value of the pixel data of the B pixel (Y in S24)
  • the green A discrimination table for abnormally oblique incident light is employed (S27).
  • the color type of the abnormally oblique incident light is not particularly limited, but the color mixing phenomenon due to the abnormally oblique incident light is caused by the fact that the color filter that passes through and the photodiode that receives light do not correspond to each other. Therefore, it is preferable to determine the possibility of incidence of a plurality of colors of abnormally oblique incident light according to the color of the color filter employed in the image sensor 27 as the color type of the abnormally obliquely incident light.
  • the color mixing phenomenon is further suppressed by determining the possibility of incidence of abnormally oblique incident light of the color corresponding to the color filter that passes the wavelength component on the long wavelength side among the color filters employed in the image sensor 27. It becomes easy.
  • the image sensor 27 is configured by an RGB filter, it is easier to suppress the color mixing phenomenon by determining the possibility of incidence of abnormal oblique incident light corresponding to R (red).
  • abnormal oblique incident light for example, red abnormal oblique incident light
  • the abnormal oblique incident light detection unit 61 pixel data value
  • the calculation unit 66 can also determine.
  • the abnormally oblique incident light detection unit 61 (pixel data value calculation unit 66) is an area of the image sensor 27.
  • a value X times the average value of the pixel data of the R pixel (0 ⁇ X ⁇ 1), a value Y times the average value of the G pixel data (0 ⁇ Y ⁇ 1), and the average of the pixel data of the B pixel It is possible to determine that abnormally oblique incident light of the color type corresponding to the color filter of the color type showing the largest value among the values Z times the value (0 ⁇ Z ⁇ 1) is incident on the image sensor.
  • the values of “x”, “X”, “Y”, and “Z” can be determined as appropriate, but may be determined according to the priority of the color type of the abnormal oblique incident light to be detected.
  • the light component on the longer wavelength side is more likely to cause color mixing and more likely to cause pixel data steps between the same color pixels. For this reason, for example, the values of “x”, “X”, “Y”, and “Z” may be determined so that abnormally oblique incident light having a color type on the long wavelength side is preferentially detected. .
  • the incident light detection unit 61 corresponds to the color type of the abnormally oblique incident light that is determined to be incident among the color types of the color filter of the image sensor 27.
  • the above-described determination pixel is selected so that the kind of color filter becomes a color filter of the adjacent pixel of the determination pixel.
  • abnormal oblique incident light such as ghost light can be easily detected from the pixel data of the determination pixel, and the image quality deteriorated by such abnormal oblique incident light is restored. It is possible to effectively perform the correction processing (color mixture correction processing).
  • the red abnormal oblique incident light, the green abnormal oblique incident light, and the green abnormal oblique incident light are obtained using the same determination pixels G1 to G4. It is possible to detect each of the blue abnormal oblique incident light.
  • the G1 to G4 pixels are “color filters of pixels adjacent in the positive and negative directions in the horizontal direction and pixels adjacent in the positive and negative directions in the vertical direction.
  • the pattern in the horizontal direction is different from each other ”,“ at least one of the pixels adjacent in the positive and negative directions in the horizontal direction and the pixels adjacent in the positive and negative directions in the vertical direction is the color filter of B (the detection target A color filter corresponding to abnormally oblique incident light) and “a pixel adjacent in the positive and negative directions in the horizontal direction and a pixel adjacent in the positive and negative directions in the vertical direction with respect to each of the determination pixels”.
  • the pixel arranged at the position facing the B pixel across the determination pixel has a condition of “having a color filter other than the B filter”. Accordingly, it is possible to detect the state of the blue abnormally oblique incident light by using the G1 to G4 pixels as the determination pixels.
  • the G1 to G4 pixels are “pixels adjacent in the positive and negative directions in the horizontal direction and pixels adjacent in the positive and negative directions in the vertical direction.
  • the color filter pattern is different from each other ”,“ at least one of the pixels adjacent in the positive and negative directions in the horizontal direction and the pixels adjacent in the positive and negative directions in the vertical direction is the G color filter (detection Having a color filter corresponding to the target obliquely incident light ”and“ adjacent pixels in the positive and negative directions in the horizontal direction and adjacent in the positive and negative directions in the vertical direction for each of the determination pixels.
  • a pixel arranged at a position facing the G pixel across the determination pixel has a condition of “having a color filter other than the G filter”. Accordingly, it is possible to detect the state of the green abnormally oblique incident light by using the G1 to G4 pixels as the determination pixels.
  • each of the plurality of divided regions (25 areas) illustrated in FIG. 14 is set as an area to be detected for abnormal oblique incident light.
  • the arrangement of the divided areas is not necessarily limited to 25 areas, and the constituent pixels of the image sensor 27 may be divided into areas larger than 25 or areas smaller than 25.
  • a region including all of the pixels 50 of the image sensor 27 may be set as one area (single area) that is a detection target of abnormal oblique incident light.
  • the area of each area may be the same in all the divided areas or may be different.
  • the plurality of divided regions illustrated in FIG. 14 include all the pixels of the image sensor 27 is illustrated. However, only a part of the pixels of the image sensor 27 is a detection target of abnormal oblique incident light. It may be included in this area.
  • the shape of the divided area of the image sensor 27 is not limited to the example shown in FIG. 14 (rectangular divided area).
  • the divided area may have any shape such as a triangle, hexagon, or octagon. Can be set.
  • FIG. 23 is a diagram illustrating an example in which the constituent pixels of the image sensor 27 are divided into a divided area A (first divided area) and a divided area B (second divided area) in a superimposed manner.
  • FIG. 23A is a plan view of the image sensor 27 showing an application state of the divided area A and the divided area B
  • FIG. 23B shows an example of area division of the divided area A
  • FIG. An example of area division will be shown.
  • a plurality of divided areas A are set, and a plurality of divided areas B having a different division method from the divided area A are set. And at least partially overlap.
  • the divided area A has the same division method as the area division example shown in FIG. 14, and the constituent pixels of the image sensor 27 are divided into “5 divisions in the horizontal direction” and “5 divisions in the vertical direction” (25 divisions in total). (See “Area A00” to “Area A44” in FIG. 23B).
  • the divided area B has areas of “4 divisions in the horizontal direction” and “4 divisions in the vertical direction” (16 divisions in total) (see “area B00” to “area B33” in FIG. 23C).
  • the individual areas of the divided area B have the same shape and size as the individual areas of the divided area A.
  • the divided area A and the divided area B overlap so that the centers are at the same position, and the center of the divided area A (the center of “area A22” in FIG. 23B) and the center of the divided area B (see FIG. 23 (c), “area B11”, “area B12”, “area B21”, and “center of boundary of“ area B22 ”” overlap.
  • the divided area A and the divided area B are set so as to be shifted by half the size of each of the divided areas A and B in at least one of the horizontal direction and the vertical direction (both in this example). Is done.
  • each area of the divided area B overlaps with two or more areas of the divided area A.
  • the individual areas of the divided area B partially overlap the four areas of the divided area A.
  • the area B11 of the divided area B overlaps the area A11, area A12, area A21, and area A22 of the divided area A (see “C” in FIG. 23A and FIG. 24).
  • the image sensor 27 includes pixels classified into any region of the divided area A and classified into any region of the divided area B.
  • the pixels classified into the area B11 of the divided area B are classified into any one of the area A11, the area A12, the area A21, and the area A22 of the divided area A.
  • the abnormal oblique incident light detection unit 61 detects abnormal oblique incident light incident on each area of the divided area A based on “average value of pixel data for each type of determination pixel” in each area of the divided area A. . Further, the abnormal oblique incident light detection unit 61 detects abnormal oblique incident light incident on each area of the divided area B based on the “average value of pixel data for each type of determination pixel” in each area of the divided area B. To detect. Then, the abnormally oblique incident light detection unit 61 divides the divided area based on the detection result of the abnormally oblique incident light incident on each area of the divided area A and the detected result of the abnormally oblique incident light incident on each area of the divided area B. Abnormally obliquely incident light incident on a region where each region of A and each region of divided area B overlap is detected.
  • abnormal oblique incident light incident in the same direction is detected in area A11 and area B11, but abnormal oblique incident light is not detected in area A12, area A21, and area A22, it overlaps with area A11 in area B11. It can be determined that a color mixing phenomenon due to abnormal oblique incident light occurs only in the region where the light is incident (see “D” in FIG. 24).
  • FIG. 25 is a plan view of the image sensor 27 showing another color filter arrangement example.
  • the basic array pattern P is formed by 4 pixels (horizontal direction) ⁇ 4 pixels (vertical direction).
  • “G pixel, G pixel, G pixel, G pixel” are juxtaposed in the horizontal direction in order from the vertical positive direction
  • “G pixel, B pixel, G pixel, R pixel”. ”In the horizontal direction,“ G pixel, G pixel, G pixel, G pixel, G pixel ”in the horizontal direction, and“ G pixel, R pixel, G pixel, B pixel ”in the horizontal direction Are juxtaposed with each other.
  • This basic array pattern P also includes at least four types of the same color pixels (G pixels in the example shown in FIG. 25) that satisfy the above-described determination pixel condition. For this reason, it is possible to detect abnormally oblique incident light with high accuracy by using these same color pixels as determination pixels.
  • FIG. 25 shows an example of determination pixels G1 to G4 that can be used for detection of red abnormal oblique incident light. However, since there are other pixels that satisfy the above-described determination pixel conditions, such a case exists. Other pixels may be used as the determination pixels.
  • FIG. 26 is a plan view of the image sensor 27 showing another color filter arrangement example.
  • the basic array pattern P is formed by 3 pixels (horizontal direction) ⁇ 3 pixels (vertical direction).
  • R pixels, B pixels, G pixels are juxtaposed in the horizontal direction
  • B pixels, R pixels, G pixels are juxtaposed in the horizontal direction.
  • rows in which “G pixels, G pixels, G pixels” are juxtaposed in the horizontal direction are arranged.
  • This basic array pattern P also includes at least four types of the same color pixels (G pixels in the example shown in FIG. 26) that satisfy the above-described determination pixel condition. For this reason, it is possible to detect abnormally oblique incident light by using these same color pixels as determination pixels.
  • FIG. 26 shows an example of the determination pixels G1 to G4 that can be used when detecting abnormally red incident light.
  • FIG. 27 is a plan view of the image sensor 27 showing another example of the color filter arrangement.
  • FIG. 27A shows a state where four basic arrangement patterns P are arranged, and FIG. 27B detects red abnormal oblique incident light.
  • FIG. 4C shows an example of determination pixels G1 to G4 that can be used at the time
  • FIG. 5C shows an example of determination pixels G1 to G4 that can be used when detecting an abnormally green incident light
  • FIG. An example of determination pixels G1 to G4 that can be used when detecting obliquely incident light is shown.
  • the basic array pattern P is formed by 4 pixels (horizontal direction) ⁇ 4 pixels (vertical direction).
  • each basic array pattern P “R pixel, B pixel, G pixel, G pixel” are juxtaposed in the horizontal direction in order from the positive direction in the vertical direction, and “B pixel, R pixel, G pixel, G pixel”. ”In the horizontal direction,“ G pixel, G pixel, B pixel, R pixel ”in the horizontal direction, and“ G pixel, G pixel, R pixel, B pixel ”in the horizontal direction Are juxtaposed with each other.
  • This basic array pattern P also includes at least four types of pixels of the same color that satisfy the conditions for the determination pixels described above. For this reason, it is possible to detect abnormally oblique incident light by using these same color pixels as determination pixels.
  • the same pixels are set to “determining pixels for detecting red abnormal oblique incident light” (see FIG. 27B) and “green abnormal oblique incident light detection”. It can be used as “determination pixel for use” (see FIG. 27C) and “determination pixel for detecting blue obliquely incident light” (see FIG. 27D).
  • G1 to G4 illustrated in FIG. 27 there are other pixels that satisfy the above-described determination pixel condition. Therefore, such other pixels may be used as the determination pixel.
  • FIG. 28 is a plan view of the image sensor 27 showing another example of color filter arrangement.
  • FIG. 28A shows a state in which four basic arrangement patterns P are arranged, and FIG. 28B detects red abnormal oblique incident light.
  • FIG. 4C shows an example of determination pixels G1 to G4 that can be used at the time
  • FIG. 5C shows an example of determination pixels R1 to R4 that can be used when detecting an abnormally green incident light
  • FIG. An example of determination pixels G1 to G4 that can be used when detecting obliquely incident light is shown.
  • the basic array pattern P is formed by 5 pixels (horizontal direction) ⁇ 5 pixels (vertical direction).
  • each basic array pattern P in order from the vertical positive direction, “G pixel, B pixel, R pixel, B pixel, G pixel” are juxtaposed in the horizontal direction, and “R pixel, G pixel, B pixel” , G pixel, R pixel ”are juxtaposed in the horizontal direction,“ B pixel, R pixel, G pixel, R pixel, B pixel ”are juxtaposed in the horizontal direction, and“ R pixel, G pixel, Rows in which “B pixels, G pixels, R pixels” are juxtaposed in the horizontal direction and rows in which “G pixels, B pixels, R pixels, B pixels, G pixels” are juxtaposed in the horizontal direction are arranged.
  • This basic array pattern P also includes at least four types of pixels of the same color (G pixel / R pixel in the example shown in FIG. 28) that satisfy the above-described determination pixel condition. For this reason, it is possible to detect abnormally oblique incident light by using these same color pixels as determination pixels.
  • G pixel / R pixel in the example shown in FIG. 28 In addition to G1 to G4 and R1 to R4 illustrated in FIG. 28, there are other pixels that satisfy the above-described determination pixel conditions. Therefore, such other pixels are used as determination pixels. Also good.
  • the color mixture determination correction unit 41 “Color mixing” may be corrected. That is, the image sensor 27 such as a CMOS may be affected by the pixel data output of the adjacent pixel regardless of the presence or absence of abnormal oblique incident light depending on the color arrangement pattern of the adjacent pixel and the base structure such as the pixel sharing amplifier. is there. Pixel data correction that reduces or eliminates the influence of such “color mixture from adjacent pixels that is unrelated to abnormal oblique incident light” may be performed.
  • the “color mixture rate from adjacent pixels” based on the color arrangement pattern of the adjacent pixels and the background structure is obtained in advance, and the pixel data actually output from the adjacent pixels and the “from the adjacent pixels” It is possible to obtain the original pixel data of the correction target pixel by calculating the color mixing amount from the product sum with the “color mixing ratio” and subtracting this color mixing amount from the pixel data of the correction target pixel.
  • the arrangement direction of the color filter array is not particularly limited, and may be a direction having an arbitrary angle with respect to the horizontal direction and the vertical direction.
  • a so-called “honeycomb arrangement” in which a plurality of pixels (color filters) two-dimensionally arranged in the horizontal direction and the vertical direction are rotated by 45 degrees may be used.
  • color filters other than RGB may be used, for example, a filter that transmits all of light in the red wavelength range, light in the blue wavelength range, and light in the green wavelength range, and in these wavelength ranges
  • a transparent filter having a relatively high light transmittance for example, a light transmittance of 70% or more
  • a so-called white filter having a transmittance lower than that of the transparent filter may be used as the color filter.
  • any one of the red filter, the transparent filter, and the white filter may be a color filter (first color filter) of a color corresponding to abnormal oblique incident light.
  • any one of the blue filter and the green filter may be a color filter of a color corresponding to abnormally oblique incident light.
  • the image sensor 27 may include pixels having color filters of colors other than red, green, blue, transparent, and white.
  • the above-described digital camera 10 is an example, and the present invention can be applied to other configurations.
  • Each functional configuration can be appropriately realized by arbitrary hardware, software, or a combination of both. Therefore, for example, the present invention can also be applied to a program that causes a computer to execute the processing procedure in each of the above-described devices and processing units (abnormally oblique incident light detection unit 61, abnormally oblique incident light correction unit 63, and the like). .
  • the above-described detection of abnormal oblique incident light and color mixing correction may be performed by an image processing unit provided in the computer.
  • the server includes an image processing unit (color mixing determination correction unit), for example, image data is transmitted to the server from a digital camera or a computer, and the above-described abnormal oblique incident light is applied to the image data in the image processing unit of the server. Detection and color mixture correction may be performed, and the image data after the color mixture correction may be transmitted and provided to the transmission source.
  • the mode to which the present invention is applied is not limited to a digital camera, a computer, and a server.
  • the camera whose main function is imaging
  • other functions other than imaging call function, communication function, etc.
  • the present invention is also applicable to mobile devices having a computer function. Examples of such mobile devices include a mobile phone having a camera function, a smartphone, a PDA (Personal Digital Assistants), and a portable game machine.
  • a smartphone to which the present invention can be applied will be described.
  • FIG. 29 shows the appearance of a smartphone 101 that is an embodiment of the imaging apparatus of the present invention.
  • a smartphone 101 illustrated in FIG. 29 includes a flat housing 102, and a display input in which a display panel 121 as a display unit and an operation panel 122 as an input unit are integrated on one surface of the housing 102. Part 120 is provided.
  • the housing 102 includes a speaker 131, a microphone 132, an operation unit 140, and a camera unit 141.
  • the configuration of the housing 102 is not limited to this. For example, a configuration in which the display unit and the input unit are independent from each other may be employed, or a configuration having a folding structure or a slide mechanism may be employed.
  • FIG. 30 is a block diagram showing the configuration of the smartphone 101 shown in FIG.
  • the smartphone 101 includes, as main components, a wireless communication unit 110, a display input unit 120, a call unit 130, an operation unit 140, a camera unit 141, a storage unit 150, an external input / output.
  • Unit 160 GPS (Global Positioning System) receiving unit 170, motion sensor unit 180, power supply unit 190, and main control unit 100.
  • the smartphone 101 has a wireless communication function that performs mobile wireless communication via the base station device BS and the mobile communication network NW as a main function.
  • the radio communication unit 110 performs radio communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 100.
  • the wireless communication unit 110 transmits and receives various file data such as audio data and image data, e-mail data, and receives Web data and streaming data, for example, using wireless communication.
  • the display input unit 120 displays images (still images and moving images), character information, and the like visually under the control of the main control unit 100, visually transmits information to the user, and detects user operations on the displayed information.
  • the display input unit 120 is a touch panel, for example.
  • the display panel 121 of the display input unit 120 is configured by using, for example, an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • the operation panel 122 of the display input unit 120 is a device that is placed so that an image displayed on the display surface of the display panel 121 is visible and detects one or more coordinates operated by a user's finger or stylus. is there. When the operation panel 122 is operated with a user's finger or stylus, a detection signal generated due to the operation is output to the main control unit 100.
  • the main control unit 100 detects the operation position (coordinates) on the display panel 121 based on the input detection signal.
  • the operation panel 122 is disposed so as to completely cover the display panel 121, and the operation panel 122 and the operation panel 121 constitute a display input unit 120.
  • the operation panel 122 may be provided with a function of detecting a user operation also for an area outside the display panel 121.
  • the operation panel 122 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 121 and a detection area (hereinafter referred to as a non-display area) for other outer edge portions that do not overlap the display panel 121. May be included).
  • the size of the display area and the size of the display panel 121 may be completely matched or may not be matched.
  • the size of the display area and the size of the display panel 121 are not necessarily matched.
  • the operation panel 122 may include two sensitive regions of an outer edge portion and the other inner portion.
  • the width of the outer edge portion is appropriately designed according to the size of the housing 102 and the like. Examples of the position detection method employed in the operation panel 122 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method.
  • the call unit 130 includes a speaker 131 and a microphone 132.
  • the user's voice input through the microphone 132 is converted into voice data that can be processed by the main control unit 100.
  • the speaker 131 decodes and outputs audio data received by the wireless communication unit 110 or the external input / output unit 160.
  • the speaker 131 can be mounted on the same surface as the surface on which the display input unit 120 is provided, and the microphone 132 can be mounted on the side surface of the housing 102.
  • the operation unit 140 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 140 is mounted on the side surface of the housing 102 of the smartphone 101.
  • the operation unit 140 is, for example, a push button type switch that is turned on when pressed with a finger or the like and is turned off by a restoring force such as a spring when the finger is released.
  • the storage unit 150 includes a control program and control data of the main control unit 100, application software, address data that associates the name and telephone number of the communication partner, transmitted / received e-mail data, Web data downloaded by Web browsing, download Stored content data and the like.
  • the storage unit 150 temporarily stores streaming data and the like.
  • the storage unit 150 includes an internal storage unit 151 built in the smartphone and an external storage unit 152 having a removable external memory slot.
  • the internal storage unit 151 and the external storage unit 152 include, for example, a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, It is realized using a storage medium such as a MicroSD (registered trademark) memory, a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • a storage medium such as a MicroSD (registered trademark) memory, a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • the external input / output unit 160 serves as an interface with an external device connected to the smartphone 101, and communicates between the smartphone 101 and another external device (for example, universal serial bus (USB), IEEE 1394, etc.). Or a network (for example, Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark) ZigBee (registered trademark) or the like is used for direct or indirect connection.
  • a network for example, Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark) ZigBee (registered trademark) or the like is used for direct or indirect connection.
  • a wired / wireless headset As an external device connected to the smartphone 101, for example, a wired / wireless headset, wired / wireless external charger, wired / wireless data port, memory card (Memory card) or SIM (Subscriber) connected via a card socket, for example.
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video equipment connected via audio / video I / O (Input / Output) terminal
  • external audio / video equipment connected wirelessly yes / no
  • the external input / output unit may transmit data received from such an external device to each component inside the smartphone 101 or may transmit data inside the smartphone 101 to the external device.
  • the GPS receiving unit 170 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 100, executes positioning calculation processing based on the received plurality of GPS signals, and calculates the latitude and longitude of the smartphone 101. , Detect the position consisting of altitude. If the GPS receiving unit 170 can acquire position information from the wireless communication unit 110 or the external input / output unit 160 (for example, a wireless LAN), the GPS receiving unit 170 can also detect the position using the position information.
  • the motion sensor unit 180 includes, for example, a triaxial acceleration sensor and detects the physical movement of the smartphone 101 in accordance with an instruction from the main control unit 100. By detecting the physical movement of the smartphone 101, the moving direction and acceleration of the smartphone 101 are detected. The detection result by the motion sensor unit 180 is output to the main control unit 100.
  • the power supply unit 190 supplies power stored in a battery (not shown) to each unit of the smartphone 101 in accordance with an instruction from the main control unit 100.
  • the main control unit 100 includes a microprocessor, operates according to a control program and control data stored in the storage unit 150, and controls each unit of the smartphone 101 in an integrated manner.
  • the main control unit 100 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 110.
  • the application processing function is realized by the main control unit 100 operating according to the application software stored in the storage unit 150.
  • Examples of the application processing function include an infrared communication function for performing data communication with the opposite device by controlling the external input / output unit 160, an e-mail function for sending and receiving e-mails, and a web browsing function for browsing web pages. It is done.
  • the main control unit 100 has an image processing function such as displaying video on the display input unit 120 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function refers to a function in which the main control unit 100 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 120.
  • the main control unit 100 executes display control for the display panel 121 and operation detection control for detecting a user operation through the operation unit 140 and the operation panel 122.
  • the main control unit 100 By executing the display control, the main control unit 100 displays an icon for starting application software, a software key such as a scroll bar, or displays a window for creating an e-mail.
  • a software key such as a scroll bar
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of an image, such as a large image that does not fit in the display area of the display panel 121.
  • the main control unit 100 By executing the operation detection control, the main control unit 100 detects a user operation through the operation unit 140, receives an operation for an icon through the operation panel 122, an input of a character string in an input field of the window, or a scroll bar. Or a request for scrolling the display image through the screen.
  • the main control unit 100 determines whether the operation position with respect to the operation panel 122 is an overlapping portion (display region) overlapping the display panel 121 or an outer edge portion (non-display region) other than the display panel 121. And a touch panel control function for controlling the sensitive area of the operation panel 122 and the display position of the software key.
  • the main control unit 100 can also detect a gesture operation on the operation panel 122 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but draws a trajectory for at least one of a plurality of positions by drawing a trajectory with a finger, specifying a plurality of positions at the same time, or combining them. Means an operation.
  • the camera unit 141 is a digital camera that performs electronic photography using an imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device). Image data captured by the camera unit 141 is converted by the main control unit 100 into compressed image data such as JPEG (Joint Photographic Coding Experts Group), and is recorded in the storage unit 150 or input / output unit 160. Or output through the wireless communication unit 110. As shown in FIG. 29, in the smartphone 101 of the present embodiment, one camera unit 141 is mounted on the same surface as the display input unit 120. However, the present invention is not limited to this, and the camera unit 141 includes the display input unit 120.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge-Coupled Device
  • It may be mounted on the back surface, or a plurality of camera units 141 may be mounted.
  • the camera unit 141 used for shooting can be switched to perform shooting alone, or a plurality of camera units 141 can be used for shooting simultaneously.
  • the camera unit 141 can be used for various functions of the smartphone 101. For example, it can be used to display an image acquired by the camera unit 141 on the display panel 121, or the image of the camera unit 141 can be used as one of operation inputs of the operation panel 122.
  • the GPS receiving unit 170 detects the position
  • the position can also be detected with reference to an image from the camera unit 141.
  • the optical axis direction of the camera unit 141 of the smartphone 101 can be determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment. Images from the camera unit 141 can be used in application software.
  • the position data acquired by the GPS receiving unit 170 and the audio information acquired by the microphone 132 are performed on the still image or moving image data obtained using the camera unit 141. It may be text information), posture information acquired by the motion sensor unit 180, and the like may be added. Further, still image data or moving image image data to which position information, audio information, posture information, or the like is added can be recorded in the storage unit 150 or output through the input / output unit 160 or the wireless communication unit 110.
  • the image processing circuit 32 in FIG. 3 can be appropriately realized by, for example, the main control unit 100, the storage unit 150, and the like.

Abstract

 撮像素子が複雑なカラーフィルタ配列を有する場合であっても、異常斜め入射光の入射の有無及び入射方向を簡便に検出することができる撮像装置、画像処理装置、画像処理方法及びプログラムを提供する。撮像素子を構成する画素は、隣接画素のカラーフィルタパターンが相互に異なる少なくとも4種類の判定用画素を含む。判定用画素の各々に対して隣接する画素のうち少なくとも1つは、第1色のカラーフィルタを有する第1色の画素である。また、判定用画素の各々に対する隣接画素のうち、判定用画素を挟んで第1色の画素と対向する位置に配置される画素は、第1色のカラーフィルタ以外のカラーフィルタを有する。これらの判定用画素の種類毎の画素データの平均値に基づいて、撮像素子に入射する異常斜め入射光が検出される。

Description

撮像装置、画像処理装置、画像処理方法及びプログラム
 本発明は撮像装置、画像処理装置、画像処理方法及びプログラムに係り、特に、異常斜め入射光の検出技術に関する。
 一般に、モザイク状のカラーフィルタ配列を有する単板方式の撮像素子では、隣接画素からの光の漏れ込みによる混色が発生する。混色の影響が大きいRGBの色信号をデジタル信号処理して画像を生成すると画像の色再現性(画質)が低下し、また混色の影響が大きいRGBの色信号からはホワイトバランス(WB)補正用のWBゲインを精度良く算出することが難しい。
 デジタルカメラ等の撮像装置によって被写体像を撮影する際に強い光がレンズに入射すると、撮影レンズやマイクロレンズなどの表面で反射した光がレンズ内部やカメラ内部で複雑に反射し、意図しない角度で進行する光が撮像素子によって受光されることがある。このように、意図していない角度から撮像素子に入射する異常斜め入射光は、いわゆるゴーストやフレア等の現象を起こし、撮影画像の画質を劣化させる。
 とりわけ異常斜め入射光の入射角度が大きい場合には、異常斜め入射光が入射するカラーフィルタが構成する画素と、異常斜め入射光が受光されるフォトダイオードが構成する画素とが対応しない場合がある。異常斜め入射光が通過したカラーフィルタと、実際にこの異常斜め入射光が受光されたフォトダイオードとが完全には対応しない場合、混色現象が生じ、撮影画像の色再現性の劣化を招く。この混色現象は、特に長波長成分(例えば赤色光成分)を含む異常斜め入射光によって、引き起こされ易い。
 混色の影響を軽減する手法として、ゴースト等の発生箇所を検出して、画素間の画素データ出力差(段差)を補正する技術が提案されている。例えば特許文献1は、ベイヤ配列において、所定領域毎にGr/Gbの平均画素値を求め、相対差分値と閾値との比較累積値をカウントし、段差の有無を検出する技術を開示する。
 また特許文献2は、ベイヤ配列において、基準パターンを用いてMCU単位(8ライン×16画素)でノイズを検出する技術を開示する。この特許文献2の技術によれば、色ノイズ判定用の基準パターン100P(5×5画素)が保持され、この基準パターン100Pとの一致により色ノイズが検出される。
 また特許文献3は、画像領域をブロック単位に分割し、ゴースト検出ブロック位置を特定し、ゴースト補正を行う技術を開示する。
特開2012-009919号公報 特開2005-333251号公報 特開2008-054206号公報
 従来使用されてきた撮像素子は、比較的シンプルなカラーフィルタ配列を有することが多い。例えば広く使用されているベイヤ配列では、隣接配置される「R画素及びG画素」と「G画素及びB画素」とによって構成される2画素(水平方向)×2画素(垂直方向)の計4画素が水平方向及び垂直方向に繰り返し配置されることでカラーフィルタ配列が構成される。
 このようなシンプルなカラーフィルタ配列を有する撮像素子では、混色現象も比較的単純であるため、比較的簡単な混色補正によって画像データ上で混色の影響を低減することが可能である。
 しかしながら、最近では比較的複雑なカラーフィルタ配列を有する撮像素子も使用され、同色のカラーフィルタを有する画素同士であっても、隣接する画素(カラーフィルタ)の種類が異なる画素が多数存在する場合がある。例えば緑色のカラーフィルタを有する画素(G画素)は、ベイヤ配列では隣接する画素タイプ(カラーフィルタタイプ)によって2種類に分類されるが、複雑なカラーフィルタ配列では非常に多種類(例えば10種類以上)に分類される。
 混色の影響は隣接画素の種類によって変動するため、同色のカラーフィルタを有する画素であっても、隣接する画素(カラーフィルタ)の種類に応じた混色補正を行うことが好ましい。
 しかしながら、複雑なカラーフィルタ配列を有する撮像素子では混色現象も複雑化し、本来同一又は近似する画素データを出力する近接同色画素であっても、混色現象によって、隣接画素のカラーフィルタの種類に応じた異なる画素データが近接同色画素から出力される。
 特にゴースト光のように通常光とは異なる入射角の光(異常斜め入射光)が撮像素子に入射すると、隣接画素のカラーフィルタを通過したゴースト光の漏れ込みにより、近接同色画素間で画素データの不自然な相違(同色段差)が発生する。この段差現象は、同色画素であっても隣接画素タイプによる種類が多くなるほど複雑化する。複雑なカラーフィルタ配列を有する撮像素子においてゴースト光の入射により発生した複雑な混色現象は、通常の混色補正では十分には補正することができない。
 このような複雑なカラーフィルタ配列を有する撮像素子から出力される画像データにおいて、ゴースト光等の異常斜め入射光によってもたらされる混色現象の影響を軽減するためには、異常斜め入射光の入射の有無、入射方向等を正確に把握することが大切である。
 本発明は上述の事情に鑑みてなされたものであり、撮像素子が複雑なカラーフィルタ配列を有する場合であっても、異常斜め入射光の入射の有無及び入射方向を簡便に検出することができる技術を提供することを目的とする。
 本発明の一態様は、第1の方向及び第1の方向に垂直な第2の方向に配列される複数の画素を有する撮像素子であって、複数の画素の各々がカラーフィルタと、カラーフィルタを透過した光を受光して画素データを出力するフォトダイオードとを有する撮像素子と、画素データに基づいて、撮像素子に入射する異常斜め入射光を検出する異常斜め入射光検出手段と、を備える撮像装置であって、複数の画素は、第1の方向の正方向及び負方向に隣接する画素及び第2の方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なる少なくとも4種類の判定用画素を含み、判定用画素の各々に対して第1の方向の正方向及び負方向に隣接する画素及び第2の方向の正方向及び負方向に隣接する画素のうち少なくとも1つは、第1色のカラーフィルタを有する第1色の画素であり、判定用画素の各々に対して第1の方向の正方向及び負方向に隣接する画素及び第2の方向の正方向及び負方向に隣接する画素のうち、判定用画素を挟んで第1色の画素と対向する位置に配置される画素は、第1色のカラーフィルタ以外のカラーフィルタを有し、異常斜め入射光検出手段は、撮像素子内のエリアであって、各種類の判定用画素を複数含むエリア内における判定用画素の種類毎の画素データの平均値に基づいて、撮像素子に入射する異常斜め入射光を検出する撮像装置に関する。
 本態様によれば、撮像素子のエリア内における判定用画素の種類毎の画素データの平均値に基づいて、撮像素子に入射する異常斜め入射光を検出することができる。特に、撮像素子が複雑なカラーフィルタ配列を有していても、上述の条件を満たす判定用画素を含む場合には、撮像素子から出力される画像データに基づいて異常斜め入射光の有無及び入射方向を簡便に検出することが可能である。
 ここでいう「異常斜め入射光」とは、被写体像に関する通常の入射光とは異なる角度で画素(フォトダイオード)に入射する光成分であって、通過するカラーフィルタと受光するフォトダイオードとが同一画素を構成しない光成分を意味する。したがって、所謂ゴーストやフレア等の現象の要因となる光成分が、ここでいう異常斜め入射光に含まれうる。
 「撮像素子内のエリア」は、撮像素子の任意のエリアであり、撮像素子の画素エリアの一部又は全部を「撮像素子内のエリア」に設定しうる。なお、ここでいう「撮像素子内のエリア」は、予め定められた所定エリアであってもよいが、固定エリア・設定済みエリアに限定されるものではなく、予め定められていない可変エリアであってもよい。したがって、例えば、同色段差が目立ち易いコントラストの低い平坦な領域、顔検出された領域、等の領域のように異常斜め入射光の検出を優先的に行う領域がある場合には、優先度に応じて、上記の「撮像素子内のエリア」を可変とする態様も考えうる。
 望ましくは、異常斜め入射光検出手段は、エリア内における判定用画素の種類毎の画素データの平均値に基づいて、撮像素子に入射する異常斜め入射光の入射方向を検出する。
 本態様によれば、判定用画素の画素データに基づいて、異常斜め入射光の入射方向を検出することができる。
 望ましくは、撮像素子に対する異常斜め入射光の入射に関する情報と、エリア内における判定用画素の種類毎の画素データの平均値に基づくデータパターンとを対応づけた判別テーブルを記憶する記憶手段を更に備え、異常斜め入射光検出手段は、判別テーブルを参照して、撮像素子に入射する異常斜め入射光を検出する。
 本態様によれば、判別テーブルを参照して、異常斜め入射光を簡便に検出することができる。
 なお、「エリア内における判定用画素の種類毎の画素データの平均値に基づくデータパターン」とは、判定用画素の種類毎の画素データの平均値自体のデータパターンであってもよいし、そのような平均値から導出される他の基準に基づくデータパターンであってもよい。
 望ましくは、判別テーブルにおける、撮像素子に対する異常斜め入射光の入射に関する情報は、異常斜め入射光の色種類毎に定められており、異常斜め入射光検出手段は、撮像素子のエリア内におけるカラーフィルタの色種類毎の画素データに基づいて、異常斜め入射光の色種類を検知し、検知した異常斜め入射光の色種類に対応する判別テーブルを参照して撮像素子に入射する異常斜め入射光を検出する。
 本態様によれば、検知した異常斜め入射光の色種類に対応する判別テーブルを参照して、検知対象の異常斜め入射光を精度良く検出することができる。
 望ましくは、判別テーブルは、少なくとも4種類の判定用画素の種類毎の画素データの平均値の合計の平均値又は少なくとも4種類の判定用画素の種類毎の画素データの平均値の中央値を基準とした、少なくとも4種類の判定用画素の種類毎の画素データの比率を示すデータパターンと、撮像素子に対する異常斜め入射光の入射に関する情報とを対応づける。
 本態様によれば、判定用画素の種類毎の画素データの比率から簡便且つ正確に異常斜め入射光の入射に関する情報を取得することができ、異常斜め入射光の検出に必要なメモリや回路を簡易なものとすることが可能である。
 望ましくは、判別テーブルは、少なくとも4種類の判定用画素の種類毎の画素データの平均値の大きさに基づく順位と、撮像素子に対する異常斜め入射光の入射に関する情報とを対応づけており、異常斜め入射光検出手段は、エリア内における少なくとも4種類の判定用画素の種類毎の画素データの平均値に基づいて少なくとも4種類の判定用画素に順位を割り当て、判別テーブルを参照して撮像素子に入射する異常斜め入射光を検出する。
 本態様によれば、判定用画素の種類毎の画素データの平均値の大きさに基づく順位から、簡便且つ正確に異常斜め入射光の入射に関する情報を取得することができ、異常斜め入射光の検出に必要なメモリや回路を簡易なものとすることが可能である。
 望ましくは、複数の画素は、少なくとも、第1色種のカラーフィルタを有する画素と、第2色種のカラーフィルタを有する画素と、第3色種のカラーフィルタを有する画素とを含み、異常斜め入射光検出手段は、第1色種のカラーフィルタ、第2色種のカラーフィルタ及び第3色種のカラーフィルタのうち、検知した異常斜め入射光の色種類に対応する色種のカラーフィルタを第1色のカラーフィルタとして、少なくとも4種類の判定用画素を定める。
 本態様によれば、第1色種のカラーフィルタを有する画素、第2色種のカラーフィルタを有する画素及び第3色種のカラーフィルタを有する画素の中から判定用画素を適切に定めることができる。例えば撮像素子の構成画素がRGB(赤、緑、青)のカラーフィルタを有する場合、赤色異常斜め入射光、緑色異常斜め入射光及び青色異常斜め入射光のうち少なくともいずれかを検出することができる。
 望ましくは、異常斜め入射光検出手段は、撮像素子のエリア内において、第1色種のカラーフィルタを有する画素の画素データの平均値のX倍の値(0<X≦1)、第2色種のカラーフィルタを有する画素の画素データの平均値のY倍の値(0<Y≦1)及び第3色種のカラーフィルタを有する画素の画素データの平均値のZ倍の値(0<Z≦1)のうち、最も大きな値を示す色種のカラーフィルタに対応する色種類の異常斜め入射光が撮像素子に入射すると判定する。
 本態様によれば、X、Y、Zを適宜設定することによって、所望の色種類の異常斜め入射光を優先的に検出することが可能である。
 望ましくは、異常斜め入射光検出手段の検出結果に基づいて、異常斜め入射光が検出されたフォトダイオードを有する画素の画素データを補正する補正手段を更に備える。
 本態様によれば、異常斜め入射光が検出されたフォトダイオードを有する画素の画素データを補正することができ、異常斜め入射光による混色の影響を効果的に取り除くことが可能である。例えば、異常斜め入射光が弱く入射(弱入射)した領域が存在するが、実際に使用されるデバイスの能力等のために、そのような異常斜め入射光が弱入射する領域を検出できない場合(撮影画像上では異常斜め入射光の影響が多少残存する場合)も、本態様の適用範囲に含まれうる。
 補正手段による補正方法は特に限定されず、異常斜め入射光による混色の影響を低減・除去するのに有効な任意の補正手法を採用することが可能である。例えば、異常斜め入射光による混色量を対応の画素データから取り除く補正手法を採用したり、異常斜め入射光によって生じた近接する同色画素間の画素データの相違(画素データ段差)を解消する補正手法を採用したりすることが可能である。
 望ましくは、エリアは、撮像素子の複数の画素のすべてを含む領域である。
 本態様によれば、撮像素子の構成画素のすべてを含む領域が単一の「エリア」として設定される。したがって、判定用画素の種類毎の画素データの平均値を算出する場合に、多数の画素データから画素データ平均値を算出することができるため、異常斜め入射光の検出精度が向上する。
 望ましくは、エリアは、撮像素子を複数の領域に分割した複数の分割領域の各々である。
 本態様によれば、複数の分割領域のうちの個々の領域が「エリア」として設定されるため、限定された領域において異常斜め入射光の検出を行うことができ、異常斜め入射光の影響を受ける画素領域を詳細に特定することができる。
 望ましくは、複数の分割領域は、撮像素子の複数の画素のすべてを含む。
 本態様によれば、撮像素子の構成画素のすべてが分割領域に分配されるため、撮像素子のすべての構成画素に対して異常斜め入射光の検出を精度良く行うことが可能である。
 望ましくは、撮像素子には、複数の第1の分割領域が設定されると共に、第1の分割領域とは異なる分割方式を有する複数の第2の分割領域が設定され、複数の第1の分割領域と複数の第2の分割領域とは、少なくとも部分的に、オーバーラップし、複数の画素は、第1の分割領域のいずれかに分類されると共に第2の分割領域のいずれかに分類される画素を含み、異常斜め入射光検出手段は、第1の分割領域の各々における判定用画素の種類毎の画素データの平均値に基づいて第1の分割領域の各々に入射する異常斜め入射光を検出し、第2の分割領域の各々における判定用画素の種類毎の画素データの平均値に基づいて第2の分割領域の各々に入射する異常斜め入射光を検出し、第1の分割領域の各々に入射する異常斜め入射光の検出結果及び第2の分割領域の各々に入射する異常斜め入射光の検出結果に基づいて、第1の分割領域の各々と第2の分割領域の各々とが重なる領域に入射する異常斜め入射光を検出する。
 本態様によれば、第1の分割領域と第2の分割領域とのオーバーラップ領域において、異常斜め入射光を精度良く検出することができ、異常斜め入射光によるゴースト等の混色が発生しているエリアをより正確に特定することができる。
 望ましくは、第2の分割領域の各々は、2以上の第1の分割領域と重なる。
 本態様によれば、第1の分割領域と第2の分割領域とのオーバーラップ領域は第1の分割領域及び第2の分割領域の個々の領域よりも限定されるため、より具体的なエリアにおいて異常斜め入射光を検出することができる。
 望ましくは、第1の分割領域の各々と第2の分割領域の各々とは、同じ形状及びサイズを有し、第1の方向及び第2の方向のうち少なくとも一方に関し、第1の分割領域の大きさの半分ずれるように、第1の分割領域と第2の分割領域とが設定される。
 本態様によれば、第1の分割領域と第2の分割領域とのオーバーラップ領域を規則的に配置することができ、広範囲にわたって、異常斜め入射光の影響を受ける画素領域を詳細に特定することができる。
 望ましくは、複数の画素は、所定のカラーフィルタ配列パターンを持つ複数の基本配列画素群であって、第1の方向及び第2の方向に並置される複数の基本配列画素群を含み、複数の基本配列画素群の各々は、少なくとも4種類の判定用画素のセットを少なくとも1組以上含む。
 本態様によれば、判定用画素が周期的に配置され、判定用画素の種類毎の画素データの平均値を精度良く算出することができる。特に、各基本配列画素群が判定用画素のセットを複数含む場合には、それらの判定用画素の複数セットを組み合わせることで、異常斜め入射光の検出精度を高めることが可能である。
 望ましくは、少なくとも4種類の判定用画素は、第1の判定用画素、第2の判定用画素、第3の判定用画素及び第4の判定用画素によって構成され、第1の判定用画素は、第1色の画素が第1の方向の正方向に隣接し、第1色のカラーフィルタ以外のカラーフィルタを有する画素が第1の方向の負方向、第2の方向の正方向、及び第2の方向の負方向に隣接し、第2の判定用画素は、第1色の画素が第1の方向の負方向に隣接し、第1色のカラーフィルタ以外のカラーフィルタを有する画素が第1の方向の正方向、第2の方向の正方向、及び第2の方向の負方向に隣接し、第3の判定用画素は、第1色の画素が第2の方向の正方向に隣接し、第1色のカラーフィルタ以外のカラーフィルタを有する画素が第1の方向の正方向、第1の方向の負方向、及び第2の方向の負方向に隣接し、第4の判定用画素は、第1色の画素が第2の方向の負方向に隣接し、第1色のカラーフィルタ以外のカラーフィルタを有する画素が第1の方向の正方向、第1の方向の負方向、及び第2の方向の正方向に隣接する。
 本態様の判定用画素によれば、画素データに基づいて、異常斜め入射光を検出することができる。
 望ましくは、少なくとも4種類の判定用画素は、第1の判定用画素、第2の判定用画素、第3の判定用画素及び第4の判定用画素によって構成され、第1の判定用画素は、第1色の画素が第1の方向の正方向及び第2の方向の正方向に隣接し、第1色のカラーフィルタ以外のカラーフィルタを有する画素が第1の方向の負方向及び第2の方向の負方向に隣接し、第2の判定用画素は、第1色の画素が第1の方向の負方向及び第2の方向の正方向に隣接し、第1色のカラーフィルタ以外のカラーフィルタを有する画素が第1の方向の正方向及び第2の方向の負方向に隣接し、第3の判定用画素は、第1色の画素が第1の方向の正方向及び第2の方向の負方向に隣接し、第1色のカラーフィルタ以外のカラーフィルタを有する画素が第1の方向の負方向及び第2の方向の正方向に隣接し、第4の判定用画素は、第1色の画素が第1の方向の負方向及び第2の方向の負方向に隣接し、第1色のカラーフィルタ以外のカラーフィルタを有する画素が第1の方向の正方向及び第2の方向の正方向に隣接する。
 本態様の判定用画素によれば、画素データに基づいて、異常斜め入射光を検出することができる。
 望ましくは、第1色のカラーフィルタは、赤色フィルタ、透明フィルタ及び白色フィルタのうちのいずれかである。
 本態様によれば、混色現象を引き起こしやすい長波長成分を含む異常斜め入射光を検出することができる。
 望ましくは、基本配列画素群の各々は、第1の方向及び第2の方向に関して3画素×3画素の画素配列を有する2組の第1のサブ配列画素群及び2組の第2のサブ配列画素群を含み、第1のサブ配列画素群は第1の方向及び第2の方向に関して第2のサブ配列画素群と隣接し、第2のサブ配列画素群は第1の方向及び第2の方向に関して第1のサブ配列画素群と隣接し、第1のサブ配列画素群は、中央及び四隅に配置される第2色のカラーフィルタを有する第2色の画素と、中央の画素に対して第1の方向の正方向及び負方向に隣接する位置に配置される第1色の画素と、中央の画素に対して第2の方向の正方向及び負方向に隣接する位置に配置される第3色のカラーフィルタを有する第3色の画素と、を含み、第2のサブ配列画素群は、中央及び四隅に配置される第2色の画素と、中央の画素に対して第2の方向の正方向及び負方向に隣接する位置に配置される第1色の画素と、中央の画素に対して第1の方向の正方向及び負方向に隣接する位置に配置される第3色の画素と、を含み、第1のサブ配列画素群の四隅に配置される画素のうち一方の対角方向に配置される二画素と、第2のサブ配列画素群の四隅に配置される画素のうち他方の対角方向に配置される二画素とによって判定用画素が構成される。
 本態様の複雑なカラーフィルタ配列を撮像素子が有する場合であっても、判定用画素の画素データに基づいて異常斜め入射光を検出することができる。
 本発明の他の態様は、第1の方向及び第1の方向に垂直な第2の方向に配列される複数の画素を有する撮像素子において、複数の画素の各々がカラーフィルタと、カラーフィルタを透過した光を受光して画素データを出力するフォトダイオードとを有する撮像素子に入射する異常斜め入射光を検出する異常斜め入射光検出手段を備える画像処理装置であって、複数の画素は、第1の方向の正方向及び負方向に隣接する画素及び第2の方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なる少なくとも4種類の判定用画素を含み、判定用画素の各々に対して第1の方向の正方向及び負方向に隣接する画素及び第2の方向の正方向及び負方向に隣接する画素のうち少なくとも1つは、第1色のカラーフィルタを有する第1色の画素であり、判定用画素の各々に対して第1の方向の正方向及び負方向に隣接する画素及び第2の方向の正方向及び負方向に隣接する画素のうち、判定用画素を挟んで第1色の画素と対向する位置に配置される画素は、第1色のカラーフィルタ以外のカラーフィルタを有する画素であり、異常斜め入射光検出手段は、撮像素子内のエリアであって、各種類の判定用画素を複数含むエリア内における判定用画素の種類毎の画素データの平均値に基づいて、撮像素子に入射する異常斜め入射光を検出する画像処理装置に関する。
 本発明の他の態様は、第1の方向及び第1の方向に垂直な第2の方向に配列される複数の画素を有する撮像素子において、複数の画素の各々がカラーフィルタと、カラーフィルタを透過した光を受光して画素データを出力するフォトダイオードとを有する撮像素子に入射する異常斜め入射光を検出するステップを備える画像処理方法であって、複数の画素は、第1の方向の正方向及び負方向に隣接する画素及び第2の方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なる少なくとも4種類の判定用画素を含み、判定用画素の各々に対して第1の方向の正方向及び負方向に隣接する画素及び第2の方向の正方向及び負方向に隣接する画素のうち少なくとも1つは、第1色のカラーフィルタを有する第1色の画素であり、判定用画素の各々に対して第1の方向の正方向及び負方向に隣接する画素及び第2の方向の正方向及び負方向に隣接する画素のうち、判定用画素を挟んで第1色の画素と対向する位置に配置される画素は、第1色のカラーフィルタ以外のカラーフィルタを有する画素であり、異常斜め入射光を検出するステップでは、撮像素子内のエリアであって、各種類の判定用画素を複数含むエリア内における判定用画素の種類毎の画素データの平均値に基づいて、撮像素子に入射する異常斜め入射光を検出する画像処理方法に関する。
 本発明の他の態様は、第1の方向及び第1の方向に垂直な第2の方向に配列される複数の画素を有する撮像素子において、複数の画素の各々がカラーフィルタと、カラーフィルタを透過した光を受光して画素データを出力するフォトダイオードとを有する撮像素子に入射する異常斜め入射光を検出する手順をコンピュータに実行させるためのプログラムであって、複数の画素は、第1の方向の正方向及び負方向に隣接する画素及び第2の方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なる少なくとも4種類の判定用画素を含み、判定用画素の各々に対して第1の方向の正方向及び負方向に隣接する画素及び第2の方向の正方向及び負方向に隣接する画素のうち少なくとも1つは、第1色のカラーフィルタを有する第1色の画素であり、判定用画素の各々に対して第1の方向の正方向及び負方向に隣接する画素及び第2の方向の正方向及び負方向に隣接する画素のうち、判定用画素を挟んで第1色の画素と対向する位置に配置される画素は、第1色のカラーフィルタ以外のカラーフィルタを有する画素であり、撮像素子内のエリアであって、各種類の判定用画素を複数含むエリア内における判定用画素の種類毎の画素データの平均値に基づいて、撮像素子に入射する異常斜め入射光を検出する手順をコンピュータに実行させるためのプログラムに関する。
 本発明によれば、撮像素子のエリア内における判定用画素の種類毎の画素データの平均値に基づいて、撮像素子に入射する異常斜め入射光を簡便に検出することができる。
デジタルカメラの一構成例を示すブロック図である。 撮像素子のカラーフィルタ(画素)の一例を示す平面図であり、図2(a)は基本配列パターンを計4つ並べた状態を示し、図2(b)は基本配列パターンの拡大図である。 画像処理回路の機能ブロック図である。 異常斜め入射光に起因する混色現象のメカニズムを説明する模式の断面図であり、図4(a)はG画素、R画素及びG画素の隣接配置例を示し、図4(b)はG画素、B画素及びG画素の隣接配置例を示す。 図2の撮像素子に異常斜め入射光が入射した場合に、基本配列パターンに含まれるG画素から出力される画素データの一例を示すグラフである。 混色判定補正部における異常斜め入射光の検出に係る機能構成を示すブロック図である。 異常斜め入射光の検出及び混色補正に係るフローチャートの一例を示す。 異常斜め入射光の検出手法の基本原理の一例を説明する図であり、図8(a)~図8(d)はG画素及びR画素の各種配置パターンを示す。 図8に示される各種配置パターンを持つG画素(判定用画素)の画素データ出力と赤色異常斜め入射光との関係を示す表である。 図10(a)~(d)は、水平方向の正方向側から負方向側に赤色異常斜め入射光が入射する場合における、判定用画素に対する赤色異常斜め入射光の影響の大きさを示す図である。 異常斜め入射光の検出手法の基本原理の他の例を説明する図であり、図11(a)~図11(d)はG画素及びR画素の各種の配置パターンを示す。 図11に示される各種配置パターンを持つG画素(判定用画素)の画素データ出力と赤色異常斜め入射光との関係を示す表である。 G画素及びR画素の配置パターンが強調表示された図2の基本配列パターンの平面図を示す。 撮像素子のエリア分割例を示す模式図である。 判定用画素の画素データを用いた赤色異常斜め入射光の有無、入射方向及び強度の検出手法の一例を示す図である。 判定用画素の画素データを用いた赤色異常斜め入射光の有無、入射方向及び強度の検出手法の他の例を示す図である。 判定用画素の画素データを用いた赤色異常斜め入射光の有無、入射方向及び強度の検出手法の他の例を示す図である。 異常斜め入射光検出部の機能構成の一例を示すブロック図である。 異常斜め入射光の色種類判定の一例を示すフローチャートである。 図2の撮像素子に対する異常斜め入射光の検出に使用される判別テーブルの一例を示す図である。 異常斜め入射光の色種類判定の他の例を示すフローチャートである。 図22(a)~図22(d)は青色異常斜め入射光の検出に使用される判定用画素の一例を示す図であり、図22(e)~図22(h)は緑色異常斜め入射光の検出に使用される判定用画素の一例を示す図である。 撮像素子の構成画素を、分割エリアA及び分割エリアBに重畳的に分割する例を示す図であり、図23(a)は分割エリアA及び分割エリアBの適用状態を示す撮像素子の平面図であり、図23(b)は分割エリアAのエリア分割例を示し、図23(c)は分割エリアBのエリア分割例を示す。 図23(a)に示された「C」部分(エリアB11)の拡大図である。 他のカラーフィルタ配列例を示す撮像素子の平面図である。 他のカラーフィルタ配列例を示す撮像素子の平面図である。 図27(a)~(d)は、他のカラーフィルタ配列例を示す撮像素子の平面図である。 図28(a)~(d)は、他のカラーフィルタ配列例を示す撮像素子の平面図である。 スマートフォンの外観図である。 スマートフォンの構成を示すブロック図である。
 図面を参照して、本発明の実施形態について説明する。
 図1は、デジタルカメラ10の一構成例を示すブロック図である。本例では、図1に示される構成のうち、レンズユニット14及びレンズドライバ26以外の各部がカメラ本体12に設けられる例について説明するが、必要に応じて各部をレンズユニット14に設けることも可能である。
 デジタルカメラ(撮像装置)10は、カメラ本体12と、カメラ本体12の前面に交換可能に取り付けられたレンズユニット14とを備える。
 レンズユニット14は撮影光学系20を備え、この撮影光学系20は、ズームレンズ21、フォーカスレンズ22、メカシャッタ23などを含む。ズームレンズ21及びフォーカスレンズ22は、それぞれズーム機構24及びフォーカス機構25によって駆動され、撮影光学系20の光軸O1に沿って移動する。ズーム機構24及びフォーカス機構25は、ギアやモータなどで構成される。
 メカシャッタ23は、撮像素子27への被写体光の入射を阻止する閉鎖位置と、被写体光の入射を許容する開放位置との間で移動する可動部(図示省略)を有する。可動部を開放位置/閉鎖位置に移動させることによって、撮影光学系20から撮像素子27へと至る光路が開放/遮断される。また、メカシャッタ23には、撮像素子27に入射する被写体光の光量をコントロールする絞りが含まれる。メカシャッタ23、ズーム機構24及びフォーカス機構25は、レンズドライバ26を介してCPU30により駆動制御される。
 カメラ本体12に設けられるCPU30は、操作部36からの制御信号に基づき、メモリ37から読み出した各種プログラムやデータを逐次実行し、デジタルカメラ10の各部を統括的に制御する。メモリ37のRAM領域は、CPU30が処理を実行するためのワークメモリや、各種データの一時保管先として機能する。
 操作部36は、ユーザによって操作されるボタン、キー、タッチパネル及びこれらに類するものを含む。例えば、カメラ本体12に設けられユーザによって操作される電源スイッチ、シャッタボタン、フォーカスモード切替レバー、フォーカスリング、モード切替ボタン、十字選択キー、実行キー、バックボタン等が、操作部36に含まれうる。
 撮像素子27は、撮影光学系20及びメカシャッタ23を通過した被写体光を、電気的な出力信号に変換して出力する。この撮像素子27は、多数の画素が水平方向(第1の方向)及びこの水平方向に垂直な垂直方向(第2の方向)に並置された単板方式の画素配列を有し、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の任意の方式を採用可能である。以下では、撮像素子27を構成する複数の画素がCMOSによって構成される例について説明する。
 撮像素子27を構成する各画素は、詳細については後述するが、集光率を向上させるマイクロレンズと、RGBのカラーフィルタと、マイクロレンズ及びカラーフィルタを透過した光を受光して画素データを出力するフォトダイオード(光電変換素子)とを有する。
 撮像素子ドライバ31は、CPU30の制御下で撮像素子27を駆動制御し、撮像素子27の画素から画像処理回路(画像処理装置)32に撮像信号(画像データ)を出力させる。
 画像処理回路32は、受信した撮像信号(画像データ)に対して階調変換、ホワイトバランス補正、γ補正処理などの各種画像処理を施して撮影画像データを生成する。画像処理回路32は、詳細については後述するが、ゴースト光等の異常斜め入射光を検出して補正処理を行う混色判定補正部を有する。
 圧縮伸長処理回路34は、シャッタボタンがユーザによって押し下げ操作された場合に、メモリ37のVRAM領域に格納された撮影画像データに対し、圧縮処理を施す。なお、RAWデータ取得モードでは、圧縮伸長処理回路34による圧縮処理が行われなくてもよい。また圧縮伸長処理回路34は、メディアインターフェース33を介してメモリカード38から得られる圧縮画像データに対し、圧縮伸長処理を施す。メディアインターフェース33は、メモリカード38に対する撮影画像データの記録及び読み出しなどを行う。
 表示制御部35は、撮影モード時に、EVF(エレクトリックビューファインダ)39及び背面LCD(背面液晶)40のうち少なくとも一方に対し、画像処理回路32により生成されたスルー画像(ライブビュー画像)を表示させる制御を行う。また表示制御部35は、画像再生モード時に、圧縮伸長処理回路34で伸長された撮影画像データを背面LCD40(及び/又はEVF39)へ出力する。
 デジタルカメラ10(カメラ本体12)には、上記以外の他の処理回路等が設けられていてもよく、例えばオートフォーカス用のAF検出回路や自動露光調節用のAE検出回路が設けられる。CPU30は、AF検出回路の検出結果に基づきレンズドライバ26及びフォーカス機構25を介してフォーカスレンズ22を駆動することでAF処理を実行し、またAE検出回路の検出結果に基づきレンズドライバ26を介してメカシャッタ23を駆動することでAE処理を実行する。
 <カラーフィルタ配列>
 図2は、撮像素子27のカラーフィルタ(画素)の一例を示す平面図であり、(a)は所定のカラーフィルタ配列パターンを持つ基本配列パターン(基本配列画素群)Pを水平方向及び垂直方向に計4つ並べた状態を示し、(b)は1つの基本配列パターンPの拡大図である。図2において、「R」はレッド(赤)のフィルタ(第1色種のカラーフィルタ;R画素)を示し、「G」(G1~G20を含む)はグリーン(緑)のフィルタ(第2色種のカラーフィルタ;G画素)を示し、「B」はブルー(青)のフィルタ(第3色種のカラーフィルタ;B画素)を示す。
 本例の撮像素子27のカラーフィルタは、M×N(6×6)画素に対応する正方配列パターンからなる基本配列パターンPを有し、この基本配列パターンPが水平方向及び垂直方向に繰り返し複数並置されて撮像素子27の複数画素が構成される。したがって、撮像素子27から読み出されるRGBのモザイク画像データ(RAWデータ)の画像処理を行う際には、基本配列パターンPを基準とした繰り返しパターンに従って処理を行うことができる。
 各基本配列パターンPは、図2(b)に示す3画素(水平方向)×3画素(垂直方向)の画素配列を有する第1のサブ配列(第1のサブ配列画素群)と、3画素(水平方向)×3画素(垂直方向)の画素配列を有する第2のサブ配列(第2のサブ配列画素群)とが、水平方向及び垂直方向に交互に並べられて、構成されている。したがって、第1のサブ配列は水平方向及び垂直方向に関して第2のサブ配列と隣接し、第2のサブ配列は水平方向及び垂直方向に関して第1のサブ配列と隣接する。
 第1のサブ配列は、中央及び四隅に配置されるG画素と、中央のG画素に対して水平方向の正方向及び負方向(図2において右左方向)に隣接する位置に配置されるR画素と、中央のG画素に対して垂直方向の正方向及び負方向(図2において上下方向)に隣接する位置に配置されるB画素と、を含む。一方、第2のサブ配列は、中央及び四隅に配置されるG画素と、中央のG画素に対して垂直方向の正方向及び負方向(図2において上下方向)に隣接する位置に配置されるR画素と、中央のG画素に対して水平方向の正方向及び負方向(図2において右左方向)に隣接する位置に配置されるB画素と、を含む。したがって、第1のサブ配列と第2のサブ配列との間で、RフィルタとBフィルタとの位置関係が逆転しているが、Gフィルタの配置は同様になっている。
 第1のサブ配列と第2のサブ配列の四隅のGフィルタは、第1のサブ配列と第2のサブ配列とが水平方向及び垂直方向に交互に配置されることにより、2画素(水平方向)×2画素(垂直方向)に対応する正方配列のGフィルタ郡を構成する。すなわち、第1のサブ配列の四隅に配置される画素のうち一方の対角方向に配置される二画素と、第2のサブ配列の四隅に配置される画素のうち他方の対角方向に配置される二画素とによって正方配列のG画素郡が構成される。なお、この正方配列のG画素群に含まれるG画素を、後述の「異常斜め入射光を検出するための判定用画素」として使用することができる。
 このカラーフィルタ配列では、一般に輝度信号を得るために最も寄与する色(本例ではG色)に対応するGフィルタが、カラーフィルタ配列の水平、垂直、斜め右上、及び斜め左上方向の各ライン内に1以上配置される。このカラーフィルタ配列によれば、輝度系画素に対応するGフィルタが、カラーフィルタ配列の水平、垂直、及び斜め方向の各ライン内に配置されるため、高周波となる方向によらず高周波領域でのデモザイク処理の再現精度が向上する。
 なお、例えば単位カラーフィルタ(単位画素)が正方形である場合、斜め右上及び斜め右下方向は水平方向及び垂直方向に対して45°を成す方向となる。また、単位カラーフィルタが長方形である場合、斜め右上及び斜め右下方向はこの長方形の対角線の方向となり、長方形の長辺及び短辺の長さに応じて、水平方向及び垂直方向に対する斜め右上及び斜め右下方向の角度は変わりうる。
 図2に示すカラーフィルタ配列は、上記G色以外の2色以上の他の色(本例ではR及びB)に対応するRフィルタ及びBフィルタが、それぞれ基本配列パターンPの水平方向及び垂直方向の各ライン内に1つ以上配置される。このように、Rフィルタ及びBフィルタがカラーフィルタ配列の水平方向及び垂直方向の各ライン内に配置されることで、偽色(色モワレ)の発生を低減することができ、偽色の発生を抑制するための光学ローパスフィルタを省略することができる。なお、光学ローパスフィルタを配置する場合でも、本例のカラーフィルタ配列を採用するときは、偽色の発生を防止するための高周波数成分をカットする働きの弱いものを用いて、解像度の損失を防いでもよい。
 また、各基本配列パターンPにおいて、Rフィルタ、Gフィルタ及びBフィルタに対応するR画素、G画素及びB画素の画素数が、それぞれ8画素、20画素(図2(b)の「G1」~「G20」参照)及び8画素になっている。すなわち、R画素、G画素及びB画素の画素数の比率は2:5:2になっており、輝度信号を得るために最も寄与するG画素の画素数の比率がR画素及びB画素の画素数の比率よりも高い。このように、G画素の画素数とR画素及びB画素の画素数との比率が異なり、特に輝度信号を得るために最も寄与するG画素の画素数の比率を、R画素及びB画素の画素数の比率よりも大きくすることで、同時化処理(デモザイク処理)におけるエイリアシングを抑制することができ、高周波再現性も改善することができる。
 以下、図2に示すカラーフィルタ配列(画素配列)を「X-Trans(登録商標)」とも呼ぶ。
 <画像処理>
 図3は、画像処理回路32(図1参照)の機能ブロック図である。
 画像処理回路32は、混色判定補正部41、ホワイトバランス補正部(WB補正部)42、ガンマ補正、デモザイク処理、RGB/YC変換等の信号処理を行う信号処理部43、RGB積算部44、及びホワイトバランスゲイン算出部(WBゲイン算出部)45を含む。
 画像処理回路32にはモザイク画像データ(RAWデータ:RGBの色信号)が入力される。画像処理回路32には撮像素子27から直接的にモザイク画像データが入力されてもよい。また、撮像素子27から出力されたモザイク画像データをメモリ(図1のメモリ37等)に一旦格納し、このメモリから画像処理回路32にモザイク画像データが入力されてもよい。
 画像処理回路32に入力されたモザイク画像データは、混色判定補正部41に入力される。混色判定補正部41は、入力されたモザイク画像データに基づいて異常斜め入射光の検出を行い、異常斜め入射光によってもたらされる混色現象の影響(画素データ段差)を軽減・解消する画素データ補正を行う。
 混色判定補正部41によって画素データ補正が行われたモザイク画像の各画素の色信号は、WB補正部42及びRGB積算部44に入力される。
 RGB積算部44は、1画面を8×8や16×16等に分割した分割領域毎に、RGBの色信号毎の積算平均値を算出し、RGB毎の積算平均値の比(R/G、B/G)からなる色情報を算出する。例えば、1画面を8×8の64の分割領域に分割する場合、RGB積算部44は64個の色情報(R/G、B/G)を算出する。
 WBゲイン算出部45は、RGB積算部44から入力される分割領域毎の色情報(R/G、B/G)に基づいてWBゲインを算出する。具体的には、WBゲイン算出部45は、64個の分割領域の各々に関する色情報の、R/G、B/G軸座標の色空間上の分布の重心位置を算出し、その重心位置が示す色情報から環境光の色温度を推定する。なお、色温度の替わりに、その重心位置が示す色情報を有する光源種、例えば、青空、日陰、晴れ、蛍光灯(昼光色、昼白色、白色、温白色)、タングステン、低タングステン等を求めることで撮影時の光源種を推定してもよいし(特開2007-53499参照)、また、推定した光源種から色温度を推定してもよい。
 WBゲイン算出部45には、予め環境光の色温度又は光源種に対応して、適正なホワイトバランス補正を行うためのRGB毎又はRB毎のWBゲインが用意(記憶保持)されている。WBゲイン算出部45は、推定した環境光の色温度又は光源種に基づいて対応するRGB毎又はRB毎のWBゲインを読み出し、この読み出したWBゲインをWB補正部42に出力する。
 WB補正部42は、混色判定補正部41から入力されるR、G、Bの色信号の各々に対して、WBゲイン算出部45から入力される色毎のWBゲインを掛け合わせることにより、ホワイトバランス補正を行う。
 WB補正部42から出力されたR、G、Bの色信号は、信号処理部43に入力される。信号処理部43は、ガンマ補正、撮像素子27のカラーフィルタ配列に伴うR、G、Bの色信号の空間的なズレを補間してR、G、Bの色信号を同時式に変換する同時化処理(デモザイク処理)、及び、デモザイク処理されたR、G、Bの色信号を輝度信号Y及び色差信号Cr、Cbに変換するRGB/YC変換等の信号処理を行い、信号処理された輝度信号Y及び色差信号Cr、Cbを出力する。なお、RAWデータ出力モードがユーザによって選択されている場合には、上述のデモザイク処理及びRGB/YC変換処理をスキップして、画像処理回路32からRAWデータ(モザイク画像データ)が出力されるようにしてもよい。
 画像処理回路32から出力される輝度データY及び色差データCr、Cbは、圧縮処理された後、内部メモリ(メモリ37)や外部メモリ(メモリカード38)に記録される。
 <異常斜め入射光に起因する混色現象>
 図4は、異常斜め入射光(ゴースト光等)に起因する混色現象のメカニズムを説明する模式の断面図であり、(a)はG画素、R画素及びG画素の隣接配置例を示し、(b)はG画素、B画素及びG画素の隣接配置例を示す。
 本例の撮像素子27を構成する複数の画素50は、緑色のカラーフィルタによって構成されるG(緑)画素50Gと、赤のカラーフィルタによって構成されるR(赤)画素50Rと、青のカラーフィルタによって構成されるB(青)画素(第3色の画素)50Bとを含む。G画素50Gは、輝度信号を得るための寄与率がR画素50R及びB画素50Bよりも高く、例えば以下の式によって輝度データ(輝度信号)Yを得ることが可能である。
Y(輝度データ)=(0.3×R画素データ+0.6×G画素データ+0.1×B画素データ)
 G画素50G、R画素50R及びB画素50Bの各々は、被写体光の進行方向に関して順次設けられたマイクロレンズ51、カラーフィルタ52及びフォトダイオード53を含み、フォトダイオード53の受光量に応じた画素データを出力する。被写体光を構成する通常光56は、マイクロレンズ51によって集光され、カラーフィルタ52を通過してフォトダイオード53に入射する。通常光56が通過するカラーフィルタ52と、この通常光56が受光されるフォトダイオード53とは概ね対応する。
 一方、異常斜め入射光57は通常光56とは異なる角度で各画素に進入し、ある画素のカラーフィルタ52を通過した異常斜め入射光57は、隣接画素のフォトダイオード53によって受光される。このように、異常斜め入射光57が通過するカラーフィルタ52と、この異常斜め入射光57が受光されるフォトダイオード53とが完全には対応せず、異常斜め入射光57を受光するフォトダイオード53は、通常光56だけではなく異常斜め入射光57の受光量に応じた画素データを出力する。したがって、異常斜め入射光57を受光したフォトダイオード53からの出力画素データは、異常斜め入射光57を受光しないフォトダイオード53からの出力画素データよりも増大するため、同色画素間で画素データに段差が生じる。
 図5は、図2の撮像素子27に異常斜め入射光が入射した場合に、基本配列パターンPに含まれるG画素(G1~G20)から出力される画素データの一例を示すグラフである。基本配列パターンP内に含まれるG画素は、非常に近接して配置されるため、本来であれば同値又は近似値の画素データを出力することが多いが、異常斜め入射光が入射する場合には、同色画素間(図5に示すG1~G20間)で出力画素データに差(画素データ段差)が生じる。
 これは、同色画素であっても、隣接画素の色種類によって、異常斜め入射光の受光量が異なることに起因する。すなわち、隣接画素を構成するカラーフィルタが異常斜め入射光を透過するほど異常斜め入射光の受光量は増えるため、同色画素であっても、隣接画素の種類(パターン)によって出力画素データに差が生じる。したがって、異常斜め入射光の入射の有無及び入射方向を的確に特定し、異常斜め入射光による混色の影響を受けている画素を適切に特定することで、適正な混色補正及び正確な画素データの取得が可能となる。
 図6は、図3の混色判定補正部41における異常斜め入射光の検出に係る機能構成を示すブロック図である。
 混色判定補正部41は、異常斜め入射光を検出する異常斜め入射光検出部(異常斜め入射光検出手段)61と、入射光検出部61の検出結果に基づいてモザイク画像データを補正する異常斜め入射光補正部(補正手段)63とを有する。異常斜め入射光検出部61には、異常斜め入射光の検出に使用する各種データが記憶保存される記憶部(記憶手段)65が設けられている。
 異常斜め入射光検出部61は、混色判定補正部41に入力されるモザイク画像データ(RAWデータ)に基づいて、撮像素子27に入射する異常斜め入射光を検出する。本例の異常斜め入射光検出部61は、モザイク画像データに基づいて後述の判定用画素の画素データ(出力値)を解析し、異常斜め入射光の入射の有無、入射方向及び強度を検出する。
 異常斜め入射光補正部63は、異常斜め入射光検出部61の検出結果に基づいて、異常斜め入射光が検出されたエリア内のフォトダイオード53を有する画素50の画素データを補正する。すなわち、異常斜め入射光補正部63は、異常斜め入射光検出部61によって検出判定された異常斜め入射光の入射方向に基づいて、撮像素子27の複数画素50のうち異常斜め入射光57が検出されたフォトダイオード53を有する画素50を判別し、その判別した画素50の画素データを修正する。なお、異常斜め入射光検出部61によって異常斜め入射光が検出されなかった場合には、異常斜め入射光補正部63における補正処理はスキップされる。
 異常斜め入射光補正部63における画素データの具体的な修正手法は特に限定されず、任意の手法によって、異常斜め入射光57が入射する画素(補正対象画素)の画素データを補正することが可能である。例えば、補正対象画素及びその周辺画素(例えば、補正対象画素を含む基本配列パターンPの大きさ範囲に含まれる画素)であって、補正対象画素と同色の画素の画素データから導出される代表値に、補正対象画素の画素データを置換等することで画素データ補正を行うことが可能である。代表値は、補正対象画素及び周辺画素の画素データの平均値又は加重平均値であってもよいし、補正対象画素及び周辺画素の画素データの中央値又は最頻値であってもよい。あるいは、代表値は、補正対象画素と同色の画素であって、基本配列パターンP内で異常斜め入射光の影響が最も小さい画素の画素データとしてもよい。
 また、異常斜め入射光補正部63は、所定のフィルタを補正対象画素に適用することで、異常斜め入射光57が入射する画素(補正対象画素)の画素データを補正することも可能である。入射光補正部63で使用可能な所定のフィルタは特に限定されず、例えば、補正対象画素及びその周辺の同色画素の画素データの段差を抑制するフィルタ(メディアンフィルタ等)が採用される。
 図7は、異常斜め入射光の検出及び混色補正に係るフローチャートの一例を示す。
 図7に示される画像処理方法では、まず、撮像素子27のエリア内における異常斜め入射光の有無、入射方向及び強度が検出される(図7のS1:異常斜め入射光検出ステップ)。異常斜め入射光の入射が検出された場合(S2のY)、検出判定された異常斜め入射光の入射方向に基づいて、このエリア内の複数画素のうち異常斜め入射光が検出されたフォトダイオード53を有する画素50が判別され、その判別された画素50の画素データが補正される(S3)。一方、異常斜め入射光が検出されなかった場合(S2のN)、異常斜め入射光補正部63における補正処理はスキップされる。
 異常斜め入射光検出部61及び異常斜め入射光補正部63における異常斜め入射光の具体的な検出手法及び混色補正手法は、撮像素子27の各色の画素配列(カラーフィルタ配列)に応じて決まる。以下、撮像素子27におけるカラーフィルタの配列例と関連づけて、異常斜め入射光の検出の具体的手法について説明する。
 <異常斜め入射光の検出>
 図8は、異常斜め入射光の検出手法の基本原理の一例を説明する図であり、(a)~(d)はG画素及びR画素の各種配置パターンを示す。図8において、G1~G4はそれぞれG画素を表し、RはR画素を表し、AはR画素以外の画素(図2に示す画素配列ではG画素又はB画素)を表す。
 本例では、Gフィルタ(第2色のカラーフィルタ)を有するG画素(第2色の画素)を判定用画素として使用し、R画素(第1色の画素)のRフィルタ(第1色のカラーフィルタ)を通過した異常斜め入射光(赤色異常斜め入射光)の入射の有無を検出するケースについて説明する。なお、Rフィルタ以外のカラーフィルタを通過した異常斜め入射光がG画素以外によって受光されるケースも、同様のメカニズムを有する。
 撮像素子27は、水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なる少なくとも4種類の判定用画素(同色画素)G1~G4を有する。判定用画素G1~G4の各々に対し、水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のうち少なくとも1つは、Rフィルタを有する。
 図8に示す例では、「R画素が垂直方向の正方向に隣接し、Rフィルタ以外のカラーフィルタを有する画素が水平方向の正方向、水平方向の負方向、及び垂直方向の負方向に隣接する画素G1(第3の判定用画素)」、「R画素が水平方向の正方向に隣接し、Rフィルタ以外のカラーフィルタを有する画素が水平方向の負方向、垂直方向の正方向、及び垂直方向の負方向に隣接する画素G2(第1の判定用画素)」、「R画素が垂直方向の負方向に隣接し、Rフィルタ以外のカラーフィルタを有する画素が水平方向の正方向、水平方向の負方向、及び垂直方向の正方向に隣接する画素G3(第4の判定用画素)」及び「R画素が水平方向の負方向に隣接し、Rフィルタ以外のカラーフィルタを有する画素が水平方向の正方向、垂直方向の正方向、及び垂直方向の負方向に隣接する画素G4(第2の判定用画素)」が判定用画素として使用される。
 なお、判定用画素G1~G4の各々に対して水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のうち、判定用画素G1~G4を挟んでR画素と対向する位置に配置される画素は、Rフィルタ以外のカラーフィルタを有する。
 これらの判定用画素G1~G4が近接配置(例えば基本配列パターンP内に配置)されている場合、異常斜め入射光の有無によって、判定用画素G1~G4の出力値特性が変動する。すなわち、判定用画素G1~G4に異常斜め入射光が入射しない場合、判定用画素G1~G4の画素データ(出力値)は同一値又は近似値となる可能性が高い。しかしながら、判定用画素G1~G4に赤色異常斜め入射光が入射する場合、赤色異常斜め入射光の入射方向に応じて、判定用画素G1~G4の画素データが変動する。
 例えば、垂直方向の正方向側から負方向側に向かう赤色異常斜め入射光が存在する場合、判定用画素G1(図8(a)参照)の画素データが他の判定用画素G2~G4の画素データよりも大きくなる(図9参照)。同様に、水平方向の正方向側から負方向側に向かう赤色異常斜め入射光が存在する場合には判定用画素G2(図8(b)参照)の画素データが他よりも相対的に大きくなり、垂直方向の負方向側から正方向側に向かう赤色異常斜め入射光が存在する場合には判定用画素G3(図8(c)参照)の画素データが他よりも相対的に大きくなり、水平方向の負方向側から正方向側に向かう赤色異常斜め入射光が存在する場合には判定用画素G4(図8(d)参照)の画素データが他よりも相対的に大きくなる。
 異常斜め入射光検出部61は、図9に示すように、判定用画素G1~G4の画素データの大小関係から、異常斜め入射光の有無、入射方向及び強度を検知することが可能である。以下、異常斜め入射光の有無、入射方向及び強度を、「異常斜め入射光の状態」という場合がある。
 なお、上述の図9(及び後述の図12)には、判定用画素G1~G4の画素データの相対的な大小関係のみが表されているが、判定用画素G1~G4の画素データの具体的な大小関係は、異常斜め入射光の入射側に隣接する画素の色種類によって影響される。
 図10は、水平方向の正方向側から負方向側に赤色異常斜め入射光が入射する場合における、判定用画素G1~G4に対する赤色異常斜め入射光の影響の大きさを示す図である。図10(a)~(d)の各図の下部における矢印に表された「大」「中」「小」は、そのような赤色異常斜め入射光の影響の大きさを示す。
 カラーフィルタ特性として、Bフィルタ及びGフィルタは、赤色光を完全には遮断することができず、実際には赤色光の一部を通過させてしまう。特にGフィルタは、Rフィルタよりも赤色光の透過率が低いが、Bフィルタよりも赤色光の透過率が高い。したがって、水平方向の正方向側から負方向側に赤色異常斜め入射光が入射する場合、「水平方向の正方向にR画素が隣接する判定用画素G2(図10(b)参照)」が最も影響を受け、その次に「水平方向の正方向にG画素が隣接する判定用画素G1(図10(a)参照)及びG4画素(図10(d)参照)」が影響を大きく受け、「水平方向の正方向にB画素が隣接する判定用画素G3(図10(c)参照)」が最も小さい影響を受ける。
 なお、被写体像の画像データにおいて、基本配列パターンP内の判定用画素G1~G4間で画素データ差が本来的に存在する場合(例えば、被写体像に各種の模様やエッジ(画像境界部)が存在する場合)、異常斜め入射光が存在しなくても、値が大きく異なる画素データが判定用画素G1~G4から出力される。しかしながら、撮像素子27のエリア(例えば、基本配列パターンPを百個程度以上含むエリア)内に含まれる「判定用画素G1~G4の種類毎の画素データ(各種判定用画素データ)」の平均値は、異常斜め入射光が存在しなければ、被写体像によらず全体の同色画素(G画素)の平均値に収束して、統計的に相互に近似値となる。一方、異常斜め入射光が入射するエリアでは、全体の同色画素の平均値に対して、異常斜め入射光の影響分が段差として測定される。
 したがって、このような判定用画素G1~G4の出力値特性に鑑みて、異常斜め入射光検出部61は、撮像素子27のエリア内における判定用画素G1~G4の種類毎の画素データの平均値に基づいて、撮像素子27に入射する異常斜め入射光の状態を検出する。
 図11は、異常斜め入射光の検出手法の基本原理の他の例を説明する図であり、(a)~(d)はG画素及びR画素の各種の配置パターンを示す。図11において、G1~G4はそれぞれG画素を表し、RはR画素を表し、AはR画素以外の画素を表す。
 本例の判定用画素G1~G4の各々は、水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のうちの2つがRフィルタを有する。すなわち、「R画素が水平方向の正方向及び垂直方向の正方向に隣接し、Rフィルタ以外のカラーフィルタを有する画素が水平方向の負方向及び垂直方向の負方向に隣接する画素G1(第1の判定用画素)」、「R画素が水平方向の負方向及び垂直方向の正方向に隣接し、Rフィルタ以外のカラーフィルタを有する画素が水平方向の正方向及び垂直方向の負方向に隣接する画素G2(第2の判定用画素)」、「R画素が水平方向の正方向及び垂直方向の負方向に隣接し、Rフィルタ以外のカラーフィルタを有する画素が水平方向の負方向及び垂直方向の正方向に隣接する画素G3(第3の判定用画素)」及び「R画素が水平方向の負方向及び垂直方向の負方向に隣接し、Rフィルタ以外のカラーフィルタを有する画素が水平方向の正方向及び垂直方向の正方向に隣接する画素G4(第4の判定用画素)」を判定用画素として使用することも可能である。
 図11に示される判定用画素G1~G4に対し、垂直方向の正方向側から負方向側に向かう赤色異常斜め入射光が存在する場合、判定用画素G1(図11(a)参照)及び判定用画素G2(図11(b)参照)の画素データは、他の判定用画素G3~G4の画素データよりも大きくなる(図12参照)。同様に、水平方向の正方向側から負方向側に向かう赤色異常斜め入射光が存在する場合には判定用画素G1(図11(a)参照)及び判定用画素G3(図11(c)参照)の画素データが他よりも相対的に大きくなり、垂直方向の負方向側から正方向側に向かう赤色異常斜め入射光が存在する場合には判定用画素G3(図11(c)参照)及び判定用画素G4(図11(d)参照)の画素データが他よりも相対的に大きくなり、水平方向の負方向側から正方向側に向かう赤色異常斜め入射光が存在する場合には判定用画素G2(図11(b)参照)及び判定用画素G4(図11(d)参照)の画素データが他よりも相対的に大きくなる。
 このように、複数のR画素(検出対象の異常斜め入射光の色種に対応する画素)が隣接する判定用画素G1~G4であっても、判定用画素G1~G4の画素データの関係から、異常斜め入射光の状態を検知することが可能である。
 次に、図2の撮像素子27(X-Trans配列)に対する異常斜め入射光の検出手法の具体例について説明する。なお、本例においても、赤色異常斜め入射光の入射の有無を検出するケースを一例として説明する。
 図13は、G画素及びR画素の配置パターンが強調表示された図2の基本配列パターンPの平面図を示す。
 本例の撮像素子27に含まれるG画素50Gは、水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なる10種類のG画素(G1~G10)を含む。
 図13において、G1画素は垂直方向の正方向にR画素が隣接配置され、G2画素は水平方向の正方向にR画素が隣接配置され、G3画素は垂直方向の負方向にR画素が隣接配置され、G4画素は水平方向の負方向にR画素が隣接配置される。また、G5画素は水平方向の負方向にR画素が隣接配置され、G6画素は垂直方向の正方向にR画素が隣接配置され、G7画素は水平方向の正方向にR画素が隣接配置され、G8画素は垂直方向の負方向にR画素が隣接配置される。「G1画素とG6画素」、「G2画素とG7画素」、「G3画素とG8画素」及び「G4画素とG5画素」は、R画素の隣接配置に関して共通するが、R画素以外の隣接画素のカラーフィルタの配置パターンが相互に異なる。
 また、本例のG画素の種類には、これらのG1画素~G8画素以外に、「水平方向の正負両方向にR画素が隣接すると共に、垂直方向の正負両方向にB画素が隣接するG9画素」及び「水平方向の正負両方向にB画素が隣接すると共に、垂直方向の正負両方向にR画素が隣接するG10画素」が含まれる。
 上述のように、判定用画素の条件として、「水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なること」、「水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のうち少なくとも1つは、Rのカラーフィルタ(検出対象の異常斜め入射光の色種に対応するカラーフィルタ)を有すること」及び「判定用画素の各々に対して水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のうち、判定用画素を挟んでR画素と対向する位置に配置される画素は、Rのカラーフィルタ以外のカラーフィルタを有すること」が挙げられる。図13に示すG1画素~G4画素は、これらの条件を満たすため、本例の判定用画素として好適に使用される。
 なお、例えばG5画素~G8画素も上記条件を満たすので、G1画素~G4画素の代わりに、あるいはG1画素~G4画素と組み合わせて、判定用画素として使用することが可能である。すなわち、本例の撮像素子27の基本配列パターンPの各々は、判定用画素のセットを2組含み、「G1画素~G4画素」だけではなく「G5画素~G8画素」も判定用画素として使用することができる。したがって、「G1画素~G4画素」の判定用画素のセットによる異常斜め入射光の状態の検出結果と「G5画素~G8画素」の判定用画素のセットによる異常斜め入射光の状態の検出結果とを組み合わせることによって、検出精度を向上させることも可能である。
 また、図13に示すB1画素~B4画素も上記条件を満たすので、G1画素~G8画素の代わりに、あるいはG1画素~G8画素と組み合わせて、判定用画素として使用することが可能である。赤色異常斜め入射光以外の色種の異常斜め入射光の検出についても同様であり、またG画素以外の画素を判定用画素として使用することも可能である。例えば、図13に示されるR1画素~R4画素は、B画素に対して上記条件を満たすので、青色異常斜め入射光の検出のための判定用画素として使用することが可能である。
 異常斜め入射光検出部61は、図13に示すこれらのG画素のうちG1画素~G4画素を判定用画素として使用し、撮像素子27のエリア内におけるG1画素~G4画素の種類毎の画素データの平均値に基づいて、撮像素子27のエリアにおける異常斜め入射光の状態を検出する。
 図14は、撮像素子27のエリア分割例を示す模式図である。図14では、撮像素子27が「水平方向に5分割」及び「垂直方向に5分割」(計25分割)されている。例えば、撮像素子27の画素数が4900画素(水平方向)×3265画素(垂直方向)の場合、図14に示される分割エリア(エリア00~エリア44)の各々は、980画素(水平方向)×653画素(垂直画素)の画素数によって構成される。
 異常斜め入射光検出部61は、これらのエリア毎に、エリア内に含まれるG1画素の画素データ(出力値)の平均値、G2画素の画素データの平均値、G3画素の画素データの平均値及びG4画素の画素データの平均値を算出し、これらの平均値の大小関係に基づいて各エリアにおける赤色異常斜め入射光の状態を検出することができる(図8及び図9参照)。このように、図14に示す例によれば、ゴースト光等の異常斜め入射光による混色発生箇所を25分割の精度で特定できる。
 次に、異常斜め入射光検出部61における異常斜め入射光の検出手法の具体例について説明する。
 <異常斜め入射光の検出例1>
 図15は、判定用画素G1~G4の画素データを用いた赤色異常斜め入射光の状態の検出手法の一例を示す図である。図15において、横軸は判定用画素G1~G4を示し、縦軸は判定用画素G1~G4の画素データ平均値に対する比率を示す。図15の縦軸に関し、撮像素子27のエリアにおけるすべての判定用画素G1~G4の画素データの平均値が「画素データ平均値」に設定されており、縦軸の「1」は判定用画素の種類毎の画素データの平均値が画素データ平均値と同じであることを示す。
 図15に示す例では、判定用画素G1及びG3の種類毎の画素データの平均値が画素データ平均値と同じであり、判定用画素G2の種類毎の画素データの平均値が画素データ平均値よりも大きく、判定用画素G4の種類毎の画素データの平均値が画素データ平均値よりも小さい。したがって、赤色異常斜め入射光がこのエリアに入射し、このエリア内における判定用画素G1~G4の画素データが図15に示す例の場合には、このエリアには「水平方向の正方向側から負方向側」に向かって赤色異常斜め入射光が入射すると判定することができる(図8及び図9参照)。
 このように本例によれば、エリア内における判定用画素の画素データ値に基づいて、とりわけ「すべての判定用画素の画素データ値の平均値」に対する「種類毎の判定用画素の画素データ値の平均値」の比率に基づいて、異常斜め入射光の状態を検出することができる。
 なお、異常斜め入射光検出部61は、記憶部65(図6参照)に記憶されている判別テーブルを参照して、これらの平均値から撮像素子27に入射する異常斜め入射光を検出することが可能である。例えば、判別テーブルにおいて「判定用画素の種類毎の画素データの平均値(比率等)のデータパターン」と「異常斜め入射光の有無、入射方向及び強度(異常斜め入射光の状態)」とを対応づけておく。そして、異常斜め入射光検出部61は、この判別テーブルに照らして、実際に取得される「判定用画素の種類毎の画素データの平均値のデータパターン」から「異常斜め入射光の状態」を取得することができる。判別テーブルに対する「判定用画素の種類毎の画素データの平均値」の照合は必ずしも厳密に行われる必要はなく、判別テーブルに規定される「判定用画素の種類毎の画素データの平均値」のパターンと類似したパターンであれば、判別テーブルに規定される対応の「異常斜め入射光の状態」が取得されるようにしてもよい。
 <異常斜め入射光の検出例2>
 図16は、判定用画素G1~G4の画素データを用いた赤色異常斜め入射光の状態の検出手法の他の例を示す図である。図16において、横軸は判定用画素G1~G4を示し、縦軸は判定用画素G1~G4の画素データ値(左側縦軸)及び画素データ指標(右側縦軸)を示す。
 「判定用画素-画素データ値」の関係に関し、図16には、撮像素子27のエリア内におけるG1画素~G4画素の種類毎の画素データの平均値が「画素データ値」として示されている。
 また「判定用画素-画素データ指標」の関係に関し、図16では、撮像素子27のエリア内におけるG1画素~G4画素の種類毎の画素データの平均値の大きさに応じて、「0」、「1」及び「2」のいずれかが画素データ指標として、判定用画素の各々に割り当てられている。例えば、画素データの平均値が大きい場合には「2」が割り当てられ、画素データの平均値が小さい場合には「0」が割り当てられ、画素データの平均値が両者の中間の場合には「1」が割り当てられる。なお、画素データ指標は任意の範囲の数値を用いることができ、「0」~「2」の範囲の数値だけではなく、例えば「-2」~「+2」(-2、-1、0、+1、+2)を画素データ指標として用いることも可能である。
 これらの画素データ指標の割り当ては任意の手法で行うことができる。例えば、「撮像素子27のエリアにおけるすべての判定用画素G1~G4の画素データの平均値(判定用画素の種類毎の画素データの平均値の合計の平均値)」に対してこの平均値の±5%の範囲内に「エリア内における判定用画素の種類毎の画素データの平均値」がある場合には「1」を割り当てて、「エリア内における判定用画素の種類毎の画素データの平均値」がこの範囲よりも大きい場合には「2」を割り当てて、「エリア内における判定用画素の種類毎の画素データの平均値」がこの範囲よりも小さい場合には「0」を割り当てるようにしてもよい。また、上述の「エリア内における判定用画素の種類毎の画素データの平均値の合計の平均値」の代わりに、「エリア内における判定用画素の種類毎の画素データの平均値の中央値」を基準に、各判定用画素に対して画素データ指標を割り当ててもよい。
 図16に示す例では、判定用画素G1、G3、G4には「0」の画素データ指標が割り当てられ、判定用画素G2には「2」の画素データ指標が割り当てられている。
 そして、異常斜め入射光検出部61は、判別テーブルを参照して、撮像素子27に入射する異常斜め入射光を検出する。この判別テーブルは、記憶部65(図6参照)に記憶され、異常斜め入射光検出部61によって記憶部65から読み出される。判別テーブルでは、撮像素子27に対する異常斜め入射光の入射に関する情報と、エリア内における判定用画素G1~G4の種類毎の画素データの平均値に基づくパターンとが対応づけられている。より具体的には、「判定用画素G1~G4の種類毎の画素データの平均値の合計の平均値」を基準とした「判定用画素G1~G4の種類毎の画素データの比率を示す画素データ指標」のデータパターンと、「エリアに対する異常斜め入射光の入射の有無、入射方向及び強度」とが判別テーブルにおいて対応づけられている。なお、本例の判別テーブルの具体例については後述する(図20参照)。
 異常斜め入射光検出部61は、撮像素子27のエリア毎に、「判定用画素G1~G4の種類毎の画素データの平均値」及び「判定用画素G1~G4の種類毎の画素データの平均値の合計の平均値」を算出し、この算出結果から判定用画素G1~G4の画素データ指標を算出する。そして、異常斜め入射光検出部61は、このようにして算出した画素データ指標のデータパターンを、記憶部65から読み出した判別テーブルと照らし合わせて、該当する異常斜め入射光の入射に関する情報(異常斜め入射光の有無、入射方向及び強度)を取得する。
 <異常斜め入射光の検出例3>
 図17は、判定用画素G1~G4の画素データを用いた赤色異常斜め入射光の状態の検出手法の他の例を示す図である。図17において、横軸は判定用画素G1~G4を示し、縦軸は判定用画素G1~G4の画素データ値(左側縦軸)及び画素データ順位(右側縦軸)を示す。
 「判定用画素-画素データ値」の関係に関し、図17には、撮像素子27のエリア内におけるG1画素~G4画素の種類毎の画素データの平均値が「画素データ値」として示されている。
 また「判定用画素-画素データ順位」の関係に関し、図17では、撮像素子27のエリア内における判定用画素の種類毎の画素データの平均値の大きさに基づく順位が各判定用画素に割り当てられている。
 図17に示す例では、判定用画素G2に「1」の画素データ順位が割り当てられ、判定用画素G1及びG3に「2」の画素データ順位が割り当てられ、判定用画素G4に「3」の画素データ順位が割り当てられている。
 本例の異常斜め入射光検出部61は、記憶部65(図6参照)に記憶されている判別テーブルを参照して、撮像素子27に入射する異常斜め入射光を検出する。この判別テーブルでは、判定用画素の種類毎の画素データの平均値の大きさに基づく順位と、撮像素子27に対する異常斜め入射光の入射に関する情報とが対応づけられている。
 異常斜め入射光検出部61は、撮像素子27のエリア毎に、「判定用画素G1~G4の種類毎の画素データの平均値」を算出し、この算出値の大きさに基づいて判定用画素G1~G4に順位(画素データ順位)を割り当てる。このとき、異常斜め入射光検出部61は、「判定用画素G1~G4の種類毎の画素データの平均値」をその大きさに応じてソートした後に、画素データ順位の割り当てを行ってもよい。そして、異常斜め入射光検出部61は、算出した画素データ順位のデータパターンを、記憶部65から読み出した判別テーブルと照らし合わせて、該当する異常斜め入射光の入射に関する情報(異常斜め入射光の有無、入射方向及び強度)を取得する。
 次に、異常斜め入射光検出部61の機能構成について説明する。
 図18は、異常斜め入射光検出部61の機能構成の一例を示すブロック図である。異常斜め入射光検出部61は、画素データ値算出部66と、画素データパターン算出部67と、異常斜め入射光判定部68とを有する。
 画素データ値算出部66は、入力されるモザイク画像データ(RAWデータ)から、異常斜め入射光の検出に使用する判定用画素を決定し、決定した判定用画素の種類毎の画素データの平均値を、撮像素子27の分割エリア(図14参照)毎に算出する。
 画素データパターン算出部67は、判定用画素の種類毎の画素データのデータパターンを撮像素子27の分割エリア毎に算出する。例えば、上述の「異常斜め入射光の検出例1(図15参照)」を採用する場合には、「判定用画素の画素データ値の平均値に対する比率」が画素データパターン算出部67において算出取得される。また、上述の「異常斜め入射光の検出例2(図16参照)」を採用する場合には、「判定用画素-画素データ指標」の関係が画素データパターン算出部67において算出取得される。また、上述の「異常斜め入射光の検出例3(図17参照)」を採用する場合には、「判定用画素-画素データ順位」の関係が画素データパターン算出部67において算出取得される。
 異常斜め入射光判定部68は、記憶部65に記憶される判別テーブルを参照して、画素データパターン算出部67で算出された「判定用画素の種類毎の画素データのデータパターン」から、撮像素子27に入射する異常斜め入射光を検出する。例えば、上述の「異常斜め入射光の検出例1(図15参照)」を採用する場合、「判定用画素の画素データ値の平均値に対する比率」と異常斜め入射光の状態の情報とが判別テーブルに規定される。異常斜め入射光判定部68は、画素データパターン算出部67で算出取得された「判定用画素の画素データ値の平均値に対する比率」を判別テーブルと照らし合わせて、異常斜め入射光の状態の情報を取得する。また、上述の「異常斜め入射光の検出例2(図16参照)」を採用する場合、「判定用画素-画素データ指標」の関係と異常斜め入射光の状態の情報とが判別テーブルに規定されており、異常斜め入射光判定部68は、画素データパターン算出部67で算出取得された「判定用画素-画素データ指標」の関係を判別テーブルと照らし合わせて、異常斜め入射光の状態の情報を取得する。また、上述の「異常斜め入射光の検出例3(図17参照)」を採用する場合、「判定用画素-画素データ順位」の関係と異常斜め入射光の状態の情報とが判別テーブルに規定されており、異常斜め入射光判定部68は、画素データパターン算出部67で算出取得された「判定用画素-画素データ順位」の関係を判別テーブルと照らし合わせて、異常斜め入射光の状態の情報を取得する。
 このように、判定用画素G1~G4の画素データの出力パターンと異常斜め入射光の状態を規定する判別テーブルを用いることで、簡便且つ容易に異常斜め入射光の検出を行うことができる。
 <異常斜め入射光の色種類判定>
 上述の例では、主として「隣接R画素のRフィルタを通過した赤色異常斜め入射光」について説明したが、赤(R)色以外の色に対応する波長を持つ異常斜め入射光に対しても、上述の異常斜め入射光の検出手法は応用可能である。
 図19は、異常斜め入射光の色種類判定の一例を示すフローチャートである。本例では、赤色(R)異常斜め入射光及び緑色(G)異常斜め入射光のうちいずれの異常斜め入射光が撮像素子27のエリアに入射しているかを、異常斜め入射光検出部61(画素データ値算出部66)が判別する例について説明するが、他色の異常斜め入射光(例えば青色(B)異常斜め入射光)に対しても同様に判別することが可能である。
 まず、撮像素子27のエリア毎に、エリア内のR画素、G画素及びB画素のそれぞれの画素データ(ホワイトバランス補正前の画素データ)の合計値が画素データ値算出部66において算出される(図19のS11)。
 そして、エリア内の「R画素の画素データの合計値」と「G画素の画素データの合計値」との大小が画素データ値算出部66において判別される(S12)。R画素の画素データの合計値がG画素の画素データの合計値よりも大きい場合(S12のY)、このエリアには赤色異常斜め入射光が入射している可能性があると判別し、R異常斜め入射光用の判別テーブルが採用される(S13)。一方、R画素の画素データの合計値がG画素の画素データの合計値よりも大きくない場合(S12のN)、このエリアには緑色異常斜め入射光が入射している可能性があると判別し、G異常斜め入射光用の判別テーブルが採用される(S14)。
 画素データ値算出部66は、判別した異常斜め入射光の色種類に応じた判定用画素を決定する。そして、異常斜め入射光判定部68は、採用された判別テーブルを記憶部65から読み出して、異常斜め入射光の状態を検出する。
 判別テーブルでは、エリア内における「判定用画素の種類毎の画素データの平均値に基づくデータパターン」と対応づけられる「撮像素子に対する異常斜め入射光の入射に関する情報」が、異常斜め入射光の色種類毎に定められている。例えば、本例のように異常斜め入射光として「赤色異常斜め入射光」及び「緑色異常斜め入射光」が想定される場合、赤色異常斜め入射光用の「エリア内における判定用画素の種類毎の画素データの平均値に基づくデータパターン」に関する判別テーブル及び緑色異常斜め入射光用の「エリア内における判定用画素の種類毎の画素データの平均値に基づくデータパターン」に関する判別テーブルの両者が記憶部65に記憶される。
 図20は、図2の撮像素子27(X-Trans配列)に対する異常斜め入射光の検出に使用される判別テーブルの一例を示す図である。図20には、赤色異常斜め入射光用の「エリア内における判定用画素の種類毎の画素データの平均値に基づくパターン」に関する判別テーブル(図20の「R判別テーブル」参照)と、緑色異常斜め入射光用の「エリア内における判定用画素の種類毎の画素データの平均値に基づくパターン」に関する判別テーブル(図20の「G判別テーブル」参照)とが組み合わされて示されている。
 図20において、「PAT00」~「PAT28」は、それぞれ判定用画素の代表的な出力パターン例を示し、「PAT00」~「PAT28」以外の出力パターンの場合は、「異常斜め入射光無し」と判定される。また、図20の「G1」~「G8」は、図13に示されるG画素に対応する。また、図20にはG1画素~G8画素の出力データが画素データ指標で表され(図16参照)、「0」(エリア内における平均画素データが小)、「1」(エリア内における平均画素データが中)及び「2」(エリア内における平均画素データが大)の画素データ指標が用いられている。図20の「-」は、対応の異常斜め入射光の検出のための判定結果としての使用が難しい場合を示す。判定結果が「-」の場合は、異常斜め入射光の入射無し(「ゴーストなし」)のときと同様の処理が行われるため、異常斜め入射光の入射無し(「ゴーストなし」)と判定するようにしてもよい。
 図20では異常斜め入射光の入射を簡易的に「ゴースト」と表記し、通常よりも強度の強い異常斜め入射光の入射に関しては「強ゴースト」と表記する。図20における「上下」は「垂直方向の正方向側及び負方向側」を意味し、「右左」は「水平方向の正方向側及び負方向側」を意味する。例えば「上からゴースト」とは「垂直方向の正方向側から負方向側に向かう異常斜め入射光が入射すること」を意味し、「右からゴースト」とは「水平方向の正方向側から負方向側に向かう異常斜め入射光が入射すること」を意味する。
 図20の結果において、例えば赤色異常斜め入射光の入射方向が水平方向又は垂直方向(「上」「下」「左」「右」)の場合、判定用画素の「対角斜め方向に隣接する画素」からの影響は小さく画素データ指標に対する影響は小さい(画素データ指標=0)が、水平方向及び垂直方向(上下左右)に隣接するR画素からの影響は非常に大きい(画素データ指標=2)。また、この場合、水平方向及び垂直方向(上下左右)に隣接するG画素からの影響も大きい(画素データ指標=1)が、隣接するB画素からの影響は小さい(画素データ指標=0)。
 図20の結果において、赤色異常斜め入射光の入射方向が水平方向及び垂直方向に対して斜め(以下、単に「入射方向が斜め」という場合がある。具体的には、図20の「右上」、「右下」、「左上」、「左下」を示す。)の場合、判定用画素の「対角斜め方向に隣接する画素」からの影響は小さく画素データ指標に対する影響は小さい(画素データ指標=0)が、水平方向及び垂直方向(上下左右)に隣接するG画素からの影響は中くらいであり、水平方向及び垂直方向(上下左右)に隣接するR画素からの影響は大きい。また、赤色異常斜め入射光の入射方向が斜めの場合、その入射方向に関し、水平方向及び垂直方向(上下左右)において2画素隣接しているG画素からの影響は、水平方向及び垂直方向(上下左右)に1画素隣接しているR画素からの影響と同程度である。したがって、例えば赤色異常斜め入射光が右上から入射した場合、判定用画素のうち、「垂直方向の正方向側(上側)にR画素と隣接し、且つ、水平方向の正方向側(右側)にG画素と隣接するG1画素」が赤色異常斜め入射光による混色の影響を最も受け(画素データ指標=2)、「水平方向の正方向側(右側)にR画素と隣接する(ただし、垂直方向の正方向側(上側)においてR画素及びG画素とは隣接しない)G2画素」及び「垂直方向の正方向側(上側)と水平方向の正方向側(左側)にG画素と隣接するG4画素」が赤色異常斜め入射光による混色の影響を同程度受け(画素データ指標=1)、「垂直方向の正方向側(上側)にG画素と隣接する(ただし、水平方向の正方向側(右側)においてR画素及びG画素とは隣接しない)G3画素」が赤色異常斜め入射光による混色の影響が最も小さい(画素データ指標=0)。このため、例えば図20の「PAT09」で示されるパターンが検出された場合は、赤色異常斜め入射光(ゴースト等)が右上から入射したと判定することができる。
 図20の結果において、緑色異常斜め入射光の入射方向が斜め(図20の「右上」、「右下」、「左上」、「左下」)の場合、判定用画素の「対角斜め方向に隣接する画素」からの影響は小さく画素データ指標に対する影響は小さい(画素データ指標=0)が、水平方向及び垂直方向(上下左右)に隣接するG画素からの影響は中~大である。
 なお、「G1画素~G4画素」の判定用画素のセット及び「G5画素~G8画素」の判定用画素のセットのうちの少なくともいずれか一方のセットの出力パターンから、異常斜め入射光の状態を検出することができる。
 異常斜め入射光検出部61(画素データ値算出部66、画素データパターン算出部67、異常斜め入射光判定部68)は、撮像素子のエリア内におけるカラーフィルタの色種類毎の画素データに基づいて異常斜め入射光の色種類を決定し、決定した異常斜め入射光の色種類に対応する判別テーブル(図20)を参照し、撮像素子27に対する異常斜め入射光の状態を検出する。
 上述の図19に示す例では2種類の異常斜め入射光(赤色異常斜め入射光及び緑色異常斜め入射光)から対応の異常斜め入射光の種類を特定する例について説明したが、3種類以上の異常斜め入射光から対応の異常斜め入射光の種類を特定することも可能である。
 図21は、異常斜め入射光の色種類判定の他の例を示すフローチャートである。本例では、赤色異常斜め入射光、緑色異常斜め入射光及び青色異常斜め入射光の中から対応の異常斜め入射光の種類を画素データ値算出部66において特定する例について説明する。
 まず、撮像素子27のエリア毎に、エリア内のR画素、G画素及びB画素のそれぞれの画素データ(ホワイトバランス補正前の画素データ)の合計値が画素データ値算出部66において算出される(図21のS21)。
 そして、エリア内の「R画素の画素データの合計値」と「G画素の画素データの合計値」との大小が画素データ値算出部66において判別される(S22)。R画素の画素データの合計値がG画素の画素データの合計値よりも大きい場合(S22のY)、エリア内の「R画素の画素データの合計値」と「B画素の画素データの合計値」との大小が画素データ値算出部66において判別される(S23)。R画素の画素データの合計値がB画素の画素データの合計値よりも大きくない場合(S23のN)、このエリアには青色異常斜め入射光が入射している可能性があると判別し、青色異常斜め入射光用の判別テーブルが採用される(S25)。一方、R画素の画素データの合計値がB画素の画素データの合計値よりも大きい場合(S23のY)、このエリアには赤色異常斜め入射光が入射している可能性があると判別し、赤異常斜め入射光用の判別テーブルが採用される(S26)。
 R画素の画素データの合計値がG画素の画素データの合計値よりも大きくない場合(S22のN)、エリア内の「G画素の画素データの合計値」と「B画素の画素データの合計値」との大小が画素データ値算出部66において判別される(S24)。G画素の画素データの合計値がB画素の画素データの合計値よりも大きい場合(S24のY)、このエリアには緑色異常斜め入射光が入射している可能性があると判別し、緑色異常斜め入射光用の判別テーブルが採用される(S27)。一方、G画素の画素データの合計値がB画素の画素データの合計値よりも大きくない場合(S24のN)、このエリアには青色異常斜め入射光が入射している可能性があると判別し、青色異常斜め入射光用の判別テーブルが採用される(S28)。
 このようにして、3種類以上の異常斜め入射光の中から対応の異常斜め入射光の種類を特定することができる。異常斜め入射光の色種類は特に限定されないが、異常斜め入射光による混色現象は、通過するカラーフィルタと受光するフォトダイオードとが相互に対応しないことに起因する。したがって、異常斜め入射光の色種類としては、撮像素子27で採用されるカラーフィルタの色に応じた複数色の異常斜め入射光の入射可能性を判別することが好ましい。ただし、長波長成分ほどフォトダイオード(シリコン)に深く進入して混色現象として現れ易い。このため、撮像素子27で採用されるカラーフィルタのうち長波長側の波長成分を通過させるカラーフィルタに対応する色の異常斜め入射光の入射可能性を判別することで、混色現象をより抑制しやすくなる。例えば、撮像素子27がRGBフィルタによって構成される場合には、R(赤)に対応する異常斜め入射光の入射可能性を判別することで、混色現象をより抑制しやすくなる。
 なお、上述の例では、「エリア内におけるR画素の画素データの合計値」、「エリア内におけるG画素の画素データの合計値」及び「エリア内におけるB画素の画素データの合計値」の比較のみによって、異常斜め入射光の色種類が決められているが、他の条件を付加してもよい。
 例えば、図19に示す例(2種類の色種類から異常斜め入射光の色種類を特定する例)において、「エリア内における一方の色種類(例えばR)に係る画素の画素データの合計値」が「エリア内における他方の色種類(例えばG)に係る画素の画素データの合計値」のx倍(但し、0<x≦1、例えばx=0.6)の値以上であった場合に、上記の一方の色種類(R)に対応する異常斜め入射光(例えば赤色異常斜め入射光)がそのエリアに入射している可能性があると、異常斜め入射光検出部61(画素データ値算出部66)は判定することも可能である。
 また、図21に示す例(3種類の色種類から異常斜め入射光の色種類を特定する例)において、異常斜め入射光検出部61(画素データ値算出部66)は、撮像素子27のエリア内において、R画素の画素データの平均値のX倍の値(0<X≦1)、G画素データの平均値のY倍の値(0<Y≦1)及びB画素の画素データの平均値のZ倍の値(0<Z≦1)のうち、最も大きな値を示す色種のカラーフィルタに対応する色種類の異常斜め入射光が撮像素子に入射すると判定することが可能である。
 これらの「x」、「X」、「Y」及び「Z」の値は、適宜定めうるが、検出対象とする異常斜め入射光の色種類の優先度に応じて決定してもよい。長波長側の光成分ほど混色を引き起こしやすく同色画素間の画素データ段差を招き易い。このため、例えば、長波長側の色種を持つ異常斜め入射光が優先的に検出されるように、「x」、「X」、「Y」及び「Z」の値が定められてもよい。
 なお、入射光検出部61(画素データ値算出部66)は、撮像素子27が有するカラーフィルタの色種のうち、入射可能性があると判定検知した異常斜め入射光の色種に対応する色種のカラーフィルタが、判定用画素の隣接画素のカラーフィルタとなるように、上述の判定用画素を選定する。
 以上説明したように、本実施形態によれば、判定用画素の画素データから簡便にゴースト光等の異常斜め入射光を検出することができ、そのような異常斜め入射光によって劣化した画質を回復する補正処理(混色補正処理)を効果的に行うことが可能である。
 特に、撮像素子27が上述のX-Trans配列(図2及び図13参照)を有する場合には、同一の判定用画素G1~G4を用いて、赤色異常斜め入射光、緑色異常斜め入射光及び青色異常斜め入射光の各々を検出することが可能である。
 図22(a)~(d)に示すように、G1画素~G4画素は、「水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なること」、「水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のうち少なくとも1つは、Bのカラーフィルタ(検出対象の異常斜め入射光に対応するカラーフィルタ)を有すること」及び「判定用画素の各々に対して水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のうち、判定用画素を挟んでB画素と対向する位置に配置される画素は、Bフィルタ以外のカラーフィルタを有すること」の条件を満たす。したがって、G1画素~G4画素を判定用画素として使用し、青色異常斜め入射光の状態を検出することが可能である。
 また、図22(e)~(h)に示すように、G1画素~G4画素は、「水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なること」、「水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のうち少なくとも1つは、Gのカラーフィルタ(検出対象の異常斜め入射光に対応するカラーフィルタ)を有すること」及び「判定用画素の各々に対して水平方向の正方向及び負方向に隣接する画素及び垂直方向の正方向及び負方向に隣接する画素のうち、判定用画素を挟んでG画素と対向する位置に配置される画素は、Gフィルタ以外のカラーフィルタを有すること」の条件を満たす。したがって、G1画素~G4画素を判定用画素として使用し、緑色異常斜め入射光の状態を検出することが可能である。
 <分割エリアの変形例>
 上述の実施形態では、図14に示す複数の分割領域(25エリア)の各々が、異常斜め入射光の検出対象のエリアとして設定される。この分割領域の配置は、必ずしも25エリアに限定されるものではなく、25よりも多いエリアや25よりも少ないエリアに撮像素子27の構成画素を分割するようにしてもよい。また、撮像素子27の画素50のすべてを含む領域を異常斜め入射光の検出対象の1つのエリア(単一エリア)として設定してもよい。撮像素子27の構成画素を複数のエリアに分割する場合、各エリアの面積は、すべての分割エリアで同じであってもよいし、異なっていてもよい。
 上述の実施形態では、図14に示される複数の分割領域が撮像素子27のすべての画素を含む例が示されているが、撮像素子27の一部の画素のみが異常斜め入射光の検出対象のエリアに含まれるようにしてもよい。
 撮像素子27の分割領域の形は、図14に示される例(四角形の分割領域)に限定されるものではなく、例えば、三角形や六角形、八角形の多角形等、任意の形の分割領域を設定することが可能である。
 撮像素子27に対して、複数の分割領域を重畳的に適用してもよい。図23は、撮像素子27の構成画素を、分割エリアA(第1の分割領域)及び分割エリアB(第2の分割領域)に重畳的に分割する例を示す図である。図23(a)は、分割エリアA及び分割エリアBの適用状態を示す撮像素子27の平面図であり、(b)は分割エリアAのエリア分割例を示し、(c)は分割エリアBのエリア分割例を示す。
 図23(a)に示す撮像素子27には、複数の分割エリアAが設定されると共に、分割エリアAとは異なる分割方式を有する複数の分割エリアBが設定され、分割エリアAと分割エリアBとは少なくとも部分的にオーバーラップ(重複)する。分割エリアAは、図14に示すエリア分割例と同じ分割方式を有し、撮像素子27の構成画素が「水平方向に5分割」及び「垂直方向に5分割」(計25分割)されている(図23(b)の「エリアA00」~「エリアA44」参照)。一方、分割エリアBは、「水平方向に4分割」及び「垂直方向に4分割」(計16分割)のエリアを有し(図23(c)の「エリアB00」~「エリアB33」参照)、分割エリアBの個々のエリアは、分割エリアAの個々のエリアと同じ形状及びサイズを有する。
 これらの分割エリアA及び分割エリアBは、中心が同じ位置となるようにオーバーラップし、分割エリアAの中心(図23(b)の「エリアA22」の中心)と分割エリアBの中心(図23(c)の「エリアB11」、「エリアB12」、「エリアB21」及び「エリアB22」の境界の中心)とが重なる。したがって、水平方向及び垂直方向のうち少なくとも一方(本例では両方)に関し、分割エリアA及び分割エリアBの個々のエリアの大きさの半分だけずれるように、分割エリアAと分割エリアBとが設定される。これにより、分割エリアBの個々のエリアは、分割エリアAの2以上の領域と重なる。具体的には、分割エリアBの個々のエリアは、分割エリアAの4つのエリアと部分的にオーバーラップする。
 例えば、分割エリアBのエリアB11は、分割エリアAのエリアA11、エリアA12、エリアA21及びエリアA22とオーバーラップする(図23(a)の「C」及び図24参照)。このように、撮像素子27は、分割エリアAのいずれかの領域に分類されると共に分割エリアBのいずれかの領域に分類される画素を含むこととなる。例えば、分割エリアBのエリアB11に分類される画素は、分割エリアAのエリアA11、エリアA12、エリアA21及びエリアA22のいずれかに分類される。
 異常斜め入射光検出部61は、分割エリアAの各領域における「判定用画素の種類毎の画素データの平均値」に基づいて、分割エリアAの各領域に入射する異常斜め入射光を検出する。また、異常斜め入射光検出部61は、分割エリアBの各領域における「判定用画素の種類毎の画素データの平均値」に基づいて、分割エリアBの各領域に入射する異常斜め入射光を検出する。そして、異常斜め入射光検出部61は、分割エリアAの各領域に入射する異常斜め入射光の検出結果及び分割エリアBの各領域に入射する異常斜め入射光の検出結果に基づいて、分割エリアAの各領域と分割エリアBの各領域とが重なる領域に入射する異常斜め入射光を検出する。
 例えば、エリアA11及びエリアB11において同方向に入射する異常斜め入射光が検出される一方で、エリアA12、エリアA21及びエリアA22において異常斜め入射光が検出されない場合、エリアB11のうちエリアA11と重複する領域でのみ異常斜め入射光による混色現象が生じていると判定することができる(図24の「D」参照)。同様に、エリアA00とエリアB00で弱異常斜め入射光(比較的弱い異常斜め入射光)の入射が検出される一方で、エリアA10、エリアA11、エリアA01で異常斜め入射光が検出されない場合、エリアB00のうちエリアA00との重複領域でのみ、異常斜め入射光による混色現象が生じていると判定することができる。このように撮像素子27の構成画素に対して複数の分割エリアを重畳的に適用することで、異常斜め入射光による混色発生エリアをより限定的に特定することが可能となる。
 撮像素子27に対して複数の分割領域を重畳的に適用することで、異常斜め入射光による混色の影響を受ける領域を効果的に限定することができ、異常斜め入射光の検出精度が向上する。
 <カラーフィルタの変形例>
 上述の各実施形態では、撮像素子27がX-Trans配列(図2及び図13参照)のカラーフィルタ配列を有する例について説明したが、撮像素子27は他のカラーフィルタ配列を有していてもよい。
 図25は、他のカラーフィルタ配列例を示す撮像素子27の平面図である。本例では、4画素(水平方向)×4画素(垂直方向)によって基本配列パターンPが形成される。各基本配列パターンPでは、垂直方向の正方向から順に、「G画素、G画素、G画素、G画素」が水平方向に並置される行と、「G画素、B画素、G画素、R画素」が水平方向に並置される行と、「G画素、G画素、G画素、G画素」が水平方向に並置される行と、「G画素、R画素、G画素、B画素」が水平方向に並置される行とが、配置されている。この基本配列パターンPにおいても、上述の判定用画素の条件を満たす少なくとも4種類の同色画素(図25に示す例ではG画素)が含まれる。このため、これらの同色画素を判定用画素として使用することで、異常斜め入射光を精度良く検出することが可能である。図25には、赤色異常斜め入射光の検出に使用可能な判定用画素G1~G4の一例が図示されているが、上述の判定用画素の条件を満たす他の画素が存在するため、そのような他の画素を判定用画素として使用してもよい。
 図26は、他のカラーフィルタ配列例を示す撮像素子27の平面図である。本例では、3画素(水平方向)×3画素(垂直方向)によって基本配列パターンPが形成される。各基本配列パターンPでは、垂直方向の正方向から順に、「R画素、B画素、G画素」が水平方向に並置される行と、「B画素、R画素、G画素」が水平方向に並置される行と、「G画素、G画素、G画素」が水平方向に並置される行とが、配置されている。この基本配列パターンPにおいても、上述の判定用画素の条件を満たす少なくとも4種類の同色画素(図26に示す例ではG画素)が含まれる。このため、これらの同色画素を判定用画素として使用することで、異常斜め入射光を検出することが可能である。図26には、赤色異常斜め入射光を検出する際に使用可能な判定用画素G1~G4の一例が図示されている。
 図27は他のカラーフィルタ配列例を示す撮像素子27の平面図であり、(a)は4つの基本配列パターンPが配列された状態を示し、(b)は赤色異常斜め入射光を検出する際に使用可能な判定用画素G1~G4の一例を示し、(c)は緑色異常斜め入射光を検出する際に使用可能な判定用画素G1~G4の一例を示し、(d)は青色異常斜め入射光を検出する際に使用可能な判定用画素G1~G4の一例を示す。本例では、4画素(水平方向)×4画素(垂直方向)によって基本配列パターンPが形成される。各基本配列パターンPでは、垂直方向の正方向から順に、「R画素、B画素、G画素、G画素」が水平方向に並置される行と、「B画素、R画素、G画素、G画素」が水平方向に並置される行と、「G画素、G画素、B画素、R画素」が水平方向に並置される行と、「G画素、G画素、R画素、B画素」が水平方向に並置される行とが、配置されている。この基本配列パターンPにおいても、上述の判定用画素の条件を満たす少なくとも4種類の同色画素が含まれる。このため、これらの同色画素を判定用画素として使用することで、異常斜め入射光を検出することが可能である。特に、本例のカラーフィルタ配列では、同一の画素(G1画素~G4画素)を、「赤色異常斜め入射光検出用の判定画素」(図27(b)参照)、「緑色異常斜め入射光検出用の判定画素」(図27(c)参照)及び「青色異常斜め入射光検出用の判定画素」(図27(d)参照)として使用することが可能である。なお、図27に図示されるG1~G4以外にも、上述の判定用画素の条件を満たす他の画素が存在するため、そのような他の画素を判定用画素として使用してもよい。
 図28は他のカラーフィルタ配列例を示す撮像素子27の平面図であり、(a)は4つの基本配列パターンPが配列された状態を示し、(b)は赤色異常斜め入射光を検出する際に使用可能な判定用画素G1~G4の一例を示し、(c)は緑色異常斜め入射光を検出する際に使用可能な判定用画素R1~R4の一例を示し、(d)は青色異常斜め入射光を検出する際に使用可能な判定用画素G1~G4の一例を示す。本例では、5画素(水平方向)×5画素(垂直方向)によって基本配列パターンPが形成される。各基本配列パターンPでは、垂直方向の正方向から順に、「G画素、B画素、R画素、B画素、G画素」が水平方向に並置される行と、「R画素、G画素、B画素、G画素、R画素」が水平方向に並置される行と、「B画素、R画素、G画素、R画素、B画素」が水平方向に並置される行と、「R画素、G画素、B画素、G画素、R画素」が水平方向に並置される行と、「G画素、B画素、R画素、B画素、G画素」が水平方向に並置される行とが、配置されている。この基本配列パターンPにおいても、上述の判定用画素の条件を満たす少なくとも4種類の同色画素(図28に示す例ではG画素/R画素)が含まれる。このため、これらの同色画素を判定用画素として使用することで、異常斜め入射光を検出することが可能である。なお、図28に図示されるG1~G4及びR1~R4以外にも、上述の判定用画素の条件を満たす他の画素が存在するため、そのような他の画素を判定用画素として使用してもよい。
 <他の変形例>
 上述の各実施形態では、主として「異常斜め入射光の入射によってもたらされる混色」の検出及び補正について説明したが、混色判定補正部41(図3参照)は、「異常斜め入射光とは無関係の混色」の補正を行ってもよい。すなわち、CMOS等の撮像素子27では、隣接画素の配色パターンや画素共有アンプ等の下地構造によって、異常斜め入射光の入射の有無とは無関係に、隣接画素の画素データ出力の影響を受けることがある。このような「異常斜め入射光とは無関係な、隣接画素からの混色」の影響を低減・解消する画素データ補正が行われてもよい。このような混色補正として、例えば、隣接画素の配色パターンや下地構造に基づく「隣接画素からの混色率」を予め求めておき、実際に隣接画素から出力される画素データとこの「隣接画素からの混色率」との積和から混色量を算出し、この混色量を補正対象画素の画素データから減算することで、補正対象画素の本来の画素データを取得することが可能である。
 カラーフィルタ配列(撮像素子の画素配列)の配列方向は特に限定されず、水平方向及び垂直方向に対して任意の角度を持つ方向であってもよい。例えば、水平方向及び垂直方向に2次元的に配列された複数の画素(カラーフィルタ)を45度回転させた所謂「ハニカム型の配列」であってもよい。また、RGB以外の色のカラーフィルタが用いられてもよく、例えば、赤波長域の光、青波長域の光及び緑波長域の光のいずれも透過するフィルタであって、これらの波長域において比較的高い光透過率(例えば70%以上の光透過率)を有する透明フィルタや透明フィルタよりも低い透過率を有する所謂白色フィルタをカラーフィルタとして使用してもよい。この場合、赤色フィルタ、透明フィルタ及び白色フィルタのうちのいずれかを、異常斜め入射光に対応する色のカラーフィルタ(第1色のカラーフィルタ)としてもよい。また、青色フィルタ及び緑色フィルタのうちのいずれかを異常斜め入射光に対応する色のカラーフィルタとしてもよい。撮像素子27は赤、緑、青、透明及び白色以外の色のカラーフィルタを有する画素を含んでいてもよい。
 なお、上述のデジタルカメラ10は例示であり、他の構成に対しても本発明を適用することが可能である。各機能構成は、任意のハードウェア、ソフトウェア、あるいは両者の組み合わせによって適宜実現可能である。したがって、例えば、上述の各装置及び処理部(異常斜め入射光検出部61、異常斜め入射光補正部63等)における処理手順をコンピュータに実行させるプログラムに対しても本発明を適用することができる。
 上述の各実施形態では、画像処理回路32(混色判定補正部41等)がデジタルカメラ10に設けられる態様について説明したが、コンピュータ等の他の装置に画像処理回路32(混色判定補正部41等)が設けられてもよい。
 例えば、コンピュータにおいて画像データを加工する際に、コンピュータに設けられる画像処理部によって上述の異常斜め入射光の検出及び混色補正が行われてもよい。サーバが画像処理部(混色判定補正部)を備える場合には、例えば、デジタルカメラやコンピュータからサーバに画像データが送信され、サーバの画像処理部においてこの画像データに対して上述の異常斜め入射光の検出及び混色補正が行われ、混色補正後の画像データが送信元に送信・提供されるようにしてもよい。
 本発明が適用される態様はデジタルカメラ、コンピュータ及びサーバに限定されず、撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、その他のコンピュータ機能)を備えるモバイル機器類に対しても適用可能である。このようなモバイル機器類としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
 <スマートフォンの構成>
 図29は、本発明の撮像装置の一実施形態であるスマートフォン101の外観を示すものである。図29に示すスマートフォン101は、平板状の筐体102を有し、筐体102の一方の面に表示部としての表示パネル121と、入力部としての操作パネル122とが一体となった表示入力部120を備えている。筐体102は、スピーカ131と、マイクロホン132、操作部140と、カメラ部141とを備えている。筐体102の構成はこれに限定されず、例えば、表示部と入力部とがそれぞれ独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用したりすることもできる。
 図30は、図29に示すスマートフォン101の構成を示すブロック図である。図30に示すように、スマートフォン101は主たる構成要素として、無線通信部110と、表示入力部120と、通話部130と、操作部140と、カメラ部141と、記憶部150と、外部入出力部160と、GPS(Global Positioning System)受信部170と、モーションセンサ部180と、電源部190と、主制御部100とを備える。スマートフォン101は主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部110は、主制御部100の指示に従って、移動通信網NWに収容された基地局装置BSに対し無線通信を行う。無線通信部110は、無線通信を使用して、例えば、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部120は、主制御部100の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する。表示入力部120は、例えばタッチパネルである。
 表示入力部120の表示パネル121は、例えば、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)等を表示デバイスとして用いることで構成される。表示入力部120の操作パネル122は、表示パネル121の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。操作パネル122をユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部100に出力する。主制御部100は、入力された検出信号に基づいて、表示パネル121上の操作位置(座標)を検出する。
 本実施形態のスマートフォン101においては、操作パネル122は表示パネル121を完全に覆うように配置され、これら操作パネル122と操作パネル121とが一体となって表示入力部120を構成している。この場合、操作パネル122は、表示パネル121の外側の領域についても、ユーザ操作を検出する機能を備えるようにしてもよい。すなわち、操作パネル122は、表示パネル121に重なる重畳部分についての検出領域(以下、表示領域と称する)と、表示パネル121に重ならないそれ以外の外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 表示領域の大きさと表示パネル121の大きさとを完全に一致させても良いし、両者を一致させなくてもよい。表示領域の大きさと表示パネル121の大きさとは、必ずしも一致させる必要はない。操作パネル122は、外縁部分と、それ以外の内側部分との2つの感応領域を備えていてもよい。外縁部分の幅は、筐体102の大きさ等に応じて適宜設計される。操作パネル122で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式等が挙げられる。
 通話部130は、スピーカ131やマイクロホン132を備える。マイクロホン132を通じて入力されたユーザの音声は、主制御部100において処理可能な音声データに変換される。スピーカ131は、無線通信部110又は外部入出力部160により受信された音声データを、復号して出力するものである。例えば、スピーカ131を表示入力部120が設けられた面と同じ面に搭載し、マイクロホン132を筐体102の側面に搭載することができる。
 操作部140は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図29に示すように、操作部140は、スマートフォン101の筐体102の側面に搭載される。操作部140は、例えば、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部150は、主制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、ダウンロードしたコンテンツデータ等を記憶する。また、記憶部150は、ストリーミングデータなどを一時的に記憶する。記憶部150は、スマートフォン内蔵の内部記憶部151と着脱自在な外部メモリスロットを有する外部記憶部152により構成される。内部記憶部151と外部記憶部152とは、例えば、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)等の格納媒体を用いて実現される。
 外部入出力部160は、スマートフォン101に連結される外部機器とのインターフェースの役割を果たすものであり、スマートフォン101と他の外部機器とを通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続する。
 スマートフォン101に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホン等がある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン101の内部の各構成要素に伝達することや、スマートフォン101の内部のデータが外部機器に伝送されるようにしてもよい。
 GPS受信部170は、主制御部100の指示に従って、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン101の緯度、経度、高度からなる位置を検出する。GPS受信部170は、無線通信部110や外部入出力部160(例えば、無線LAN)から位置情報を取得できる場合は、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部180は、例えば、3軸の加速度センサなどを備え、主制御部100の指示に従って、スマートフォン101の物理的な動きを検出する。スマートフォン101の物理的な動きを検出することにより、スマートフォン101の動く方向や加速度が検出される。モーションセンサ部180による検出結果は、主制御部100に出力される。
 電源部190は、主制御部100の指示に従って、スマートフォン101の各部にバッテリ(図示しない)に蓄えられる電力を供給する。
 主制御部100は、マイクロプロセッサを備え、記憶部150が記憶する制御プログラムや制御データに従って動作し、スマートフォン101の各部を統括して制御する。主制御部100は、無線通信部110を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能とを備える。
 アプリケーション処理機能は、記憶部150が記憶するアプリケーションソフトウェアに従って主制御部100が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部160を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能等が挙げられる。
 主制御部100は、受信データやダウンロードしたストリーミングデータ等の画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部120に表示する等の画像処理機能を備える。画像処理機能とは、主制御部100が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部120に表示する機能のことをいう。
 主制御部100は、表示パネル121に対する表示制御と、操作部140、操作パネル122を通じたユーザ操作を検出する操作検出制御を実行する。
 表示制御の実行により、主制御部100は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成するためのウィンドウを表示したりする。スクロールバーとは、表示パネル121の表示領域に収まりきらない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 操作検出制御の実行により主制御部100は、操作部140を通じたユーザ操作を検出したり、操作パネル122を通じたアイコンに対する操作やウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付けたりする。
 操作検出制御の実行により主制御部100は、操作パネル122に対する操作位置が、表示パネル121に重なる重畳部分(表示領域)か、表示パネル121に重ならないそれ以外の外縁部分(非表示領域)かを判定し、操作パネル122の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 主制御部100は、操作パネル122に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせたりして、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部141は、例えば、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラである。カメラ部141によって撮像されて得た画像データは、主制御部100により、例えばJPEG(Joint Photographic coding Experts Group)等の圧縮した画像データに変換されて記憶部150に記録されたり、入出力部160や無線通信部110を通じて出力されたりする。図29に示すように、本実施形態のスマートフォン101においては、カメラ部141は表示入力部120と同じ面に一つ搭載されているが、これに限らず、カメラ部141は表示入力部120の背面に搭載されてもよいし、複数のカメラ部141が搭載されてもよい。なお、複数のカメラ部141が搭載されている場合には、撮影に供するカメラ部141を切り替えて単独で撮影したり、複数のカメラ部141を同時に使用して撮影したりすることもできる。
 カメラ部141は、スマートフォン101の各種機能に利用することができる。例えば、表示パネル121にカメラ部141で取得した画像を表示することに利用したり、操作パネル122の操作入力の一つとしてカメラ部141の画像を利用したりすることができる。GPS受信部170が位置を検出する際に、カメラ部141からの画像を参照して位置を検出することもできる。更には、カメラ部141からの画像を参照して、3軸の加速度センサを用いずに、あるいは、3軸の加速度センサと併用して、スマートフォン101のカメラ部141の光軸方向を判断することや、現在の使用環境を判断することもできる。カメラ部141からの画像は、アプリケーションソフトウェア内で利用できる。
 カメラ部141を用いて得られた静止画又は動画の画像データに、GPS受信部170により取得した位置情報や、マイクロホン132により取得した音声情報(主制御部100等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部180により取得した姿勢情報等等を付加することもできる。また、位置情報や音声情報、姿勢情報等が付加された静止画又は動画の画像データを、記憶部150に記録したり、入出力部160や無線通信部110を通じて出力したりすることもできる。
 上述のスマートフォン101において、図3の画像処理回路32は、例えば主制御部100、記憶部150等によって適宜実現可能である。
10…デジタルカメラ
12…カメラ本体
14…レンズユニット
20…撮影光学系
21…ズームレンズ
22…フォーカスレンズ
23…メカシャッタ
24…ズーム機構
25…フォーカス機構
26…レンズドライバ
27…撮像素子
30…CPU
31…撮像素子ドライバ
32…画像処理回路
33…メディアインターフェース
34…圧縮伸長処理回路
35…表示制御部
36…操作部
37…メモリ
38…メモリカード
39…EVF
40…背面LCD
41…混色判定補正部
42…WB補正部
43…信号処理部
44…RGB積算部
45…WBゲイン算出部
50…画素
50B…B画素
50G…G画素
50R…R画素
51…マイクロレンズ
52…カラーフィルタ
53…フォトダイオード
56…通常光
57…異常斜め入射光
61…入射光検出部
63…入射光補正部
65…記憶部
66…画素データ値算出部
67…画素データパターン算出部
68…異常斜め入射光判定部
100…主制御部
101…スマートフォン
102…筐体
110…無線通信部
120…表示入力部
121…表示パネル
122…操作パネル
130…通話部
131…スピーカ
132…マイクロホン
140…操作部
141…カメラ部
150…記憶部
151…内部記憶部
152…外部記憶部
160…外部入出力部
170…GPS受信部
180…モーションセンサ部

Claims (23)

  1.  第1の方向及び当該第1の方向に垂直な第2の方向に配列される複数の画素を有する撮像素子であって、前記複数の画素の各々がカラーフィルタと、当該カラーフィルタを透過した光を受光して画素データを出力するフォトダイオードとを有する撮像素子と、
     前記画素データに基づいて、前記撮像素子に入射する異常斜め入射光を検出する異常斜め入射光検出手段と、
     を備える撮像装置であって、
     前記複数の画素は、前記第1の方向の正方向及び負方向に隣接する画素及び前記第2の方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なる少なくとも4種類の判定用画素を含み、
     前記判定用画素の各々に対して前記第1の方向の正方向及び負方向に隣接する画素及び前記第2の方向の正方向及び負方向に隣接する画素のうち少なくとも1つは、第1色のカラーフィルタを有する第1色の画素であり、
     前記判定用画素の各々に対して前記第1の方向の正方向及び負方向に隣接する画素及び前記第2の方向の正方向及び負方向に隣接する画素のうち、前記判定用画素を挟んで前記第1色の画素と対向する位置に配置される画素は、前記第1色のカラーフィルタ以外のカラーフィルタを有し、
     前記異常斜め入射光検出手段は、前記撮像素子内のエリアであって、各種類の前記判定用画素を複数含むエリア内における前記判定用画素の種類毎の前記画素データの平均値に基づいて、前記撮像素子に入射する異常斜め入射光を検出する撮像装置。
  2.  前記異常斜め入射光検出手段は、前記エリア内における前記判定用画素の種類毎の前記画素データの平均値に基づいて、前記撮像素子に入射する異常斜め入射光の入射方向を検出する請求項1に記載の撮像装置。
  3.  前記撮像素子に対する前記異常斜め入射光の入射に関する情報と、前記エリア内における前記判定用画素の種類毎の前記画素データの平均値に基づくデータパターンとを対応づけた判別テーブルを記憶する記憶手段を更に備え、
     前記異常斜め入射光検出手段は、前記判別テーブルを参照して、前記撮像素子に入射する異常斜め入射光を検出する請求項1又は2に記載の撮像装置。
  4.  前記判別テーブルにおける、前記撮像素子に対する前記異常斜め入射光の入射に関する前記情報は、前記異常斜め入射光の色種類毎に定められており、
     前記異常斜め入射光検出手段は、前記撮像素子の前記エリア内におけるカラーフィルタの色種類毎の前記画素データに基づいて、前記異常斜め入射光の色種類を検知し、検知した前記異常斜め入射光の色種類に対応する前記判別テーブルを参照して前記撮像素子に入射する異常斜め入射光を検出する請求項3に記載の撮像装置。
  5.  前記判別テーブルは、前記少なくとも4種類の判定用画素の種類毎の前記画素データである各種判定用画素データの平均値の合計の平均値又は前記各種判定用画素データの平均値の中央値を基準とした、前記各種判定用画素データの比率を示すデータパターンと、前記撮像素子に対する前記異常斜め入射光の入射に関する前記情報とを対応づける請求項3又は4に記載の撮像装置。
  6.  前記判別テーブルは、前記各種画素データの平均値の大きさに基づく順位と、前記撮像素子に対する前記異常斜め入射光の入射に関する前記情報とを対応づけており、
     前記異常斜め入射光検出手段は、前記エリア内における前記各種画素データの平均値に基づいて前記少なくとも4種類の判定用画素に順位を割り当て、前記判別テーブルを参照して前記撮像素子に入射する異常斜め入射光を検出する請求項3から5のいずれか1項に記載の撮像装置。
  7.  前記複数の画素は、少なくとも、第1色種のカラーフィルタを有する第1色種画素と、第2色種のカラーフィルタを有する第2色種画素と、第3色種のカラーフィルタを有する第3色種画素とを含み、
     前記異常斜め入射光検出手段は、前記第1色種のカラーフィルタ、前記第2色種のカラーフィルタ及び前記第3色種のカラーフィルタのうち、検知した前記異常斜め入射光の色種類に対応する色種のカラーフィルタを前記第1色のカラーフィルタとして、前記少なくとも4種類の判定用画素を定める請求項4に記載の撮像装置。
  8.  前記異常斜め入射光検出手段は、前記撮像素子の前記エリア内において、0<X≦1とした場合に第1色種画素の前記画素データの平均値のX倍の値、0<Y≦1とした場合に第2色種画素の前記画素データの平均値のY倍の値及び0<Z≦1とした場合に第3色種画素の前記画素データの平均値のZ倍の値のうち、最も大きな値を示す色種のカラーフィルタに対応する色種類の前記異常斜め入射光が前記撮像素子に入射すると判定する請求項7に記載の撮像装置。
  9.  前記異常斜め入射光検出手段の検出結果に基づいて、前記異常斜め入射光が検出された前記フォトダイオードを有する画素の前記画素データを補正する補正手段を更に備える請求項1から8のいずれか1項に記載の撮像装置。
  10.  前記エリアは、前記撮像素子の前記複数の画素のすべてを含む領域である請求項1から9のいずれか1項に記載の撮像装置。
  11.  前記エリアは、前記撮像素子を複数の領域に分割した複数の分割領域の各々である請求項1から9のいずれか1項に記載の撮像装置。
  12.  前記複数の分割領域は、前記撮像素子の前記複数の画素のすべてを含む請求項11に記載の撮像装置。
  13.  前記撮像素子には、複数の第1の分割領域が設定されると共に、当該第1の分割領域とは異なる分割方式を有する複数の第2の分割領域が設定され、
     前記複数の第1の分割領域と前記複数の第2の分割領域とは、少なくとも部分的に、オーバーラップし、
     前記複数の画素は、前記第1の分割領域のいずれかに分類されると共に前記第2の分割領域のいずれかに分類される画素を含み、
     前記異常斜め入射光検出手段は、前記第1の分割領域の各々における前記判定用画素の種類毎の前記画素データの平均値に基づいて前記第1の分割領域の各々に入射する異常斜め入射光を検出し、前記第2の分割領域の各々における前記判定用画素の種類毎の前記画素データの平均値に基づいて前記第2の分割領域の各々に入射する異常斜め入射光を検出し、前記第1の分割領域の各々に入射する異常斜め入射光の検出結果及び前記第2の分割領域の各々に入射する異常斜め入射光の検出結果に基づいて、前記第1の分割領域の各々と前記第2の分割領域の各々とが重なる領域に入射する異常斜め入射光を検出する請求項1から9のいずれか1項に記載の撮像装置。
  14.  前記第2の分割領域の各々は、2以上の前記第1の分割領域と重なる請求項13に記載の撮像装置。
  15.  前記第1の分割領域の各々と前記第2の分割領域の各々とは、同じ形状及びサイズを有し、
     前記第1の方向及び前記第2の方向のうち少なくとも一方に関し、前記第1の分割領域の大きさの半分ずれるように、前記第1の分割領域と前記第2の分割領域とが設定される請求項13又は請求項14に記載の撮像装置。
  16.  前記複数の画素は、カラーフィルタ配列パターンを持つ複数の基本配列画素群であって、第1の方向及び第2の方向に並置される複数の基本配列画素群を含み、
     前記複数の基本配列画素群の各々は、前記少なくとも4種類の判定用画素のセットを少なくとも1組以上含む請求項1から15のいずれか1項に記載の撮像装置。
  17.  前記少なくとも4種類の判定用画素は、第1の判定用画素、第2の判定用画素、第3の判定用画素及び第4の判定用画素によって構成され、
     前記第1の判定用画素は、前記第1色の画素が前記第1の方向の正方向に隣接し、前記第1色のカラーフィルタ以外のカラーフィルタを有する画素が前記第1の方向の負方向、前記第2の方向の正方向、及び前記第2の方向の負方向に隣接し、
     前記第2の判定用画素は、前記第1色の画素が前記第1の方向の負方向に隣接し、前記第1色のカラーフィルタ以外のカラーフィルタを有する画素が前記第1の方向の正方向、前記第2の方向の正方向、及び前記第2の方向の負方向に隣接し、
     前記第3の判定用画素は、前記第1色の画素が前記第2の方向の正方向に隣接し、前記第1色のカラーフィルタ以外のカラーフィルタを有する画素が前記第1の方向の正方向、前記第1の方向の負方向、及び前記第2の方向の負方向に隣接し、
     前記第4の判定用画素は、前記第1色の画素が前記第2の方向の負方向に隣接し、前記第1色のカラーフィルタ以外のカラーフィルタを有する画素が前記第1の方向の正方向、前記第1の方向の負方向、及び前記第2の方向の正方向に隣接する請求項1から16のいずれか1項に記載の撮像装置。
  18.  前記少なくとも4種類の判定用画素は、第1の判定用画素、第2の判定用画素、第3の判定用画素及び第4の判定用画素によって構成され、
     前記第1の判定用画素は、前記第1色の画素が前記第1の方向の正方向及び前記第2の方向の正方向に隣接し、前記第1色のカラーフィルタ以外のカラーフィルタを有する画素が前記第1の方向の負方向及び前記第2の方向の負方向に隣接し、
     前記第2の判定用画素は、前記第1色の画素が前記第1の方向の負方向及び前記第2の方向の正方向に隣接し、前記第1色のカラーフィルタ以外のカラーフィルタを有する画素が前記第1の方向の正方向及び前記第2の方向の負方向に隣接し、
     前記第3の判定用画素は、前記第1色の画素が前記第1の方向の正方向及び前記第2の方向の負方向に隣接し、前記第1色のカラーフィルタ以外のカラーフィルタを有する画素が前記第1の方向の負方向及び前記第2の方向の正方向に隣接し、
     前記第4の判定用画素は、前記第1色の画素が前記第1の方向の負方向及び前記第2の方向の負方向に隣接し、前記第1色のカラーフィルタ以外のカラーフィルタを有する画素が前記第1の方向の正方向及び前記第2の方向の正方向に隣接する請求項1から16のいずれか1項に記載の撮像装置。
  19.  前記第1色のカラーフィルタは、赤色フィルタ、透明フィルタ及び白色フィルタのうちのいずれかである請求項1から18のいずれか1項に記載の撮像装置。
  20.  前記基本配列画素群の各々は、前記第1の方向及び前記第2の方向に関して3画素×3画素の画素配列を有する2組の第1のサブ配列画素群及び2組の第2のサブ配列画素群を含み、
     第1のサブ配列画素群は前記第1の方向及び前記第2の方向に関して第2のサブ配列画素群と隣接し、第2のサブ配列画素群は前記第1の方向及び前記第2の方向に関して第1のサブ配列画素群と隣接し、
     第1のサブ配列画素群は、中央及び四隅に配置される第2色のカラーフィルタを有する第2色の画素と、中央の画素に対して前記第1の方向の正方向及び負方向に隣接する位置に配置される前記第1色の画素と、中央の画素に対して前記第2の方向の正方向及び負方向に隣接する位置に配置される第3色のカラーフィルタを有する第3色の画素と、を含み、
     第2のサブ配列画素群は、中央及び四隅に配置される前記第2色の画素と、中央の画素に対して前記第2の方向の正方向及び負方向に隣接する位置に配置される前記第1色の画素と、中央の画素に対して前記第1の方向の正方向及び負方向に隣接する位置に配置される前記第3色の画素と、を含み、
     第1のサブ配列画素群の四隅に配置される画素のうち一方の対角方向に配置される二画素と、第2のサブ配列画素群の四隅に配置される画素のうち他方の対角方向に配置される二画素とによって前記判定用画素が構成される請求項16に記載の撮像装置。
  21.  第1の方向及び当該第1の方向に垂直な第2の方向に配列される複数の画素を有する撮像素子において、前記複数の画素の各々がカラーフィルタと、当該カラーフィルタを透過した光を受光して画素データを出力するフォトダイオードとを有する撮像素子に入射する異常斜め入射光を検出する異常斜め入射光検出手段を備える画像処理装置であって、
     前記複数の画素は、前記第1の方向の正方向及び負方向に隣接する画素及び前記第2の方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なる少なくとも4種類の判定用画素を含み、
     前記判定用画素の各々に対して前記第1の方向の正方向及び負方向に隣接する画素及び前記第2の方向の正方向及び負方向に隣接する画素のうち少なくとも1つは、第1色のカラーフィルタを有する第1色の画素であり、
     前記判定用画素の各々に対して前記第1の方向の正方向及び負方向に隣接する画素及び前記第2の方向の正方向及び負方向に隣接する画素のうち、前記判定用画素を挟んで前記第1色の画素と対向する位置に配置される画素は、前記第1色のカラーフィルタ以外のカラーフィルタを有する画素であり、
     前記異常斜め入射光検出手段は、前記撮像素子内のエリアであって、各種類の前記判定用画素を複数含むエリア内における前記判定用画素の種類毎の前記画素データの平均値に基づいて、前記撮像素子に入射する異常斜め入射光を検出する画像処理装置。
  22.  第1の方向及び当該第1の方向に垂直な第2の方向に配列される複数の画素を有する撮像素子において、前記複数の画素の各々がカラーフィルタと、当該カラーフィルタを透過した光を受光して画素データを出力するフォトダイオードとを有する撮像素子に入射する異常斜め入射光を検出するステップを備える画像処理方法であって、
     前記複数の画素は、前記第1の方向の正方向及び負方向に隣接する画素及び前記第2の方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なる少なくとも4種類の判定用画素を含み、
     前記判定用画素の各々に対して前記第1の方向の正方向及び負方向に隣接する画素及び前記第2の方向の正方向及び負方向に隣接する画素のうち少なくとも1つは、第1色のカラーフィルタを有する第1色の画素であり、
     前記判定用画素の各々に対して前記第1の方向の正方向及び負方向に隣接する画素及び前記第2の方向の正方向及び負方向に隣接する画素のうち、前記判定用画素を挟んで前記第1色の画素と対向する位置に配置される画素は、前記第1色のカラーフィルタ以外のカラーフィルタを有する画素であり、
     前記異常斜め入射光を検出するステップでは、前記撮像素子内のエリアであって、各種類の前記判定用画素を複数含むエリア内における前記判定用画素の種類毎の前記画素データの平均値に基づいて、前記撮像素子に入射する異常斜め入射光を検出する画像処理方法。
  23.  第1の方向及び当該第1の方向に垂直な第2の方向に配列される複数の画素を有する撮像素子において、前記複数の画素の各々がカラーフィルタと、当該カラーフィルタを透過した光を受光して画素データを出力するフォトダイオードとを有する撮像素子に入射する異常斜め入射光を検出する手順をコンピュータに実行させるためのプログラムであって、
     前記複数の画素は、前記第1の方向の正方向及び負方向に隣接する画素及び前記第2の方向の正方向及び負方向に隣接する画素のカラーフィルタのパターンが相互に異なる少なくとも4種類の判定用画素を含み、
     前記判定用画素の各々に対して前記第1の方向の正方向及び負方向に隣接する画素及び前記第2の方向の正方向及び負方向に隣接する画素のうち少なくとも1つは、第1色のカラーフィルタを有する第1色の画素であり、
     前記判定用画素の各々に対して前記第1の方向の正方向及び負方向に隣接する画素及び前記第2の方向の正方向及び負方向に隣接する画素のうち、前記判定用画素を挟んで前記第1色の画素と対向する位置に配置される画素は、前記第1色のカラーフィルタ以外のカラーフィルタを有する画素であり、
     前記撮像素子内のエリアであって、各種類の前記判定用画素を複数含むエリア内における前記判定用画素の種類毎の前記画素データの平均値に基づいて、前記撮像素子に入射する異常斜め入射光を検出する手順をコンピュータに実行させるためのプログラム。
PCT/JP2014/053817 2013-03-05 2014-02-18 撮像装置、画像処理装置、画像処理方法及びプログラム WO2014136570A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015504233A JP5802858B2 (ja) 2013-03-05 2014-02-18 撮像装置、画像処理装置、画像処理方法及びプログラム
CN201480007868.2A CN104995912B (zh) 2013-03-05 2014-02-18 摄像装置、图像处理装置及图像处理方法
US14/804,915 US9363491B2 (en) 2013-03-05 2015-07-21 Imaging device, image processing device, image processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-043005 2013-03-05
JP2013043005 2013-03-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/804,915 Continuation US9363491B2 (en) 2013-03-05 2015-07-21 Imaging device, image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
WO2014136570A1 true WO2014136570A1 (ja) 2014-09-12

Family

ID=51491094

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/053817 WO2014136570A1 (ja) 2013-03-05 2014-02-18 撮像装置、画像処理装置、画像処理方法及びプログラム

Country Status (4)

Country Link
US (1) US9363491B2 (ja)
JP (1) JP5802858B2 (ja)
CN (1) CN104995912B (ja)
WO (1) WO2014136570A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104581100A (zh) * 2015-02-12 2015-04-29 张李静 色彩滤镜阵列和图像处理方法
WO2018163659A1 (ja) * 2017-03-09 2018-09-13 オリンパス株式会社 撮像装置、画像処理装置、画像処理方法及び画像処理プログラムを記録した記録媒体
WO2018168492A1 (ja) * 2017-03-15 2018-09-20 オリンパス株式会社 画像処理装置、撮像装置、画素異常検出方法およびプログラム
JP2018152840A (ja) * 2017-03-10 2018-09-27 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
JPWO2020230610A1 (ja) * 2019-05-15 2020-11-19

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5777825B2 (ja) * 2012-12-05 2015-09-09 富士フイルム株式会社 撮像装置、異常斜め入射光検出方法及びプログラム、並びに記録媒体
JP5778873B2 (ja) * 2012-12-07 2015-09-16 富士フイルム株式会社 画像処理装置、画像処理方法及びプログラム、並びに記録媒体
JP5749409B2 (ja) * 2012-12-07 2015-07-15 富士フイルム株式会社 撮像装置、画像処理方法及びプログラム
WO2014185209A1 (ja) * 2013-05-13 2014-11-20 富士フイルム株式会社 混色率算出装置及び方法並びに撮像装置
CN107077871B (zh) * 2015-02-23 2019-12-06 日立民用电子株式会社 光信息记录再现装置、光信息再现装置和光信息再现方法
CN108885265A (zh) * 2016-03-31 2018-11-23 富士胶片株式会社 距离图像处理装置、距离图像获取装置及距离图像处理方法
JP2019041352A (ja) * 2017-08-29 2019-03-14 キヤノン株式会社 撮像装置及び撮像システム
CN111201777B (zh) 2017-10-19 2022-02-01 索尼公司 信号处理装置和成像装置
US10848631B2 (en) * 2018-09-26 2020-11-24 Ricoh Company, Ltd. Reading device and image forming apparatus
CN113099121B (zh) * 2021-04-15 2022-05-06 西安交通大学 一种基于弱监督学习的isp实现方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142697A (ja) * 2005-11-17 2007-06-07 Sony Corp 固体撮像素子の信号処理装置および信号処理方法並びに撮像装置
JP2009100203A (ja) * 2007-10-16 2009-05-07 Sony Corp 固体撮像素子用の信号処理装置、信号処理装置を備えた撮像装置、信号処理方法、およびプログラム
JP2010130583A (ja) * 2008-11-28 2010-06-10 Canon Inc 撮像装置、撮像システム、及び撮像装置における信号の補正方法
JP2011166398A (ja) * 2010-02-09 2011-08-25 Sony Corp 画像信号処理装置、撮像装置、画像信号処理方法、およびプログラム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005333251A (ja) 2004-05-18 2005-12-02 Olympus Corp 撮像装置、カメラ及び撮像処理方法
JP4768014B2 (ja) * 2006-04-26 2011-09-07 シャープ株式会社 カラーフィルタ検査方法およびカラーフィルタ製造方法並びにカラーフィルタ検査装置
JP2008054206A (ja) 2006-08-28 2008-03-06 Matsushita Electric Ind Co Ltd ゴースト検出装置およびその関連技術
CN101584222B (zh) * 2007-05-31 2011-10-12 松下电器产业株式会社 图像处理装置
CN101569205B (zh) * 2007-06-15 2012-05-23 松下电器产业株式会社 图像处理装置
JP4486703B2 (ja) * 2007-12-07 2010-06-23 パナソニック株式会社 撮像装置
JP5173496B2 (ja) * 2008-03-06 2013-04-03 キヤノン株式会社 撮像装置及び撮像システム
JP5232118B2 (ja) * 2009-09-30 2013-07-10 富士フイルム株式会社 撮像デバイスおよび電子カメラ
JP5523213B2 (ja) 2010-06-22 2014-06-18 オリンパスイメージング株式会社 撮像装置および撮像方法
CN102696228B (zh) * 2010-10-04 2015-01-21 富士胶片株式会社 成像设备和混色校正方法
US8742309B2 (en) * 2011-01-28 2014-06-03 Aptina Imaging Corporation Imagers with depth sensing capabilities
EP2645722A4 (en) * 2011-03-11 2014-05-14 Fujifilm Corp IMAGING APPARATUS AND METHOD FOR CONTROLLING THEIR OPERATION
JP5817301B2 (ja) * 2011-08-02 2015-11-18 ソニー株式会社 撮像素子、並びに、撮像装置および方法
WO2013046973A1 (ja) * 2011-09-29 2013-04-04 富士フイルム株式会社 固体撮像素子、撮像装置、及び合焦制御方法
JP5629832B2 (ja) * 2011-09-30 2014-11-26 富士フイルム株式会社 撮像装置及び位相差画素の感度比算出方法
US20130201388A1 (en) * 2012-02-03 2013-08-08 Novatek Microelectronics Corp. Optical sensing apparatus and optical setting method
JP5542249B2 (ja) * 2012-03-28 2014-07-09 富士フイルム株式会社 撮像素子及びこれを用いた撮像装置及び撮像方法
JP5542250B2 (ja) * 2012-03-28 2014-07-09 富士フイルム株式会社 固体撮像素子、撮像装置、及び固体撮像素子の駆動方法
JP5657182B2 (ja) * 2012-05-10 2015-01-21 富士フイルム株式会社 撮像装置及び信号補正方法
JP5680797B2 (ja) * 2012-06-07 2015-03-04 富士フイルム株式会社 撮像装置、画像処理装置、及び画像処理方法
JPWO2014027588A1 (ja) * 2012-08-14 2016-07-25 ソニー株式会社 固体撮像装置および電子機器
CN104620572B (zh) * 2012-09-19 2016-06-29 富士胶片株式会社 摄像装置及其控制方法
CN104854496B (zh) * 2012-11-22 2017-04-12 富士胶片株式会社 摄像装置、散焦量运算方法及摄像光学系统
JP5777825B2 (ja) * 2012-12-05 2015-09-09 富士フイルム株式会社 撮像装置、異常斜め入射光検出方法及びプログラム、並びに記録媒体
JP5778873B2 (ja) * 2012-12-07 2015-09-16 富士フイルム株式会社 画像処理装置、画像処理方法及びプログラム、並びに記録媒体
JP5749409B2 (ja) * 2012-12-07 2015-07-15 富士フイルム株式会社 撮像装置、画像処理方法及びプログラム
WO2014097899A1 (ja) * 2012-12-21 2014-06-26 富士フイルム株式会社 固体撮像装置
JP2015037102A (ja) * 2013-08-12 2015-02-23 株式会社東芝 固体撮像装置
JP2015060855A (ja) * 2013-09-17 2015-03-30 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
US20150090909A1 (en) * 2013-09-30 2015-04-02 Capella Microsystems (Taiwan), Inc. Selectable view angle optical sensor
US9392198B2 (en) * 2014-02-26 2016-07-12 Semiconductor Components Industries, Llc Backside illuminated imaging systems having auto-focus pixels

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142697A (ja) * 2005-11-17 2007-06-07 Sony Corp 固体撮像素子の信号処理装置および信号処理方法並びに撮像装置
JP2009100203A (ja) * 2007-10-16 2009-05-07 Sony Corp 固体撮像素子用の信号処理装置、信号処理装置を備えた撮像装置、信号処理方法、およびプログラム
JP2010130583A (ja) * 2008-11-28 2010-06-10 Canon Inc 撮像装置、撮像システム、及び撮像装置における信号の補正方法
JP2011166398A (ja) * 2010-02-09 2011-08-25 Sony Corp 画像信号処理装置、撮像装置、画像信号処理方法、およびプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104581100A (zh) * 2015-02-12 2015-04-29 张李静 色彩滤镜阵列和图像处理方法
US11102427B2 (en) 2017-03-09 2021-08-24 Olympus Corporation Imaging apparatus, image processing apparatus, image processing method, and recording medium that records image processing program
WO2018163659A1 (ja) * 2017-03-09 2018-09-13 オリンパス株式会社 撮像装置、画像処理装置、画像処理方法及び画像処理プログラムを記録した記録媒体
JP7240540B2 (ja) 2017-03-10 2023-03-15 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム
JP2018152840A (ja) * 2017-03-10 2018-09-27 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2022066385A (ja) * 2017-03-10 2022-04-28 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム
JP7037346B2 (ja) 2017-03-10 2022-03-16 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2018152829A (ja) * 2017-03-15 2018-09-27 オリンパス株式会社 画像処理装置、撮像装置、画素異常検出方法およびプログラム
US10880508B2 (en) 2017-03-15 2020-12-29 Olympus Corporation Image processing apparatus, imaging apparatus, pixel-abnormality detecting method, and computer-readable recording medium
WO2018168492A1 (ja) * 2017-03-15 2018-09-20 オリンパス株式会社 画像処理装置、撮像装置、画素異常検出方法およびプログラム
WO2020230610A1 (ja) * 2019-05-15 2020-11-19 富士フイルム株式会社 漏れ光検出装置、撮像装置、漏れ光検出方法、及び漏れ光検出プログラム
JP7038257B2 (ja) 2019-05-15 2022-03-17 富士フイルム株式会社 漏れ光検出装置、撮像装置、漏れ光検出方法、及び漏れ光検出プログラム
JPWO2020230610A1 (ja) * 2019-05-15 2020-11-19
US11722797B2 (en) 2019-05-15 2023-08-08 Fujifilm Corporation Leakage light detection device, imaging device, leakage light detection method, and leakage light detection program

Also Published As

Publication number Publication date
JP5802858B2 (ja) 2015-11-04
US20150326838A1 (en) 2015-11-12
CN104995912B (zh) 2017-03-08
US9363491B2 (en) 2016-06-07
JPWO2014136570A1 (ja) 2017-02-09
CN104995912A (zh) 2015-10-21

Similar Documents

Publication Publication Date Title
JP5802858B2 (ja) 撮像装置、画像処理装置、画像処理方法及びプログラム
JP5777825B2 (ja) 撮像装置、異常斜め入射光検出方法及びプログラム、並びに記録媒体
US9674461B2 (en) Imaging device and imaging method
US9363493B2 (en) Image processing apparatus, method, recording medium and image pickup apparatus
JP5778873B2 (ja) 画像処理装置、画像処理方法及びプログラム、並びに記録媒体
US9667877B2 (en) Imaging device and imaging method
US9172926B2 (en) Imaging device, and image processing method
US10819900B2 (en) Imaging element and imaging apparatus
US9350962B2 (en) Image processing device, imaging apparatus, computer, image processing method, and non-transitory computer readable medium
US9877004B2 (en) Color-mixture-ratio calculation device and method, and imaging device
US9374544B2 (en) Image capture device, image processing method, and program
US9363435B2 (en) Apparatus and method of determining how to perform low-pass filter processing as a reduction association processing when moire is suppressed in a captured image represented by image capture data according to an array of color filters and when the moire appears in the reduced image after processing the reduction processing on the image pickup data, on the basis of an acquisition result of the shooting condition data
JP5897769B2 (ja) 撮像装置、キャリブレーションシステム、及びプログラム
WO2014007041A1 (ja) 画像処理装置および方法ならびに撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14761155

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015504233

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14761155

Country of ref document: EP

Kind code of ref document: A1