WO2016143139A1 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
WO2016143139A1
WO2016143139A1 PCT/JP2015/057377 JP2015057377W WO2016143139A1 WO 2016143139 A1 WO2016143139 A1 WO 2016143139A1 JP 2015057377 W JP2015057377 W JP 2015057377W WO 2016143139 A1 WO2016143139 A1 WO 2016143139A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
correction coefficient
image processing
calculation unit
pixels
Prior art date
Application number
PCT/JP2015/057377
Other languages
English (en)
French (fr)
Inventor
学 市川
裕輝 丸山
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to EP15884626.1A priority Critical patent/EP3270587A4/en
Priority to JP2017504541A priority patent/JP6538819B2/ja
Priority to CN201580077653.2A priority patent/CN107409201B/zh
Priority to PCT/JP2015/057377 priority patent/WO2016143139A1/ja
Publication of WO2016143139A1 publication Critical patent/WO2016143139A1/ja
Priority to US15/698,717 priority patent/US10419685B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • H04N1/6033Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer using test pattern analysis
    • H04N1/6041Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer using test pattern analysis for controlling uniformity of color across image area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/85Camera processing pipelines; Components thereof for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/618Noise processing, e.g. detecting, correcting, reducing or removing noise for random or high-frequency noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/148Charge coupled imagers
    • H01L27/14868CCD or CID colour imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and a program for calculating a correction coefficient for correcting spectral sensitivity characteristics of a plurality of pixels constituting an image sensor.
  • the present invention has been made in view of the above, and an image processing apparatus and an image processing method capable of calculating a correction coefficient for correcting variation in spectral sensitivity of each of a plurality of pixels constituting an image sensor. And to provide a program.
  • an image processing apparatus forms a predetermined array pattern using a plurality of color filters having different spectral transmittances, Based on image data generated by an image sensor in which each color filter to be formed is arranged at a position corresponding to one of a plurality of pixels, a predetermined wavelength range between a spectral sensitivity and a preset reference spectral sensitivity at the target pixel
  • a correction coefficient calculation unit that calculates a correction coefficient for correcting a difference in pixel values corresponding to the difference in each of the plurality of pixels in which a predetermined color filter is arranged among at least the color filters of the plurality of colors. It is characterized by that.
  • the correction coefficient calculation unit is configured such that the spectral transmittance of the color filter provided in the pixel of interest is higher than the spectral transmittance of the color filter of another color.
  • the correction coefficient in the predetermined wavelength region including a low wavelength region is calculated.
  • the correction coefficient calculation unit is configured such that the spectral transmittance of the color filter provided in the pixel of interest is higher than the spectral transmittance of the color filter of another color.
  • the correction coefficient in the predetermined wavelength region including a high wavelength region is calculated.
  • the correction coefficient calculation unit is configured to perform the reference based on each pixel value of the plurality of pixels in which the color filter having the same color as the target pixel is arranged. Spectral sensitivity is calculated.
  • the image processing apparatus is the image processing apparatus according to the above invention, wherein the correction coefficient calculation unit includes an average value of spectral sensitivities of each of the plurality of pixels in which the color filter of the same color as the pixel of interest is arranged or the pixel of interest. For each pixel, an average value of spectral sensitivities of each of the plurality of pixels located around the target pixel and having the same color filter as the target pixel is calculated as the reference spectral sensitivity.
  • the correction coefficient calculation unit calculates the correction coefficient for each light source that emits light having different wavelength characteristics.
  • the image sensor generates the image data by receiving uniform light having a spectral radiance of a predetermined wavelength region higher than that of other wavelength regions. It is characterized by doing.
  • the image processing apparatus further includes a random noise removing unit that removes random noise of the image data, and the correction coefficient calculating unit removes the random noise by the random noise removing unit.
  • the correction coefficient is calculated for the processed image data.
  • the image processing apparatus is characterized in that, in the above-mentioned invention, the colors of the color filters are red, green and blue.
  • the color of the color filter is cyan, magenta, yellow, and green.
  • the image processing method is an image processing method executed by an image processing apparatus, wherein a predetermined array pattern is formed using a plurality of color filters having different spectral transmittances, and the array pattern Based on the image data acquired in the acquisition step, the acquisition step of acquiring the image data generated by the image sensor arranged at a position corresponding to any of the plurality of pixels, each color filter forming the At least a predetermined color filter among the color filters of the plurality of colors is arranged as a correction coefficient for correcting a difference in pixel value due to a difference in a predetermined wavelength range between a spectral sensitivity and a preset reference spectral sensitivity in a target pixel.
  • a correction coefficient calculating step for calculating each of the plurality of pixels.
  • the program according to the present invention forms a predetermined array pattern using a plurality of color filters having different spectral transmittances, and each color filter forming the array pattern is one of a plurality of pixels.
  • a correction coefficient calculating step for calculating a correction coefficient for correcting a difference in pixel value due to a difference in a wavelength range for each of the plurality of pixels in which a predetermined color filter is disposed among at least the color filters of the plurality of colors.
  • the image processing apparatus is executed.
  • FIG. 1 is a block diagram schematically showing a configuration of an imaging system according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram schematically showing the configuration of the color filter according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram illustrating an average of spectral sensitivity characteristics of each of the R pixel, the G pixel, and the B pixel constituting the image sensor according to Embodiment 1 of the present invention.
  • FIG. 4 is a diagram showing the spectral sensitivity characteristics of the R pixel that constitutes the image sensor according to Embodiment 1 of the present invention.
  • FIG. 5 is a diagram showing the spectral sensitivity characteristics of the G pixel that constitutes the image sensor according to Embodiment 1 of the present invention.
  • FIG. 1 is a block diagram schematically showing a configuration of an imaging system according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram schematically showing the configuration of the color filter according to Embodiment 1 of the
  • FIG. 6 is a diagram showing the spectral sensitivity characteristics of the B pixel constituting the image sensor according to Embodiment 1 of the present invention.
  • FIG. 7 is a diagram schematically illustrating pixel values of a plurality of G pixels constituting the image sensor when the image sensor according to Embodiment 1 of the present invention captures a flat red or flat green subject. is there.
  • FIG. 8 is a flowchart showing an outline of processing executed by the first image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 9 is a flowchart showing an outline of the photographing process of FIG.
  • FIG. 10 is a flowchart showing an outline of the correction coefficient calculation process of FIG. FIG.
  • FIG. 11 is a diagram schematically showing the spectral characteristics when calculating the correction coefficient in the case where normal light is used.
  • FIG. 12 is a diagram schematically showing the spectral characteristics when calculating the correction coefficient when narrow band light is used.
  • FIG. 13 is a flowchart showing an outline of processing executed by the second image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 14 is a flowchart showing an outline of the correction amount calculation processing of FIG.
  • FIG. 15 is a flowchart showing an outline of the R component correction amount calculation processing of FIG.
  • FIG. 16A is a diagram schematically illustrating an interpolation method for estimating the R component when the target pixel is a B pixel.
  • FIG. 16B is a diagram schematically illustrating an interpolation method for estimating the R component when the target pixel is a G pixel.
  • FIG. 16C is a diagram schematically illustrating an interpolation method for estimating the R component when the target pixel is a G pixel.
  • FIG. 16D is a diagram schematically illustrating an interpolation method for estimating the R component when the target pixel is an R pixel.
  • FIG. 17 is a flowchart showing an outline of the G component correction amount calculation processing of FIG.
  • FIG. 18A is a diagram schematically illustrating an interpolation method for estimating the G component when the target pixel is an R pixel.
  • FIG. 18B is a diagram schematically illustrating an interpolation method for estimating the G component when the target pixel is a B pixel.
  • FIG. 18C is a diagram schematically illustrating an interpolation method for estimating the G component when the target pixel is a G pixel.
  • FIG. 18D is a diagram schematically illustrating an interpolation method for estimating the G component when the target pixel is a G pixel.
  • FIG. 19 is a flowchart showing an outline of the B component correction amount calculation processing of FIG.
  • FIG. 20A is a diagram schematically illustrating an interpolation method for estimating the B component when the target pixel is a G pixel.
  • FIG. 20B is a diagram schematically illustrating an interpolation method for estimating the B component when the target pixel is a G pixel.
  • FIG. 20C is a diagram schematically illustrating an interpolation method for estimating the B component when the target pixel is an R pixel.
  • FIG. 20D is a diagram schematically illustrating an interpolation method for estimating the B component when the target pixel is a B pixel.
  • FIG. 21 is a flowchart showing an outline of processing executed by the first image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 22 is a diagram schematically showing the spectral characteristics of the red subject at the time of correction coefficient calculation executed by the first image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 21 is a flowchart showing an outline of processing executed by the first image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 22 is a diagram schematically showing the spectral characteristics of the red subject at the time of correction coefficient calculation executed
  • FIG. 23 is a diagram schematically showing the spectral characteristics of the green subject at the time of correction coefficient calculation executed by the first image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 24 is a diagram schematically illustrating the spectral characteristics of the blue subject at the time of correction coefficient calculation executed by the first image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 25A is a diagram schematically illustrating R component correction coefficient calculation when the target pixel is a G pixel.
  • FIG. 25B is a diagram schematically illustrating calculation of a correction coefficient for the B component when the target pixel is a G pixel.
  • FIG. 26 is a block diagram schematically showing the configuration of the imaging apparatus according to Embodiment 3 of the present invention.
  • FIG. 27 is a diagram schematically showing a configuration of a color filter according to the first modification of the first to third embodiments of the present invention.
  • FIG. 28 is a diagram schematically showing a configuration of a color filter according to the second modification of the first to third embodiments of the present invention.
  • FIG. 29 is a diagram schematically showing a configuration of a color filter according to the third modification of the first to third embodiments of the present invention.
  • FIG. 1 is a block diagram schematically showing a configuration of an imaging system according to Embodiment 1 of the present invention.
  • the imaging system 1 shown in FIG. 1 is arranged in a housing 100 in which a light shielding space in which light from the outside is shielded is formed when calculating a correction coefficient described later.
  • the imaging system 1 illustrated in FIG. 1 is disposed outside the housing 100 when performing normal imaging.
  • the imaging system 1 includes an imaging device 10, a light source device 20 (subject), a first image processing device 30, a second image processing device 40, and a display device 50. Note that the first image processing device 30, the second image processing device 40, and the display device 50 may be arranged outside the housing 100 even when calculating a correction coefficient described later.
  • the imaging apparatus 10 includes an optical system 101, a diaphragm 102, a shutter 103, a driver 104, an imaging element 105, a color filter 106, an analog processing unit 107, an A / D conversion unit 108, and a first operation unit. 109, a memory I / F unit 110, a recording medium 111, a volatile memory 112, a nonvolatile memory 113, a bus 114, an imaging control unit 115, and a first external I / F unit 116.
  • the optical system 101 is configured using one or a plurality of lenses.
  • the optical system 101 is configured using, for example, a focus lens and a zoom lens.
  • the diaphragm 102 adjusts exposure by limiting the amount of incident light collected by the optical system 101.
  • the diaphragm 102 limits the amount of incident light collected by the optical system 101 under the control of the imaging control unit 115.
  • the incident amount of light may be controlled using the electronic shutter in the shutter 103 or the image sensor 105 without using the diaphragm 102.
  • the shutter 103 sets the state of the image sensor 105 to an exposure state or a light shielding state under the control of the imaging control unit 115.
  • the shutter 103 is configured using, for example, a focal plane shutter. Instead of using the shutter 103, an electronic shutter in the image sensor 105 may be used.
  • the driver 104 drives the optical system 101, the diaphragm 102, and the shutter 103 under the control of an imaging control unit 115 described later.
  • the driver 104 moves the optical system 101 along the optical axis O1 to change the zoom magnification of the imaging apparatus 10 or adjust the focus position.
  • the imaging element 105 receives light collected by the optical system 101 under the control of an imaging control unit 115 described later, converts the light into image data (electric signal), and outputs the image data.
  • the image sensor 105 is configured using an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device) in which a plurality of pixels are two-dimensionally arranged.
  • the image sensor 105 has an electronic shutter function that can electronically control the amount of received light.
  • the color filter 106 is provided by being laminated on the light receiving surface of the image sensor 105.
  • each of a plurality of color filters that transmit light in different wavelength regions forms a predetermined array pattern, and each color filter that forms this array pattern has a plurality of pixels constituting the image sensor 105. It is arranged at a position corresponding to one of them.
  • FIG. 2 is a diagram schematically showing the configuration of the color filter 106.
  • the color filter 106 shown in FIG. 2 includes a filter R that transmits light in the red wavelength region, a filter G that transmits light in the green wavelength region, and a filter B that transmits light in the blue wavelength region in the Bayer array. It is provided on the light receiving surface of each pixel of the image sensor 105.
  • a pixel in which the filter R is disposed on the light receiving surface is referred to as an R pixel
  • a pixel in which the filter G is disposed on the light receiving surface is a G pixel
  • a pixel in which a filter B is disposed on the light receiving surface is a B pixel.
  • the analog processing unit 107 performs predetermined analog processing on the analog signal output from the image sensor 105 and outputs the analog signal to the A / D conversion unit 108. Specifically, the analog processing unit 107 performs noise reduction processing, gain increase processing, and the like on the analog signal input from the image sensor 105. For example, the analog processing unit 107 performs waveform shaping on the analog signal after reducing reset noise and the like, and further increases the gain so that the target brightness is obtained.
  • the A / D conversion unit 108 generates digital image data (hereinafter referred to as “RAW image data”) by performing A / D conversion on the analog signal input from the analog processing unit 107, and the bus 114. To the volatile memory 112. Note that the A / D conversion unit 108 may directly output RAW image data to each unit of the imaging apparatus 10 to be described later.
  • the color filter 106, the analog processing unit 107, and the A / D conversion unit 108 described above may be provided in the image sensor 105 so that the image sensor 105 directly outputs digital RAW image data.
  • the first operation unit 109 gives various instructions of the imaging device 10.
  • the first operation unit 109 includes a power switch that switches the power state of the imaging device 10 to an on state or an off state, a release switch that gives a still image shooting instruction, an operation switch that switches various settings of the imaging device 10, and A moving image switch for giving an instruction to shoot moving images is provided.
  • the recording medium 111 is configured using a memory card attached from the outside of the imaging device 10 and is detachably attached to the imaging device 10 via the memory I / F unit 110. Further, the recording medium 111 may output the program and various types of information to the nonvolatile memory 113 via the memory I / F unit 110 under the control of the imaging control unit 115.
  • the volatile memory 112 temporarily stores image data input from the A / D conversion unit 108 via the bus 114.
  • the volatile memory 112 temporarily stores image data that the image sensor 105 sequentially outputs for each frame via the analog processing unit 107, the A / D conversion unit 108, and the bus 114.
  • the volatile memory 112 is configured using SDRAM (Synchronous Dynamic Random Access Memory) or the like.
  • the nonvolatile memory 113 records various programs for operating the imaging apparatus 10 and various data used during execution of the programs.
  • the nonvolatile memory 113 is a correction coefficient for correcting variation in spectral sensitivity of each of a plurality of pixels constituting the image sensor 105 input via the program recording unit 113a and the first external I / F unit 116.
  • a correction coefficient recording unit 113b for recording is configured using a flash memory or the like.
  • the bus 114 is configured using a transmission path or the like that connects each component of the imaging device 10, and transfers various data generated inside the imaging device 10 to each component of the imaging device 10.
  • the imaging control unit 115 is configured using a CPU (Central Processing Unit) or the like, and performs instructions, data transfer, and the like to each unit configuring the imaging apparatus 10 in response to an instruction signal and a release signal from the first operation unit 109.
  • the imaging control unit 115 performs control to start the shooting operation in the imaging device 10.
  • the imaging operation in the imaging apparatus 10 refers to an operation in which the analog processing unit 107 and the A / D conversion unit 108 perform predetermined processing on the analog signal output from the imaging element 105.
  • the image data thus processed is recorded on the recording medium 111 via the bus 114 and the memory I / F unit 110 under the control of the imaging control unit 115.
  • the first external I / F unit 116 outputs information input from an external device via the bus 114 to the nonvolatile memory 113 or the volatile memory 112, while the volatile memory 112 stores the information to an external device via the bus 114.
  • Information to be recorded, information recorded by the nonvolatile memory 113, and image data generated by the image sensor 105 are output.
  • the first external I / F unit 116 outputs the image data generated by the image sensor 105 to the first image processing device 30 and the second image processing device 40 via the bus 114.
  • the configuration of the light source device 20 will be described.
  • the light source device 20 emits parallel illumination light as a subject toward the imaging device 10 under the control of the first image processing device 30. .
  • the light source device 20 irradiates, for example, visible light of 380 nm to 780 nm toward the imaging device 10 at 10 nm intervals under the control of the first image processing device 30.
  • the light source device 20 is configured using, for example, a rotary filter provided with a plurality of filters that transmit light having different wavelength regions, a light source such as a tungsten lamp or a xenon lamp, and a driver such as a motor that rotates the rotary filter.
  • the light source device 20 may use a fluorescent lamp, an LED (Light Emitting Diode), a laser beam, or the like that emits parallel light in a predetermined wavelength region. Further, the light source device 20 may switch the light in a predetermined wavelength region, for example, each of the red, green, and blue wavelength regions, instead of the 10 nm interval, and irradiate the imaging device 10 with the light.
  • the imaging apparatus 10 is assumed to be a compact digital camera in which the optical system 101 and the diaphragm 102 are integrated.
  • the lens unit having the optical system 101 and the diaphragm 102 is a main body (body).
  • the present invention can also be applied to a digital camera that is detachable with respect to the device.
  • the light from the light source device 20 is preferably incident on the imaging device 10 as parallel light.
  • the light source device 20 irradiates the imaging device 10 with as uniform parallel light as possible.
  • the first image processing apparatus 30 includes a second external I / F unit 301, a light source control unit 302, a second operation unit 303, a first recording unit 304, a first image processing control unit 305, and a first bus. 306 and a correction coefficient calculation unit 307.
  • the second external I / F unit 301 acquires the image data generated by the image sensor 105 via the first external I / F unit 116 of the imaging device 10, and uses the acquired image data as the correction coefficient calculation unit 307 or the first. 1 is output to the buffer unit 304b. Further, the second external I / F unit 301 outputs the information input from the correction coefficient calculation unit 307 to the imaging device 10.
  • the second external I / F unit 301 and the first external I / F unit 116 are connected via, for example, a control cable or a wireless communication path that can exchange information bidirectionally.
  • the light source control unit 302 is configured using a CPU, and controls the wavelength region of light emitted from the light source device 20. Specifically, the light source control unit 302 causes the light source device 20 to irradiate the imaging device 10 with light in a wavelength region of every 10 nm.
  • the second operation unit 303 gives various instructions of the first image processing device 30. Specifically, the second operation unit 303 gives an instruction to sequentially irradiate the light source device 20 with light having different wavelength regions.
  • the first recording unit 304 is configured using a volatile memory and a non-volatile memory, and is used during execution of image data input from the imaging device 10, various programs for operating the first image processing device 30, and programs. Record various data.
  • the first recording unit 304 temporarily stores a first program recording unit 304 a that records various programs for operating the first image processing device 30, and image data input from the imaging device 10. 1 buffer unit 304b.
  • the first image processing control unit 305 is configured using a CPU or the like, and performs instructions and data transfer to each unit constituting the first image processing apparatus 30 in response to an instruction from the second operation unit 303.
  • the operation of the image processing apparatus 30 is comprehensively controlled.
  • the correction coefficient calculation unit 307 calculates a correction coefficient for correcting a difference in pixel value corresponding to the difference between the spectral sensitivity and the preset reference spectral sensitivity in the target pixel. Calculation is performed for each of the plurality of pixels of the image sensor 105, and the calculated calculation result is recorded in the correction coefficient recording unit 113 b of the imaging device 10.
  • the first bus 306 is configured using a transmission path or the like that connects each component of the first image processing device 30, and various data generated inside the first image processing device 30 are transmitted to each of the first image processing device 30. Transfer to the component.
  • the second image processing apparatus 40 includes a third external I / F unit 401, a second recording unit 402, a second bus 403, a correction amount calculation unit 404, a pixel value correction unit 405, and an image processing unit 406. .
  • the third external I / F unit 401 acquires the correction coefficient from the image data generated by the image sensor 105 and the correction coefficient recording unit 113b via the first external I / F unit 116 of the imaging device 10, respectively.
  • the image data and the correction coefficient are output to the correction amount calculation unit 404 or the second buffer unit 402b.
  • the third external I / F unit 401 and the first external I / F unit 116 are connected via, for example, a control cable or a wireless communication path that can exchange information bidirectionally.
  • the second recording unit 402 is configured using a volatile memory and a non-volatile memory, and the image data input from the imaging device 10, the correction coefficient, various programs for operating the second image processing device 40, and during execution of the program Record various data used.
  • the second recording unit 402 temporarily stores the second program recording unit 402a for driving the second image processing device 40, the image data input from the imaging device 10, the correction coefficient of the target pixel, and the like. It has the 2nd buffer part 402b.
  • the correction amount calculation unit 404 calculates a correction amount for correcting the pixel value of the target pixel based on the correction coefficient of the target pixel recorded by the correction coefficient recording unit 113b and the pixel values of surrounding pixels of the target pixel. . Further, the correction amount calculation unit 404 calculates a correction amount for correcting the pixel value of the target pixel based on the pixel values of the target pixel and surrounding pixels.
  • the surrounding pixels are pixels adjacent to the target pixel or pixels located in the vicinity of the target pixel. Further, the pixel adjacent to the target pixel is a pixel located in the left-right and up-down directions with respect to the target pixel.
  • the pixel located in the vicinity of the target pixel is a pixel located in an oblique direction with respect to the target pixel or a pixel having the same color as the target pixel and closest to the target pixel.
  • the correction amount calculation unit 404 selects and acquires a correction coefficient corresponding to the light source from the correction coefficient recording unit 113b, and calculates a correction amount for correcting the pixel value of the target pixel using the acquired correction coefficient. .
  • the pixel value correction unit 405 corrects the pixel value of the target pixel using the correction amount calculated by the correction amount calculation unit 404.
  • the image processing unit 406 performs predetermined image processing on the image data whose spectral sensitivity variation has been corrected by the pixel value correction unit 405 and outputs the image data to the display device 50.
  • the predetermined image processing includes optical black subtraction processing, white balance adjustment processing, image data synchronization processing, color matrix calculation processing, ⁇ correction processing, color reproduction processing, and the like when the image sensor 105 is a Bayer array.
  • Basic image processing including edge enhancement processing, noise reduction processing, and the like.
  • the image processing unit 406 performs image processing for reproducing a natural image based on preset image processing parameters.
  • the parameters of each image processing are values of contrast, sharpness, saturation, white balance, and gradation. Note that image data that has undergone predetermined image processing may be recorded in the nonvolatile memory 113 or the recording medium 111 via the third external I / F unit 401.
  • the display device 50 displays an image corresponding to the image data input from the second image processing device 40.
  • the display device 50 is configured using a display panel such as liquid crystal or organic EL (Electro Luminescence).
  • the imaging system 1 having the above configuration calculates a correction coefficient for the first image processing device 30 to correct a pixel value difference due to a difference between the spectral sensitivity of each pixel of the imaging element 105 and the reference spectral sensitivity,
  • the two-image processing device 40 calculates a correction amount for correcting the pixel value of the target pixel using the correction coefficient calculated by the first image processing device 30, and the pixel value of the target pixel is calculated using the calculated correction amount.
  • the display device 50 displays an image corresponding to the image data that has been subjected to image processing by the second image processing device 40.
  • FIG. 3 is a diagram illustrating an example of an average of spectral sensitivity characteristics of the R pixel, the G pixel, and the B pixel constituting the image sensor 105.
  • FIG. 4 is a diagram illustrating an example of the spectral sensitivity characteristic of the R pixel.
  • FIG. 5 is a diagram illustrating an example of spectral sensitivity characteristics of the G pixel.
  • FIG. 6 is a diagram illustrating an example of spectral sensitivity characteristics of the B pixel. 3 to 6, the horizontal axis indicates the wavelength, and the vertical axis indicates the relative spectral sensitivity.
  • a curve L B1 shows an average spectral sensitivity characteristic obtained by averaging the spectral sensitivities of a plurality of B pixels
  • a curve L G1 shows an average spectral sensitivity obtained by averaging the spectral sensitivities of a plurality of G pixels.
  • a sensitivity characteristic is shown
  • a curve L R1 shows an average spectral sensitivity characteristic obtained by averaging the spectral sensitivities of a plurality of R pixels.
  • the curve L R2 of FIG. 4 shows an example of the spectral sensitivity characteristics of the R pixel
  • the curve L G2 of FIG. 5 shows an example of the spectral sensitivity characteristic of the G pixel
  • the spectral sensitivity curve L B2 is the B pixel of FIG.
  • the difference in spectral sensitivity means the difference in spectral sensitivity of each pixel with respect to the average spectral sensitivity, and spectral transmission caused by variations in the thickness of each filter in the manufacturing stage of the image sensor 105. This is due to variations in the spectral reflectance and spectral absorptance caused by differences in the rate, differences in circuit patterns and circuit characteristics of the respective pixels, and the like.
  • the average spectral sensitivity characteristic for each of the R, G, and B pixels may be calculated using all the pixels in the image sensor 105, or the target pixel and the surrounding pixels of the same color may be used for the target pixel.
  • An average spectral sensitivity characteristic (that is, a local average spectral sensitivity characteristic) may be calculated.
  • the average spectral sensitivity characteristic for the target pixel may be calculated using peripheral pixels of the same color as the target pixel without including the target pixel.
  • the difference in spectral sensitivity varies depending on the wavelength region.
  • the R pixel as shown by a curve L R1 and a curve L R2 in FIG. 4, a difference occurs in the wavelength region R1 on the shorter wavelength side than the vicinity of 550 nm with respect to the average spectral sensitivity.
  • the G pixel as shown by a curve LG1 and a curve LG2 in FIG. 5, a difference occurs in the wavelength region G1 on the shorter wavelength side near 500 nm and the wavelength region G2 on the longer wavelength side near 600 nm with respect to the average spectral sensitivity.
  • the B pixel as shown by a curve L G1 and a curve L G2 in FIG. 6, a difference occurs in the wavelength region B1 on the longer wavelength side than the vicinity of 550 nm with respect to the average spectral sensitivity.
  • A Pixel having a spectral sensitivity lower than or equal to the average spectral sensitivity in a region where the spectral sensitivity is low
  • b Spectral sensitivity higher or lower than the average spectral sensitivity in the wavelength region where the spectral sensitivity is high or similar Pixels having spectral sensitivity
  • c Pixels having a spectral sensitivity in which the magnitude relationship between the average spectral sensitivity changes or does not change between a wavelength region having a low spectral sensitivity and a wavelength region having a high spectral sensitivity
  • d Regardless of whether the spectral sensitivity is high or low, Pixels having spectral sensitivities that change in magnitude with respect to the average spectral sensitivity
  • variations in spectral sensitivity occur in units of pixels due to variations in the thickness of each color filter in the manufacturing stage.
  • the variation in spectral sensitivity has a small change due to the wavelength, and in this case has a small variation of the same degree at any wavelength.
  • the wavelength region has high spectral sensitivity, variations in pixel values due to random noise are dominant, and variations in spectral sensitivity do not significantly affect image quality.
  • each of the G pixel and the B pixel has a low spectral sensitivity, and therefore the pixel value variation due to random noise is small. Since the variation of the image becomes relatively large, the variation of the spectral sensitivity affects the image quality. Such variations in pixel values due to variations in spectral sensitivity appear as roughness of the image, particularly in a flat subject. Since this roughness depends on the pixel value of the pixel, even if a subject with some unevenness moves, the roughness appears to stop, and thus a sense of incongruity occurs. Accordingly, it is desirable to preferentially correct a wavelength region having a spectral sensitivity lower than that of other color pixels.
  • FIG. 7 is a diagram schematically illustrating pixel values of a plurality of G pixels constituting the image sensor 105 when the image sensor 105 captures a flat red or flat green subject.
  • the horizontal axis indicates the pixel column
  • the vertical axis indicates the pixel value.
  • the straight line MR2 indicates the average value of the pixel values in each G pixel when a flat red subject is photographed, and the pixel value in each G pixel when the straight line MG2 images a flat green subject. The average value is shown.
  • each of random noises RN1, RN2, GN1 and GN2 generated in each G pixel is represented by hatching.
  • six G pixels among the R pixel, G pixel, and B pixel constituting the image sensor 105 will be described as an example.
  • each of the G pixels G1 to G6 has a wavelength region with a low spectral sensitivity, and therefore each color filter in the manufacturing stage is more random than random noise.
  • the pixel values of the G pixels G1 to G6 vary greatly due to the influence of the spectral sensitivity variation due to the thickness variation or the like (see FIG. 7A).
  • each of the G pixels G1 to G6 is a wavelength region having a high spectral sensitivity.
  • the pixel value variation due to random noise is more dominant than the sensitivity variation, and the pixel values of the G pixels G1 to G6 are almost constant (see FIG. 7B).
  • FIG. 8 is a flowchart showing an outline of processing executed by the first image processing apparatus 30, and shows a main routine.
  • a process for calculating a correction coefficient for correcting the spectral sensitivity variation of each pixel executed by the first image processing device 30 will be described.
  • each pixel of the image sensor 105 has one of the RGB color filters 106. Therefore, a correction coefficient for correction using the R pixel value and correction using the G pixel value in each pixel. Correction coefficient and correction coefficient using the B pixel value are calculated. Of course, only some correction coefficients may be calculated.
  • the light source control unit 302 sets ⁇ indicating the wavelength region irradiated by the light source device 20 to 380 nm (step S101).
  • the light source control unit 302 sets 380 nm to 780 nm as the visible light wavelength region, but is not limited to this, and may be another wavelength region such as infrared.
  • the light source control unit 302 sets the wavelength of the illumination light emitted from the light source device 20 to the wavelength ⁇ and irradiates the illumination light (step S102). Thereby, the light source device 20 irradiates the imaging device 10 with illumination light of a single wavelength plane having a wavelength ⁇ as a subject.
  • the first image processing control unit 305 performs imaging processing for imaging the illumination light emitted from the light source device 20 a predetermined number of times and calculating an average value of the pixel values of a plurality of pixels constituting the imaging element 105. 10 is executed (step S103).
  • FIG. 9 is a flowchart showing an outline of the photographing process in step S103 of FIG.
  • the first image processing control unit 305 stores the accumulated value of the pixel value of each pixel corresponding to the image data generated by the image sensor 105 stored in the first buffer unit 304 b of the first recording unit 304.
  • a buffer area for calculating is initialized (step S201).
  • the first image processing control unit 305 sets the counter i to 0 (step S202), and sets the first bus 306, the second external I / F unit 301, the first external I / F unit 116, and the bus 114. Then, the image sensor 105 starts exposure (starts photographing the illumination light emitted by the light source device 20) (step S203), and captures image data from the image sensor 105 (step S204).
  • the first image processing control unit 305 adds the pixel value of each pixel stored in the first buffer unit 304b and the pixel value for each pixel of the latest image data captured from the image sensor 105, and this addition The replaced pixel value is replaced with the pixel value stored in the first buffer unit 304b (step S205).
  • the first image processing control unit 305 divides the pixel value of each pixel stored in the first buffer unit 304b by a predetermined number (for example, 100) of the image data taken in, and the result of the division is the first value.
  • the pixel value for each pixel stored in one buffer unit 304b is replaced (step S208). Thereby, the pixel value for each pixel stored in the first buffer unit 304b becomes an average pixel value.
  • the first image processing control unit 305 may correct the defective pixel when each pixel of the image data captured from the image sensor 105 includes a defective pixel.
  • the first image processing apparatus 30 returns to the main routine of FIG. 8 described above. In the imaging process in FIG. 9, the average pixel value is calculated.
  • the light source control unit 302 sets the wavelength of the illumination light emitted by the light source device 20 by adding 10 nm to the wavelength ⁇ .
  • the light source control unit 302 may be other than 10 nm intervals, for example, 1 nm intervals or 5 nm intervals.
  • the light source control unit 302 may be at intervals of 20 nm or 50 nm.
  • the light source control unit 302 may be, for example, an interval between three wavelength regions of red, green, and blue.
  • step S105: Yes when the wavelength ⁇ of the illumination light irradiated by the light source device 20 is 780 nm or less ( ⁇ ⁇ 780 nm) (step S105: Yes), the first image processing device 30 returns to step S102.
  • step S105: No when the wavelength ⁇ of the illumination light irradiated by the light source device 20 is not 780 nm or less ( ⁇ ⁇ 780 nm) (step S105: No), the first image processing device 30 proceeds to step S106.
  • the correction coefficient calculation unit 307 uses the image data obtained by photographing the subject (illumination light emitted by the light source device 20) from 380 nm to 780 nm stored in the first buffer unit 304b to calculate the spectral sensitivity characteristic for each pixel. Calculate (step S106). At this time, when the radiance of light is not the same from 380 nm to 780 nm, the correction coefficient calculation unit 307 calculates the spectral sensitivity characteristic for each pixel after normalization.
  • the correction coefficient calculation unit 307 uses red, green, and blue image data obtained by photographing a subject (illumination light emitted by the light source device 20) from 380 nm to 780 nm stored in the first buffer unit 304b.
  • a reference spectral sensitivity characteristic is calculated for each color filter (step S107).
  • the correction coefficient calculation unit 307 uses a plurality of pieces of image data obtained by photographing a subject (illumination light emitted by the light source device 20) from 380 nm to 780 nm stored in the first buffer unit 304b.
  • any one of the red, green, and blue color filters is calculated by a statistical method such as an average value, a maximum value, a minimum value, a median value, and a mode value of the spectral sensitivity characteristics.
  • an average value of spectral sensitivity characteristics of each of the red, green, and blue color filters will be described as a reference spectral sensitivity characteristic.
  • the correction coefficient calculation unit 307 is arranged for each pixel of interest around the pixel of interest.
  • the reference spectral sensitivity may be calculated using the spectral sensitivity characteristics of the same color pixels.
  • the correction coefficient calculation unit 307 executes a correction coefficient calculation process for calculating a correction coefficient for correcting the spectral sensitivity characteristic for each pixel of the image sensor 105 (step S108).
  • FIG. 10 is a flowchart showing an outline of the correction coefficient calculation process in step S108 of FIG.
  • the correction coefficient calculation unit 307 determines the wavelength region of each color based on the reference spectral sensitivity characteristic (step S301). Specifically, as shown in FIG. 11, the correction coefficient calculation unit 307 calculates each of the B wavelength region of the filter B, the G wavelength region of the filter G, and the R wavelength region of the filter R based on the reference spectral sensitivity characteristic. decide. For example, in the case shown in FIG. 11, the correction coefficient calculation unit 307 determines the B wavelength region as 380 nm to 500 nm, the G wavelength region as 500 nm to 600 nm, and the R wavelength region as 600 nm to 780 nm.
  • the correction coefficient calculation unit 307 may determine each wavelength region of the B wavelength region, the G wavelength region, and the R wavelength region so that a part of the wavelength regions overlap. Conversely, the correction coefficient calculation unit 307 may determine each wavelength region such that a part of the wavelength region does not correspond to any wavelength region.
  • the wavelength region of each color may be determined in advance based on the design value of the spectral sensitivity characteristic.
  • the correction coefficient calculation unit 307 calculates the pixel value of each pixel based on the spectral sensitivity characteristics of each pixel (step S302). Specifically, the correction coefficient calculation unit 307 calculates a cumulative value of spectral sensitivity characteristics of pixels in a wavelength region of the same color as each pixel, and calculates the value as a pixel value. This pixel value corresponds to a pixel value when a subject (illumination light) having a rectangular spectral characteristic in which the characteristic of only the wavelength region of the same color is 1 and the characteristic of the other wavelength region is 0 is exposed.
  • the correction coefficient calculation unit 307 performs weighted addition according to the spectral characteristics of the subject, thereby exposing the subject. A value corresponding to the pixel value may be obtained.
  • the correction coefficient calculation unit 307 interpolates using the pixel value of a different color pixel that has a filter different from the filter color of the target pixel around the target pixel, so that the different color of the target pixel is different from that of the pixel.
  • a pixel value is estimated (step S303). Specifically, when the target pixel is a G pixel, the correction coefficient calculation unit 307 calculates pixel values in the R wavelength region and the B wavelength region that are different colors. In step S303, the correction coefficient calculation unit 307 estimates an average pixel value of the same color as the pixel by performing interpolation using a peripheral pixel value having the same filter as the filter color of the target pixel. Specifically, when the target pixel is a G pixel, the correction coefficient calculation unit 307 calculates an average pixel value in the G wavelength region.
  • FIG. 11 is a diagram schematically showing the spectral characteristics when calculating the correction coefficient when normal light is used.
  • FIG. 12 is a diagram schematically showing the spectral characteristics when calculating the correction coefficient when narrow band light is used. 11 and 12, the horizontal axis indicates the wavelength, and the vertical axis indicates the relative spectral sensitivity.
  • the normal light is light of visible light irradiated by a light source of a tungsten lamp or a xenon lamp, or light of natural light such as sunlight, and light whose spectral characteristics continuously change.
  • Narrowband light is light emitted by a light source such as a fluorescent lamp, an LED (Light Emitting Diode) lamp or a laser light source, or a light source having a filter that passes a part of the wavelength range, and has a discrete spectral characteristic.
  • a light source such as a fluorescent lamp, an LED (Light Emitting Diode) lamp or a laser light source, or a light source having a filter that passes a part of the wavelength range, and has a discrete spectral characteristic.
  • the light having discrete spectral characteristics includes light having strong intensity in some wavelength ranges and extremely weak intensity in other wavelength ranges.
  • the correction coefficient calculation unit 307 when using normal light (other than narrowband light) at the time of shooting, has a pixel value of an R wavelength region that is a color different from the target pixel when the target pixel is a G pixel.
  • the pixel value Sb1 of Sr1 and the B wavelength region, and the average pixel value Sg1 of the G wavelength region which is the same color as the target pixel the different color pixel value of the color different from the target pixel and the target pixel in the target pixel Estimate the average pixel value of the same color. Also, as shown in FIG.
  • the correction coefficient calculation unit 307 when using narrowband light at the time of shooting, when the pixel of interest is a G pixel, the pixel value Sr2 of the R wavelength region and the B wavelength region of different colors. By calculating the pixel value Sb2 and the average pixel value Sg2 in the G wavelength region which is the same color as the target pixel, the different pixel value of the color different from the target pixel and the average pixel value of the same color as the target pixel in the target pixel Is estimated. Under the situation shown in FIG. 12, the correction coefficient calculation unit 307 sets the width of each of the R wavelength region, the G wavelength region, and the B wavelength region to be narrow in accordance with the main wavelength region of the narrowband light to be used.
  • the correction coefficient calculation unit 307 calculates the correction amount executed by the second image processing apparatus 40 described later for the interpolation method of the pixel value Sb1, the pixel value Sb2, the pixel value Sr1, and the pixel value Sr2. It is preferable to use the same interpolation method used in the processing. Similarly, it is preferable that the calculation method of each of the average pixel value Sg1 and the average pixel value Sg2 is the same as the interpolation method used in the correction amount calculation process executed by the second image processing device 40 described later. For this reason, interpolation methods for the pixel value Sb1, the pixel value Sb2, the pixel value Sg1, the pixel value Sg2, the pixel value Sr1, and the pixel value Sr2 will be described later.
  • the correction coefficient calculation unit 307 calculates an error amount in a wavelength region of a color different from that of each pixel (step S304). Specifically, in the case illustrated in FIG. 11, the correction coefficient calculation unit 307 calculates the difference between the spectral sensitivity characteristic and the reference spectral sensitivity characteristic in each pixel by a value accumulated in each wavelength region. For example, as shown by the curves L G1 and L G2 in FIG. 11, when the target pixel is a G pixel, the correction coefficient calculation unit 307 determines the difference between the curve L G2 and the curve L G1 as the R wavelength region and the G wavelength region.
  • the values accumulated in each of the B wavelength regions are calculated as an error amount ⁇ r1, an error amount ⁇ g1, and an error amount ⁇ b1.
  • the correction coefficient calculation unit 307 calculates the difference between the curve L G1 and the curve L G2 as R.
  • the values accumulated in each of the wavelength region, the G wavelength region, and the B wavelength region are calculated as an error amount ⁇ r2, an error amount ⁇ g2, and an error amount ⁇ b2.
  • the error amount is a positive value when the spectral sensitivity characteristic is larger (higher) than the reference spectral sensitivity characteristic, and a negative value when the spectral sensitivity characteristic is smaller (lower).
  • the correction coefficient calculation unit 307 calculates the correction coefficient for each pixel by dividing the error amount by the different color pixel value or the average pixel value estimated for each pixel (step S305). For example, in the case illustrated in FIG. 11, when the target pixel is a G pixel, the correction coefficient calculation unit 307 calculates the error amount in the R wavelength region calculated in Step S304 described above and the pixel in the R wavelength region estimated in Step 303 described above. The value divided by the value ( ⁇ r1 / Sr1) is used as the R component correction coefficient, and the error amount calculated in step S304 described above is divided by the average pixel value in the G wavelength region estimated in step 303 described above.
  • ( ⁇ g1 / Sg1) is a G component correction coefficient.
  • the correction coefficient calculation unit 307 calculates correction coefficients for other colors, for example, R pixels and B pixels in the same manner.
  • step S109 the correction coefficient calculation unit 307 records the calculated correction coefficient in each pixel of the image sensor 105 in the correction coefficient recording unit 113b of the imaging apparatus 10 as the correction coefficient of the pixel.
  • the correction coefficient calculation unit 307 records the calculated correction coefficient in each pixel of the image sensor 105 in the correction coefficient recording unit 113b of the imaging apparatus 10 as the correction coefficient of the pixel.
  • the correction coefficient calculation unit 307 performs correction in accordance with light emitted from the light emitting unit (light irradiated to the subject).
  • the narrower the emitted light the more likely it is to vary from normal light such as natural light. Therefore, the correction coefficient calculation unit 307 records a correction coefficient corresponding to each type of light source used at the time of shooting in the correction coefficient recording unit 113b.
  • the correction coefficient calculation unit 307 records the type of the light source used at the time of photographing in association with the correction coefficient in the correction coefficient recording unit 113b.
  • the correction coefficient calculation unit 307 records information indicating that the light is normal light and the correction coefficient calculated as illustrated in FIG.
  • step S109 the first image processing apparatus 30 ends this process.
  • the first image processing apparatus 30 is based on image data generated by the image sensor 105 in which a plurality of color filters having different spectral transmittances are arranged on a light receiving surface of each of a plurality of pixels in a predetermined pattern. Then, a correction coefficient for correcting the difference between the spectral sensitivity of the pixel of interest in the image data and the preset reference spectral sensitivity based on the difference in pixel value is calculated for each pixel. As a result, a correction coefficient for correcting variation in spectral sensitivity of each of the plurality of pixels constituting the image sensor 105 can be calculated for each pixel.
  • FIG. 13 is a flowchart showing an outline of processing executed by the second image processing apparatus 40, and shows a main routine.
  • the correction amount calculation unit 404 acquires the image data generated by the imaging element 105 and the correction coefficient recorded by the correction coefficient recording unit 113b from the imaging device 10, and the target pixel in the acquired image data.
  • a correction amount calculation process for calculating the correction amount of the pixel value is executed (step S401). The outline of the correction amount calculation process will be described later.
  • the pixel value correction unit 405 corrects the pixel value of each pixel by subtracting the correction amount of each pixel calculated by the correction amount calculation unit 404 (step S402). After step S402, the second image processing apparatus 40 ends this process.
  • FIG. 14 is a flowchart showing an outline of the correction amount calculation process.
  • the correction amount calculation unit 404 first determines the pixel position in the height direction (vertical direction) of the image corresponding to the image data stored in the second buffer unit 402b of the second recording unit 402.
  • step S503: Yes when correcting the spectral sensitivity variation in the R wavelength region with respect to the target pixel at the coordinates (x, y) in the image data (step S503: Yes), the correction amount calculation unit 404 proceeds to step S504 described later. To do.
  • step S503: No when the spectral sensitivity variation in the R wavelength region is not corrected for the target pixel at the coordinates (x, y) (step S503: No), the correction amount calculation unit 404 proceeds to step S505 described later. .
  • step S504 the correction amount calculation unit 404 executes an R component correction amount calculation process for calculating an R component correction amount.
  • the R component is a pixel value in the R wavelength region.
  • FIG. 15 is a flowchart showing an outline of the R component correction amount calculation processing in step S504 described above.
  • the correction amount calculation unit 404 acquires the pixel values of the surrounding R pixels in the target pixel at coordinates (x, y) from the second buffer unit 402 b (step S ⁇ b> 601).
  • the correction amount calculation unit 404 estimates the pixel value of the R component at the target pixel at the coordinates (x, y) by performing interpolation using the pixel values of the surrounding R pixels acquired in step S601 (step S601). S602).
  • the interpolation method performed by the correction amount calculation unit 404 is a pixel of R pixels around the target pixel according to the filter color of the target pixel at coordinates (x, y).
  • the pixel value of the R component at the target pixel at coordinates (x, y) is estimated by taking the average value. Specifically, as shown in FIG.
  • the correction amount calculation unit 404 determines the pixel value of the R pixel in the four diagonal directions when the filter color of the pixel of interest at the coordinates (x, y) is a blue B pixel.
  • the average value (see FIG. 16A) is estimated as the pixel value of the R component at the pixel of interest at coordinates (x, y) and the filter color at the pixel of interest at coordinates (x, y) is a green G pixel
  • An average value (see FIGS. 16B and 16C) of the R pixels to be estimated is estimated as a pixel value of the R component in the target pixel at coordinates (x, y).
  • the correction amount calculation unit 404 calculates an average value (see FIG. 16D) of four R pixel values of two pixels in the vertical and horizontal directions as coordinates (x, This is estimated as the average pixel value of the R component in the target pixel of y).
  • the correction amount calculation unit 404 may calculate an average value including the target pixel as an average pixel value of the R component.
  • the weighted average value may be calculated, for example, by detecting the edge direction and increasing the weight of the pixel value in the edge direction.
  • step S603: Yes the correction amount calculation unit 404 proceeds to step S604 described later.
  • step S605 the correction amount calculation unit 404 proceeds to step S605 described later.
  • the determination of the light source may be selected from a menu, for example, or the correction amount calculation unit 404 may determine based on the color distribution of the image corresponding to the image data. Further, the correction amount calculation unit 404 may directly acquire information on an external light source.
  • the correction amount calculation unit 404 is a narrowband light within a range where the light emitted from the LED lamp reaches in the case of the mixed light in which the normal light and the narrowband light are mixed (for example, light from the LED lamp + normal light). May be selected with priority, while normal light may be selected in other ranges.
  • the correction amount calculation unit 404 detects whether or not a plurality of light sources are reflected in each of a plurality of pixels constituting the image corresponding to the image data, and uses mixed light according to the detection result. After determining whether there is a narrowband light correction coefficient or normal light correction coefficient for each pixel, the narrowband light correction coefficient and normal light correction coefficient for each pixel according to the mixing ratio of the mixed light May be mixed.
  • step S604 the correction amount calculation unit 404 acquires the correction coefficient of the R component in the target pixel at coordinates (x, y) corresponding to the light source of the narrow band light from the second buffer unit 402b. After step S604, the correction amount calculation unit 404 proceeds to step S606 described below.
  • step S605 the correction amount calculation unit 404 acquires the R component correction coefficient for the target pixel at coordinates (x, y) according to the normal light from the second buffer unit 402b. After step S605, the correction amount calculation unit 404 proceeds to step S606 described below.
  • the correction amount calculation unit 404 has the pixel value of the R pixel in the target pixel at the coordinates (x, y) estimated in step S602 described above (or the average pixel value of the R component when the target pixel is the R pixel). Is multiplied by the R component correction coefficient at the pixel of interest at coordinates (x, y) to calculate the correction amount of the R component for the pixel value at the pixel of interest at coordinates (x, y) (step S606). After step S606, the correction amount calculation unit 404 returns to the correction amount calculation process of FIG.
  • step S505 when correcting the spectral sensitivity variation in the G wavelength region for the pixel of interest at the coordinates (x, y) (step S505: Yes), the correction amount calculation unit 404 proceeds to step S506 described later. On the other hand, when the spectral sensitivity variation in the G wavelength region is not corrected for the target pixel at the coordinates (x, y) (step S505: No), the correction amount calculation unit 404 proceeds to step S507 described later. .
  • step S506 the correction amount calculation unit 404 executes a G component correction amount calculation process for calculating a G component correction amount.
  • the G component is a pixel value in the G wavelength region.
  • FIG. 17 is a flowchart showing an overview of the G component correction amount calculation processing in step S506 described above.
  • the correction amount calculation unit 404 acquires the pixel values of the surrounding G pixels in the target pixel at coordinates (x, y) from the second buffer unit 402 b (Step S ⁇ b> 701).
  • the correction amount calculation unit 404 estimates the pixel value of the G component at the target pixel at coordinates (x, y) by performing interpolation using the pixel values of the surrounding G pixels acquired in step S701 (step S701). S702). For example, as shown in FIGS. 18A to 18D, the correction amount calculation unit 404 averages the pixel values of the upper, lower, left, and right G pixels when the filter color of the target pixel at coordinates (x, y) is a red R pixel. When the value (see FIG.
  • the filter color at the pixel of interest at coordinates (x, y) is a blue B pixel, up, down, left and right
  • the average value of the pixel values of the G pixels is estimated as the pixel value of the G component in the target pixel at coordinates (x, y).
  • the correction amount calculation unit 404 calculates the average value of the G pixel values in the four oblique directions (see FIGS. 18C and 18D) as coordinates (x, y). Is estimated as the average pixel value of the G component in the target pixel.
  • the correction amount calculation unit 404 may calculate an average value including the target pixel as an average pixel value of the G component. Further, the correction amount calculation unit 404 may calculate an average value subjected to weighting, for example, by detecting the edge direction and increasing the weight of the pixel value in the edge direction.
  • step S703: Yes when shooting is performed by irradiating the subject with narrow band light (step S703: Yes), the correction amount calculation unit 404 proceeds to step S704 to be described later.
  • step S703: No when photographing is performed without irradiating the subject with narrowband light (step S703: No), the correction amount calculation unit 404 proceeds to step S705 described later.
  • step S704 the correction amount calculation unit 404 acquires a correction coefficient for the G component (pixel value in the G wavelength region) in the target pixel at coordinates (x, y) corresponding to the light source of the narrowband light from the second buffer unit 402b. To do. After step S704, the correction amount calculation unit 404 proceeds to step S706 described below.
  • step S705 the correction amount calculation unit 404 acquires the G component correction coefficient for the target pixel at coordinates (x, y) according to the normal light from the second buffer unit 402b. After step S705, the correction amount calculation unit 404 proceeds to step S706 described below.
  • the correction amount calculation unit 404 has a pixel value of the G component at the target pixel at the coordinates (x, y) estimated in step S702 described above (or an average pixel value of the G component when the target pixel is a G pixel). Is multiplied by the G component correction coefficient for the pixel of interest at coordinates (x, y) to calculate the G component correction amount for the pixel value of the pixel of interest at coordinates (x, y) (step S706). After step S706, the correction amount calculation unit 404 returns to the correction amount calculation process of FIG.
  • step S507 when correcting the spectral sensitivity variation in the B wavelength region with respect to the pixel of interest at the coordinates (x, y) (step S507: Yes), the correction amount calculation unit 404 proceeds to step S508 described later. On the other hand, when the spectral sensitivity variation in the B wavelength region is not corrected for the target pixel at the coordinates (x, y) (step S507: No), the correction amount calculation unit 404 proceeds to step S509 described later. .
  • step S508 the correction amount calculation unit 404 executes a B component correction amount calculation process for calculating the correction amount of the B component.
  • the B component is a pixel value in the B wavelength region.
  • FIG. 19 is a flowchart showing an outline of the B component correction amount calculation processing in step S508 described above.
  • the correction amount calculation unit 404 acquires the pixel values of the surrounding B pixels in the target pixel at coordinates (x, y) from the second buffer unit 402 b (Step S ⁇ b> 801).
  • the correction amount calculation unit 404 estimates the pixel value of the B component in the target pixel at the coordinates (x, y) by performing interpolation using the pixel values of the surrounding B pixels acquired in step S801 (step S801). S802). For example, as shown in FIGS. 20A to 20D, when the filter color of the target pixel at coordinates (x, y) is a green G pixel, the correction amount calculation unit 404 calculates the pixel values of the upper and lower or left and right B pixels. The average value (see FIG. 20A and FIG.
  • the correction amount calculation unit 404 calculates an average value (see FIG. 20D) of four B pixel values of a distance of two pixels in the vertical and horizontal directions (see FIG. 20D). This is estimated as the average pixel value of the B component in the target pixel of y).
  • the correction amount calculation unit 404 may calculate an average value including the target pixel as an average pixel value of the B component. Further, the correction amount calculation unit 404 may calculate an average value subjected to weighting, for example, by detecting the edge direction and increasing the weight of the pixel value in the edge direction.
  • step S803: Yes the correction amount calculation unit 404 proceeds to step S804 described later.
  • step S804: No the correction amount calculation unit 404 proceeds to step S805 described later.
  • step S804 the correction amount calculation unit 404 acquires the correction coefficient for the B component at coordinates (x, y) corresponding to the light source of the narrow band light from the second buffer unit 402b. After step S804, the correction amount calculation unit 404 proceeds to step S806 described below.
  • step S805 the correction amount calculation unit 404 acquires the correction coefficient for the B component at coordinates (x, y) corresponding to the normal light from the second buffer unit 402b. After step S805, the correction amount calculation unit 404 proceeds to step S806 described below.
  • the correction amount calculation unit 404 calculates the pixel value of the B component at the target pixel at the coordinates (x, y) estimated in step S802 described above (or the average pixel value of the B component when the target pixel is a B pixel). Is multiplied by the B component correction coefficient for the pixel of interest at coordinates (x, y) to calculate the correction amount of the B component for the pixel value of the pixel of interest at coordinates (x, y) (step S806). After step S806, the correction amount calculation unit 404 returns to the correction amount calculation process in FIG.
  • step S509 the correction amount calculation unit 404 calculates the sum of the correction amount (the correction amount of the component that has not been calculated is 0) in the target pixel at the coordinates (x, y) calculated in steps S503 to S508 described above. , And the correction amount of the target pixel at coordinates (x, y).
  • step S511: Yes the correction amount calculation unit 404 returns to step S503.
  • step S511: No the correction amount calculation unit 404 proceeds to step S512.
  • step S513: Yes the correction amount calculation unit 404 returns to step S502.
  • step S513: No the correction amount calculation unit 404 returns to the main routine of FIG.
  • the correction amount calculation unit 404 acquires the correction coefficient recorded by the correction coefficient recording unit 113b of the imaging device 10, and the acquired correction coefficient and the pixels of the surrounding pixels in the target pixel. Based on the value, a correction amount for correcting the pixel value of the target pixel is calculated, and the pixel value correction unit 405 corrects the pixel value of the target pixel using the correction amount calculated by the correction amount calculation unit 404. .
  • variation in the spectral sensitivity of each of the some pixel which comprises the image pick-up element 105 can be correct
  • the second image processing apparatus 40 corrects the pixel values of the R pixel, the G pixel, and the B pixel, but may correct only the pixel value of the R component of the G pixel, for example.
  • the second image processing apparatus 40 is different from the filter in the target pixel because the wavelength range having a relatively low spectral sensitivity is more affected by the spectral sensitivity variation than the relatively high wavelength range. Only the color wavelength region may be corrected. In that case, if the target pixel is not the R pixel in step S503, it is determined Yes. In step S505, it is determined that the target pixel is not the G pixel. In step S507, if the target pixel is not the B pixel, Yes. It may be determined that. By doing in this way, the amount of calculations can be reduced compared with the above.
  • the correction coefficient calculation unit 307 is provided with any one of the color filters 106 having the different spectral transmittances on the light receiving surfaces of the plurality of pixels. For each of the plurality of pixels, a correction coefficient for correcting the difference in pixel value due to the difference between the spectral sensitivity and the preset reference spectral sensitivity in the target pixel is calculated for the image data generated by the imaging element 105. A correction coefficient for correcting the variation in spectral sensitivity of each of the plurality of pixels constituting the image sensor 105 for each pixel can be efficiently calculated.
  • the correction coefficient calculation unit 307 corrects the variation in spectral sensitivity appropriate for each pixel according to the light source by changing the detection method according to the light source used at the time of shooting.
  • a correction coefficient can be calculated.
  • the correction amount calculation unit 404 uses the correction coefficient in the target pixel recorded by the correction coefficient recording unit 113b and the pixel value of the surrounding pixels in the target pixel. Since the pixel value correction unit 405 corrects the pixel value of the pixel of interest based on the correction amount calculated by the correction amount calculation unit 404, the spectral sensitivity for each pixel is calculated. It is possible to correct a difference in pixel values caused by variations in the number of pixels.
  • the correction amount calculation unit 404 acquires the correction coefficient corresponding to the light source used at the time of shooting from the correction coefficient recording unit 113b, so that the pixel of the appropriate target pixel according to the light source A value correction amount can be calculated.
  • the imaging device 10 and the first image processing device 30 are provided separately, but the first image processing device 30 may be provided in the imaging device 10.
  • the imaging device 10 and the second image processing device 40 are provided separately, but the second image processing device 40 may be provided in the imaging device 10.
  • the imaging system according to the second embodiment has the same configuration as the imaging system 1 according to the first embodiment described above, and the processing executed by the first image processing apparatus is different.
  • the light source device 20 as a subject irradiates normal light or light of a specific wavelength.
  • each wavelength of red, green, and blue The light source device 20 is irradiated with the light of the area. Therefore, a process executed by the second image processing apparatus according to the second embodiment will be described.
  • symbol is attached
  • FIG. 21 is a flowchart showing an outline of processing executed by the first image processing apparatus 30, and shows a main routine.
  • processing for calculating a correction coefficient for correcting the spectral sensitivity of each pixel executed by the first image processing device 30 will be described.
  • the light source control unit 302 sets the wavelength region of light (subject) irradiated by the light source device 20 to a red wavelength region, and irradiates illumination light as a subject of a red uniform subject (step S901). .
  • the light source control unit 302 sets the wavelength region of light emitted from the light source device 20 to 600 nm to 780 nm, and the spectral radiance is set to other wavelength regions.
  • a higher uniform red light is emitted as a subject.
  • the light source control unit 302 may irradiate the light source device 20 with narrowband light having a wavelength region narrower than the wavelength region of 600 nm to 780 nm.
  • the first image processing device 30 shoots the red illumination light emitted from the light source device 20 to the imaging device 10 a plurality of times and calculates an average value of the pixel values of each pixel constituting the imaging device 105. Is executed (step S902).
  • the imaging process is the same as the above-described imaging process of FIG.
  • the light source control unit 302 sets the wavelength region of the light emitted from the light source device 20 to the green wavelength region and causes the light to irradiate (step S903). Specifically, as shown by a curve LG10 in FIG. 23, the light source control unit 302 sets the wavelength region of light emitted from the light source device 20 to 500 nm to 600 nm, and the spectral radiance is set to other wavelength regions. Compared to the image capturing apparatus 10, a higher uniform green light is emitted as a subject. Incidentally, as shown by the curve L G11 in FIG. 23, the light source control unit 302, a narrow narrow-band light wavelength region than the wavelength region 500 nm ⁇ 600 nm may be irradiated to the light source device 20.
  • the first image processing device 30 shoots the green illumination light emitted from the light source device 20 onto the imaging device 10 a plurality of times, and calculates an average value of the pixel values of each pixel constituting the imaging device 105. Is executed (step S904).
  • the imaging process is the same as the above-described imaging process of FIG.
  • the light source control unit 302 sets the wavelength region of the light emitted from the light source device 20 to the blue wavelength region for irradiation (step S905). Specifically, as shown by a curve L B10 in FIG. 24, the light source control unit 302 sets the wavelength region of light emitted from the light source device 20 to 380 nm to 500 nm, and the spectral radiance is set to another wavelength region. Compared to the image pickup apparatus 10, a higher uniform blue light is irradiated as a subject. Note that, as indicated by a curve LB11 in FIG. 24, the light source control unit 302 may irradiate the light source device 20 with narrowband light having a narrower wavelength region than the wavelength region of 380 nm to 500 nm.
  • the first image processing device 30 shoots the blue illumination light emitted from the light source device 20 to the imaging device 10 a plurality of times and calculates an average value of the pixel values of each pixel constituting the imaging device 105. Is executed (step S906).
  • the imaging process is the same as the above-described imaging process of FIG.
  • the correction coefficient calculation unit 307 calculates a neighborhood average value of the pixel of interest at the coordinate (x, y) using surrounding pixels of the same color as the pixel of interest at the coordinate (x, y) and the color filter ( Step S909). Specifically, the correction coefficient calculation unit 307 calculates the neighborhood average value of the pixel of interest at coordinates (x, y) using the surrounding pixels of the pixel that has captured illumination light of a color different from the color of the pixel of interest. For example, as shown in FIGS.
  • the correction coefficient calculation unit 307 target when the pixel is the G pixel, the image P B respectively obtained by imaging a red image P R and the blue illumination light imaging illumination light Are used to calculate the neighborhood average value R and neighborhood average value B for the pixel of interest at coordinates (x, y).
  • the surrounding pixels are pixels included in a 5 ⁇ 5 range centering on the target pixel, and are pixels of the same color as the target pixel excluding the target pixel.
  • the correction coefficient calculation unit 307 is a pixel included in a range of other sizes such as 3 ⁇ 3 or 7 ⁇ 7 centered on the pixel of interest, and a neighborhood average value R using surrounding pixels excluding the pixel of interest. Further, each of the neighborhood average values B may be calculated.
  • the correction coefficient calculation unit 307 is a pixel included in a size range of 3 ⁇ 3, 5 ⁇ 5, 7 ⁇ 7, and the like centering on the pixel of interest, and is a neighborhood average using surrounding pixels including the pixel of interest. Each of the value R and the neighborhood average value B may be calculated.
  • the correction coefficient calculation unit 307 is a pixel around the target pixel at the coordinate (x, y) in the image obtained by capturing illumination light of a color different from that of the target pixel at the coordinate (x, y), and the subject and By interpolating using the pixel values of the same color pixels, the different color pixel value at the target pixel at the coordinates (x, y) is estimated (step S910).
  • the surrounding pixels are pixels located adjacent to the target pixel or pixels near the target pixel. Specifically, as shown in FIGS.
  • the correction coefficient calculation unit 307 the coordinates (x, y) if the pixel of interest is a G pixel, the coordinates of the image P R of the captured red illumination light
  • the image P B obtained by imaging the blue illumination light by estimating the different color pixel value (R) of the R pixel at the target pixel at coordinates (x, y) using the surrounding R pixels at the target pixel at (x, y).
  • a different color pixel value (B) of the B pixel at the target pixel at coordinates (x, y) is estimated using the surrounding B pixels at the target pixel at coordinates (x, y).
  • the correction coefficient calculation unit 307 calculates the neighborhood average value of the pixel of interest at the coordinate (x, y) calculated in step S909 and the pixel value of the pixel of interest at the coordinate (x, y) in the image for which the neighborhood average value is calculated. Is calculated as an error amount (step S911).
  • the error amount is a positive value when the pixel value of the pixel of interest at the coordinates (x, y) is larger than the neighborhood average value, and a negative value when the pixel value is smaller.
  • the correction coefficient calculation unit 307 calculates the correction coefficient by dividing the error amount in the target pixel at the coordinates (x, y) calculated in step S911 described above by the different color pixel value estimated in step S910 (step S910). S912). Specifically, when the target pixel is a G pixel, the correction coefficient calculation unit 307 calculates an error amount calculated from an image obtained by capturing red illumination light from the same image as a pixel value of an R pixel around the target pixel.
  • step S914: Yes the correction coefficient calculation unit 307 returns to step S909.
  • step S914: No the correction coefficient calculation unit 307 proceeds to step S915.
  • step S916: Yes the correction coefficient calculation unit 307 returns to step S908.
  • step S916: No the correction coefficient calculation unit 307 proceeds to step S917.
  • the correction coefficient calculation unit 307 records the correction coefficient calculated in the wavelength region other than the same wavelength region as that of the color filter 106 in each pixel of the image sensor 105 as the correction coefficient of the pixel in the first recording unit 304. (Step S917).
  • the correction coefficient calculation unit 307 calculates correction coefficients calculated in the wavelength regions of B and G, respectively.
  • the correction coefficient calculated in the wavelength region is a B pixel
  • the correction coefficient calculated in each of the R and G wavelength regions is recorded in the correction coefficient recording unit 113b of the imaging device 10 as the correction coefficient of the pixel.
  • the second image processing apparatus 40 ends this process.
  • the correction coefficient calculation unit 307 corrects the variation in spectral sensitivity for each pixel by irradiating light in the wavelength regions of red, green, and blue as subjects.
  • the correction coefficient can be easily calculated.
  • the correction coefficient calculation unit 307 calculates the neighborhood average value using the pixel values of the pixels around the target pixel, and calculates the neighborhood average value and the pixel value of the target pixel. Based on this, a correction coefficient for correcting variation in spectral sensitivity is calculated for each pixel, so that the correction coefficient can be calculated with high accuracy even if there is some unevenness in the subject.
  • the correction amount calculation unit 404 calculates the correction amount for a part of colors in the predetermined wavelength region, so that the calculation amount is reduced while visually maintaining the correction effect.
  • a correction amount can be calculated.
  • the correction coefficient of the color component of the target pixel is set similarly. It may be calculated.
  • the correction coefficient calculation unit 307 calculates the neighborhood average value of the target pixel from the pixel values of surrounding pixels having the same color filter as the target pixel, based on the image obtained by imaging the illumination light of the same color as the target pixel.
  • the difference between the neighborhood average value and the pixel value of the target pixel is calculated as an error amount, and the correction amount of the color component of the target pixel may be calculated by dividing the error amount by the neighborhood average value of the target pixel.
  • the imaging device 10 the first image processing device 30, and the second image processing device 40 are individually provided.
  • the first imaging device 10 is included in the first imaging device.
  • An image processing apparatus and a second image processing apparatus are provided.
  • the imaging system according to the third embodiment will be described below.
  • symbol is attached
  • FIG. 26 is a block diagram schematically showing the configuration of the imaging apparatus according to Embodiment 3 of the present invention.
  • the imaging device 10a illustrated in FIG. 26 is disposed in the housing 100 when calculating the correction coefficient, and is disposed outside the housing 100 during normal shooting.
  • the imaging device 10a is connected to the light source device 20 via a communication cable or the like.
  • the imaging apparatus 10a includes a light source control unit 302a, a first image processing unit 60, a second image processing unit 70, and a third image processing unit 80. And a display unit 90.
  • the first image processing unit 60 includes a random noise removing unit 501 and a correction coefficient calculating unit 307.
  • the random noise removing unit 501 removes random noise from the image data generated by the image sensor 105 and outputs the removed image data to the correction coefficient calculating unit 307.
  • the random noise removing unit 501 removes random noise generated for each of a plurality of pixels constituting an image corresponding to image data using a known technique.
  • the second image processing unit 70 includes a random noise removing unit 502, a correction amount calculating unit 404, and a pixel value correcting unit 405.
  • the random noise removal unit 502 has the same function as the random noise removal unit 501 described above, removes random noise from the image data generated by the image sensor 105, and outputs the removed image data to the correction amount calculation unit 404. To do.
  • the third image processing unit 80 has a function similar to that of the image processing unit 406 described above.
  • the third image processing unit 80 performs predetermined image processing on the image data in which the pixel value correction unit 405 has corrected the pixel value, and performs this image processing.
  • the performed image data is output to the display unit 90.
  • the display unit 90 displays various information related to the imaging device 10a and an image corresponding to the image data.
  • the display unit 90 is configured using a display panel such as liquid crystal or organic EL.
  • the first image processing unit 60 and the second image processing unit 70 execute the same processing as in the first and second embodiments described above. Specifically, the first image processing unit 60 executes a process for calculating a correction coefficient, and the second image processing unit 70 executes a process for correcting the correction amount.
  • the color filter 106 according to the first to third embodiments of the present invention is a Bayer array color filter composed of an R filter, a G filter, and a B filter, but the present invention can be applied to other color filters. can do.
  • a color filter constituted by a complementary color Mg (magenta) filter, G filter, and B filter instead of the R filter of the color filter 106 according to the first to third embodiments described above. 106a may be used.
  • a color filter 106b in which each of the R filter, the G filter, and the B filter is arranged obliquely may be used. In the situation shown in FIG.
  • each pixel of the image sensor is also arranged obliquely. Furthermore, as shown in FIG. 29, in the present invention, a color filter of a complementary color filter using a Cy (cyan) filter, an Mg filter, and a Ye (yellow) filter may be used. When the color filter 106c shown in FIG. 29 is used, an interpolation method for interpolating from a complementary color to a primary color may be performed.
  • a plurality of color filters having different spectral transmittances are provided in one image sensor. For example, only a G filter that transmits a green wavelength region is provided for each pixel.
  • the present invention can also be applied to a two-plate imaging device.
  • the correction coefficient and correction of the present invention are used by using the pixel value of the R pixel or B pixel of the other image sensor corresponding to the coordinates of the G pixel.
  • the amount can be calculated.
  • the present invention is not limited to the above-described embodiment, and various modifications and applications are possible within the scope of the gist of the present invention.
  • imaging that captures a subject through an optical device such as a portable device, video camera, endoscope, surveillance camera, or microscope equipped with an imaging device in a mobile phone or smartphone
  • the present invention can be applied to any device that can image a subject such as a device.
  • each processing method by the image processing apparatus in the above-described embodiment can be stored as a program that can be executed by a control unit such as a CPU.
  • a control unit such as a CPU.
  • memory cards ROM cards, RAM cards, etc.
  • magnetic disks floppy disks, hard disks, etc.
  • optical disks CD-ROM, DVD, etc.
  • storage media of external storage devices such as semiconductor memories, etc. are distributed. be able to.
  • a control unit such as a CPU reads the program stored in the storage medium of the external storage device, and the operation described above can be executed by the operation being controlled by the read program.
  • the present invention is not limited to the above-described embodiments and modifications as they are, and in the implementation stage, the constituent elements can be modified and embodied without departing from the spirit of the invention.
  • Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some constituent elements may be deleted from all the constituent elements described in the above-described embodiments and modifications. Furthermore, you may combine suitably the component demonstrated in each Example and the modification.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Processing (AREA)

Abstract

 撮像素子を構成する複数の画素それぞれの分光感度のばらつきを補正するための補正係数を算出することができる画像処理装置、画像処理方法およびプログラムを提供する。第1画像処理装置30は、互いに異なる分光透過率を有する複数色のカラーフィルタのいずれか1つを複数の画素各々の受光面に設けられた撮像素子105によって生成された画像データに対し、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差による画素値の差分を補正するための補正係数を複数の画素の各々に算出する補正係数算出部307を備える。

Description

画像処理装置、画像処理方法およびプログラム
 本発明は、撮像素子を構成する複数の画素の分光感度特性を補正するための補正係数を算出する画像処理装置、画像処理方法およびプログラムに関する。
 従来、デジタルカメラ等の撮像装置において、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子の受光面に設けられたカラーフィルタの分光透過率のばらつきによる画素の分光感度のばらつきを撮像素子毎に調整する技術が知られている(特許文献1参照)。この技術では、プリズムでスペクトル分光された可視光を撮像素子で光電変換することによってR(赤)、G(緑)およびB(青)の各々の色成分の組み合わせからなる画像データから波長毎にR、GおよびBそれぞれの値を算出し、この算出したR、GおよびBそれぞれの値と予め波長毎に算出された基準値との差分の各々が小さくなるように、R、GおよびBそれぞれの値に乗じる係数を算出する。
特開2010-193378号公報
 ところで、撮像素子の微細化にともなって、撮像素子を構成する複数の画素の各々に配置されるカラーフィルタも小さくなり、撮像素子の製造段階で生じる画素ごとのカラーフィルタの分光透過率のばらつきも増加する。このため、上述した特許文献1のように、撮像素子毎に分光感度特性のばらつきを調整しても、画素毎に分光感度のばらつきが生じる。この結果、上述した特許文献1では、画素毎に画素値の出力結果が変化してしまうという問題点があった。さらに、上述した特許文献1では、1つの画素に注目した場合、波長に応じて分光感度のばらつき度合いが異なるため、受光する光の波長によって画素値のばらつき度合いも変化してしまうという問題があった。
 本発明は、上記に鑑みてなされたものであって、撮像素子を構成する複数の画素の各々の分光感度のばらつきを補正するための補正係数を算出することができる画像処理装置、画像処理方法およびプログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、互いに異なる分光透過率を有する複数色のカラーフィルタを用いて所定の配列パターンを形成し、該配列パターンを形成する個々のカラーフィルタが複数の画素のいずれかに対応する位置に配置された撮像素子によって生成された画像データに基づいて、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差に対応する画素値の差分を補正するための補正係数を、少なくとも前記複数色のカラーフィルタのうち所定のカラーフィルタが配置された前記複数の画素毎に算出する補正係数算出部を備えたことを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記補正係数算出部は、前記注目画素に設けられた前記カラーフィルタの分光透過率が他の色の前記カラーフィルタの分光透過率よりも低い波長領域を含む前記所定波長域における前記補正係数を算出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記補正係数算出部は、前記注目画素に設けられた前記カラーフィルタの分光透過率が他の色の前記カラーフィルタの分光透過率よりも高い波長領域を含む前記所定波長域における前記補正係数を算出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記補正係数算出部は、前記注目画素と同色の前記カラーフィルタが配置された前記複数の画素の各々の画素値に基づいて、前記基準分光感度を算出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記補正係数算出部は、前記注目画素と同色の前記カラーフィルタが配置された前記複数の画素の各々の分光感度の平均値または前記注目画素毎に該注目画素の周辺に位置し該注目画素と同色の前記カラーフィルタが配置された前記複数の画素の各々の分光感度の平均値を前記基準分光感度として算出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記補正係数算出部は、互いに異なる波長特性の光を照射する光源毎に前記補正係数を算出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記撮像素子は、所定波長領域の分光放射輝度が他の波長領域に比べて高い一様な光を受光することによって前記画像データを生成することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記画像データのランダムノイズを除去するランダムノイズ除去部をさらに備え、前記補正係数算出部は、前記ランダムノイズ除去部によって前記ランダムノイズが除去された前記画像データに対し、前記補正係数を算出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記カラーフィルタの色は、赤、緑および青であることを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記カラーフィルタの色は、シアン、マゼンタ、イエローおよび緑であることを特徴とする。
 また、本発明に係る画像処理方法は、画像処理装置が実行する画像処理方法であって、互いに異なる分光透過率を有する複数色のカラーフィルタを用いて所定の配列パターンを形成し、該配列パターンを形成する個々のカラーフィルタが複数の画素のいずれかに対応する位置に配置された撮像素子によって生成された画像データを取得する取得ステップと、前記取得ステップにおいて取得した前記画像データに基づいて、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差による画素値の差分を補正するための補正係数を、少なくとも前記複数色のカラーフィルタのうち所定のカラーフィルタが配置された前記複数の画素毎に算出する補正係数算出ステップと、を含むことを特徴とする。
 また、本発明に係るプログラムは、互いに異なる分光透過率を有する複数色のカラーフィルタを用いて所定の配列パターンを形成し、該配列パターンを形成する個々のカラーフィルタが複数の画素のいずれかに対応する位置に配置された撮像素子によって生成された画像データを取得する取得ステップと、前記取得ステップにおいて取得した前記画像データに基づいて、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差による画素値の差分を補正するための補正係数を、少なくとも前記複数色のカラーフィルタのうち所定のカラーフィルタが配置された前記複数の画素毎に算出する補正係数算出ステップと、を画像処理装置に実行させることを特徴とする。
 本発明によれば、撮像素子を構成する複数の画素それぞれの分光感度のばらつきを補正するための補正係数を算出することができるという効果を奏する。
図1は、本発明の実施の形態1に係る撮像システムの構成を模式的に示すブロック図である。 図2は、本発明の実施の形態1に係るカラーフィルタの構成を模式的に示す図である。 図3は、本発明の実施の形態1に係る撮像素子を構成するR画素、G画素およびB画素それぞれの分光感度特性の平均を示す図である。 図4は、本発明の実施の形態1に係る撮像素子を構成するR画素の分光感度特性を示す図である。 図5は、本発明の実施の形態1に係る撮像素子を構成するG画素の分光感度特性を示す図である。 図6は、本発明の実施の形態1に係る撮像素子を構成するB画素の分光感度特性を示す図である。 図7は、本発明の実施の形態1に係る撮像素子が平坦な赤色または平坦な緑色の被写体を撮影した場合における撮像素子を構成する複数のG画素それぞれの画素値を模式的に示す図である。 図8は、本発明の実施の形態1に係る第1画像処理装置が実行する処理の概要を示すフローチャートである。 図9は、図8の撮影処理の概要を示すフローチャートである。 図10は、図8の補正係数算出処理の概要を示すフローチャートである。 図11は、通常光を用いた場合における補正係数算出時の分光特性を模式的に示す図である。 図12は、狭帯域光を用いた場合における補正係数算出時の分光特性を模式的に示す図である。 図13は、本発明の実施の形態1に係る第2画像処理装置が実行する処理の概要を示すフローチャートである。 図14は、図13の補正量算出処理の概要を示すフローチャートである。 図15は、図14のR成分補正量算出処理の概要を示すフローチャートである。 図16Aは、注目画素がB画素の場合にR成分を推定する補間方法を模式的に説明する図である。 図16Bは、注目画素がG画素の場合にR成分を推定する補間方法を模式的に説明する図である。 図16Cは、注目画素がG画素の場合にR成分を推定する補間方法を模式的に説明する図である。 図16Dは、注目画素がR画素の場合にR成分を推定する補間方法を模式的に説明する図である。 図17は、図14のG成分補正量算出処理の概要を示すフローチャートである。 図18Aは、注目画素がR画素の場合にG成分を推定する補間方法を模式的に説明する図である。 図18Bは、注目画素がB画素の場合にG成分を推定する補間方法を模式的に説明する図である。 図18Cは、注目画素がG画素の場合にG成分を推定する補間方法を模式的に説明する図である。 図18Dは、注目画素がG画素の場合にG成分を推定する補間方法を模式的に説明する図である。 図19は、図14のB成分補正量算出処理の概要を示すフローチャートである。 図20Aは、注目画素がG画素の場合にB成分を推定する補間方法を模式的に説明する図である。 図20Bは、注目画素がG画素の場合にB成分を推定する補間方法を模式的に説明する図である。 図20Cは、注目画素がR画素の場合にB成分を推定する補間方法を模式的に説明する図である。 図20Dは、注目画素がB画素の場合にB成分を推定する補間方法を模式的に説明する図である。 図21は、本発明の実施の形態2に係る第1画像処理装置が実行する処理の概要を示すフローチャートである。 図22は、本発明の実施の形態2に係る第1画像処理装置が実行する補正係数算出時における赤色被写体の分光特性を模式的に示す図である。 図23は、本発明の実施の形態2に係る第1画像処理装置が実行する補正係数算出時における緑色被写体の分光特性を模式的に示す図である。 図24は、本発明の実施の形態2に係る第1画像処理装置が実行する補正係数算出時における青色被写体の分光特性を模式的に示す図である。 図25Aは、注目画素がG画素の場合におけるR成分の補正係数算出を模式的に説明する図である。 図25Bは、注目画素がG画素の場合におけるB成分の補正係数算出を模式的に説明する図である。 図26は、本発明の実施の形態3に係る撮像装置の構成を模式的に示すブロック図である。 図27は、本発明の実施の形態1~3の変形例1に係るカラーフィルタの構成を模式的に示す図である。 図28は、本発明の実施の形態1~3の変形例2に係るカラーフィルタの構成を模式的に示す図である。 図29は、本発明の実施の形態1~3の変形例3に係るカラーフィルタの構成を模式的に示す図である。
 以下、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付して説明する。
(実施の形態1)
 〔撮像システムの構成〕
 図1は、本発明の実施の形態1に係る撮像システムの構成を模式的に示すブロック図である。図1に示す撮像システム1は、後述の補正係数を算出する場合には外部からの光が遮光された遮光空間が形成された筐体100内に配置される。また、図1に示す撮像システム1は、通常撮影を行う場合には、筐体100外に配置される。撮像システム1は、撮像装置10と、光源装置20(被写体)と、第1画像処理装置30と、第2画像処理装置40と、表示装置50と、を備える。なお、第1画像処理装置30、第2画像処理装置40および表示装置50は、後述の補正係数を算出する場合においても、筐体100の外部に配置されていてもよい。
 〔撮像装置の構成〕
 まず、撮像装置10の構成について説明する。撮像装置10は、光学系101と、絞り102と、シャッタ103と、ドライバ104と、撮像素子105と、カラーフィルタ106と、アナログ処理部107と、A/D変換部108と、第1操作部109と、メモリI/F部110と、記録媒体111と、揮発メモリ112と、不揮発メモリ113と、バス114と、撮像制御部115と、第1外部I/F部116と、を備える。
 光学系101は、単数または複数のレンズを用いて構成される。光学系101は、例えばフォーカスレンズとズームレンズとを用いて構成される。
 絞り102は、光学系101が集光した光の入射量を制限することで露出の調整を行う。絞り102は、撮像制御部115の制御のもと、光学系101が集光した光の入射量を制限する。絞り102を用いずに、シャッタ103や撮像素子105における電子シャッタを用いて光の入射量を制御するようにしてもよい。
 シャッタ103は、撮像制御部115の制御のもと、撮像素子105の状態を露光状態または遮光状態に設定する。シャッタ103は、例えばフォーカルプレーンシャッタ等を用いて構成される。シャッタ103を用いずに、撮像素子105における電子シャッタを用いてもよい。
 ドライバ104は、後述する撮像制御部115の制御のもと、光学系101、絞り102およびシャッタ103を駆動する。例えば、ドライバ104は、光学系101を光軸O1に沿って移動させることによって、撮像装置10のズーム倍率の変更またはピント位置の調整を行う。
 撮像素子105は、後述する撮像制御部115の制御のもと、光学系101が集光した光を受光して画像データ(電気信号)に変換して出力する。撮像素子105は、複数の画素が2次元状に配置されたCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)等のイメージセンサを用いて構成される。また、撮像素子105は、受光量を電子的に制御可能な電子シャッタ機能を有する。
 カラーフィルタ106は、撮像素子105の受光面に積層して設けられる。カラーフィルタ106は、互いに異なる波長領域の光を透過する複数のカラーフィルタの各々が所定の配列パターンを形成し、この配列パターンを形成する個々のカラーフィルタが撮像素子105を構成する複数の画素のいずれかに対応する位置に配置される。
 図2は、カラーフィルタ106の構成を模式的に示す図である。図2に示すカラーフィルタ106は、ベイヤー配列における赤色の波長領域の光を透過するフィルタR、緑色の波長領域の光を透過するフィルタGおよび青色の波長領域の光を透過するフィルタBの各々が撮像素子105の各画素の受光面に設けられる。なお、以下においては、フィルタRを受光面に配置した画素をR画素、フィルタGを受光面に配置した画素をG画素およびフィルタBを受光面に配置した画素をB画素として説明する。
 アナログ処理部107は、撮像素子105から出力されるアナログ信号に対して、所定のアナログ処理を施してA/D変換部108へ出力する。具体的には、アナログ処理部107は、撮像素子105から入力されるアナログ信号に対して、ノイズ低減処理およびゲインアップ処理等を行う。例えば、アナログ処理部107は、アナログ信号に対して、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるようにゲインアップを行う。
 A/D変換部108は、アナログ処理部107から入力されるアナログ信号に対して、A/D変換を行うことによってデジタルの画像データ(以下、「RAW画像データ」という)を生成し、バス114を介して揮発メモリ112に出力する。なお、A/D変換部108は、後述する撮像装置10の各部に対してRAW画像データを直接出力するようにしてもよい。なお、上述したカラーフィルタ106、アナログ処理部107とA/D変換部108を撮像素子105に設け、撮像素子105がデジタルのRAW画像データを直接出力するようにしてもよい。
 第1操作部109は、撮像装置10の各種の指示を与える。具体的には、第1操作部109は、撮像装置10の電源状態をオン状態またはオフ状態に切り替える電源スイッチ、静止画撮影の指示を与えるレリーズスイッチ、撮像装置10の各種設定を切り替える操作スイッチおよび動画撮影の指示を与える動画スイッチ等を有する。
 記録媒体111は、撮像装置10の外部から装着されるメモリカードを用いて構成され、メモリI/F部110を介して撮像装置10に着脱自在に装着される。また、記録媒体111は、撮像制御部115の制御のもと、メモリI/F部110を介してプログラムおよび各種情報それぞれを不揮発メモリ113に出力してもよい。
 揮発メモリ112は、バス114を介してA/D変換部108から入力される画像データを一時的に記憶する。例えば、揮発メモリ112は、アナログ処理部107、A/D変換部108およびバス114を介して、撮像素子105が1フレーム毎に順次出力する画像データを一時的に記憶する。揮発メモリ112は、SDRAM(Synchronous Dynamic Random Access Memory)等を用いて構成される。
 不揮発メモリ113は、撮像装置10を動作させるための各種プログラム、プログラムの実行中に使用される各種データを記録する。また、不揮発メモリ113は、プログラム記録部113aと、第1外部I/F部116を介して入力される撮像素子105を構成する複数の画素の各々の分光感度のばらつきを補正するための補正係数を記録する補正係数記録部113bと、を有する。不揮発メモリ113は、Flashメモリ等を用いて構成される。
 バス114は、撮像装置10の各構成部位を接続する伝送路等を用いて構成され、撮像装置10の内部で発生した各種データを撮像装置10の各構成部位に転送する。
 撮像制御部115は、CPU(Central Processing Unit)等を用いて構成され、第1操作部109からの指示信号やレリーズ信号に応じて撮像装置10を構成する各部に対する指示やデータの転送等を行って撮像装置10の動作を統括的に制御する。例えば、撮像制御部115は、第1操作部109からセカンドレリーズ信号が入力された場合、撮像装置10における撮影動作を開始する制御を行う。ここで、撮像装置10における撮影動作とは、撮像素子105が出力したアナログ信号に対し、アナログ処理部107およびA/D変換部108が所定の処理を施す動作をいう。このように処理が施された画像データは、撮像制御部115の制御のもと、バス114およびメモリI/F部110を介して記録媒体111に記録される。
 第1外部I/F部116は、バス114を介して外部の機器から入力される情報を不揮発メモリ113または揮発メモリ112へ出力する一方、バス114を介して外部の機器へ揮発メモリ112が記憶する情報、不揮発メモリ113が記録する情報および撮像素子105が生成した画像データを出力する。具体的には、第1外部I/F部116は、バス114を介して第1画像処理装置30および第2画像処理装置40に撮像素子105が生成した画像データを出力する。
 〔光源装置の構成〕
 次に、光源装置20の構成について説明する。光源装置20は、後述の補正係数を算出する場合に、第1画像処理装置30の制御のもと、所定の波長領域の光を撮像装置10に向けて平行光の照明光を被写体として照射する。具体的には、光源装置20は、第1画像処理装置30の制御のもと、例えば380nm~780nmの可視光を10nm間隔で撮像装置10に向けて照射する。光源装置20は、例えば互いに波長領域が異なる光を透過させる複数のフィルタが設けられた回転フィルタ、タングステンランプまたはキセノンランプ等の光源および回転フィルタを回転させるモータ等のドライバを用いて構成される。なお、光源装置20は、所定の波長領域の平行光を照射する蛍光灯、LED(Light Emitting Diode)およびレーザ光等を用いてもよい。また、光源装置20は、10nm間隔でなく、所定の波長領域、例えば赤、緑および青の各々の波長領域の光を切り換えて撮像装置10に向けて照射してもよい。また、本実施の形態では、撮像装置10を光学系101および絞り102が一体型に構成されたコンパクトデジタルカメラを想定しているが、光学系101および絞り102を有するレンズ部を本体部(ボディ部)に対して着脱自在なデジタルカメラであっても適用することができる。この場合、光源装置20からの光は、平行光として撮像装置10に入射することが好ましい。このため、レンズ部を着脱可能なデジタルカメラの場合には、本体部からレンズ部を取り外した状態で撮影することが好ましい。なお、光源装置20は、可能な限り均一な平行光を撮像装置10に向けて照射することが好ましい。
 〔第1画像処理装置の構成〕
 次に、第1画像処理装置30の構成について説明する。第1画像処理装置30は、第2外部I/F部301と、光源制御部302と、第2操作部303と、第1記録部304と、第1画像処理制御部305と、第1バス306と、補正係数算出部307と、を備える。
 第2外部I/F部301は、撮像装置10の第1外部I/F部116を介して撮像素子105によって生成された画像データを取得し、取得した画像データを補正係数算出部307または第1バッファ部304bへ出力する。また、第2外部I/F部301は、補正係数算出部307から入力された情報を撮像装置10へ出力する。第2外部I/F部301および第1外部I/F部116は、例えば双方向に情報をやり取り可能な制御ケーブルや無線通信路等を介して接続されている。
 光源制御部302は、CPUを用いて構成され、光源装置20が照射する光の波長領域を制御する。具体的には、光源制御部302は、光源装置20に10nm毎の波長領域の光を撮像装置10に照射させる。
 第2操作部303は、第1画像処理装置30の各種の指示を与える。具体的には、第2操作部303は、光源装置20に波長領域が異なる光を順次照射させる指示を与える。
 第1記録部304は、揮発メモリおよび不揮発メモリを用いて構成され、撮像装置10から入力された画像データ、第1画像処理装置30を動作させるための各種プログラム、プログラムの実行中に使用される各種データを記録する。また、第1記録部304は、第1画像処理装置30を動作させるための各種プログラムを記録する第1プログラム記録部304aと、撮像装置10から入力された画像データ等を一時的に記憶する第1バッファ部304bと、を有する。
 第1画像処理制御部305は、CPU等を用いて構成され、第2操作部303からの指示に応じて第1画像処理装置30を構成する各部に対する指示やデータの転送等を行って第1画像処理装置30の動作を統括的に制御する。
 補正係数算出部307は、撮像素子105によって生成された画像データに基づいて、注目画素において分光感度と予め設定した基準分光感度との差に対応する画素値の差分を補正するための補正係数を撮像素子105の複数の画素毎に算出し、算出した算出結果を撮像装置10の補正係数記録部113bに記録する。
 第1バス306は、第1画像処理装置30の各構成部位を接続する伝送路等を用いて構成され、第1画像処理装置30の内部で発生した各種データを第1画像処理装置30の各構成部位に転送する。
 〔第2画像処理装置の構成〕
 次に、第2画像処理装置40の構成について説明する。
 第2画像処理装置40は、第3外部I/F部401と、第2記録部402と、第2バス403と、補正量算出部404と、画素値補正部405と、画像処理部406と、を備える。
 第3外部I/F部401は、撮像装置10の第1外部I/F部116を介して撮像素子105によって生成された画像データおよび補正係数記録部113bから補正係数をそれぞれ取得し、取得した画像データおよび補正係数を補正量算出部404または第2バッファ部402bへ出力する。第3外部I/F部401および第1外部I/F部116は、例えば双方向に情報をやり取り可能な制御ケーブルや無線通信路等を介して接続されている。
 第2記録部402は、揮発メモリおよび不揮発メモリを用いて構成され、撮像装置10から入力された画像データ、補正係数、第2画像処理装置40を動作させるための各種プログラム、プログラムの実行中に使用される各種データを記録する。また、第2記録部402は、第2画像処理装置40を駆動するための第2プログラム記録部402aと、撮像装置10から入力された画像データおよび注目画素の補正係数等を一時的に記憶する第2バッファ部402bを有する。
 補正量算出部404は、補正係数記録部113bが記録する注目画素における補正係数と注目画素における周囲の画素の画素値とに基づいて、注目画素の画素値を補正するための補正量を算出する。また、補正量算出部404は、注目画素と周囲の画素の画素値に基づいて、注目画素の画素値を補正するための補正量を算出する。ここで、周囲の画素とは、注目画素に隣接する画素または注目画素の近傍に位置する画素である。また、注目画素に隣接する画素とは、注目画素を基準に左右上下方向に位置する画素である。さらに、注目画素の近傍に位置する画素とは、注目画素を基準に斜め方向に位置する画素、または、注目画素と同色で最も注目画素に近い画素である。さらに、補正量算出部404は、光源に応じた補正係数を補正係数記録部113bから選択して取得し、取得した補正係数を用いて注目画素の画素値を補正するための補正量を算出する。
 画素値補正部405は、補正量算出部404が算出した補正量を用いて注目画素の画素値を補正する。
 画像処理部406は、画素値補正部405によって分光感度ばらつきが補正された画像データに対して、所定の画像処理を行って表示装置50へ出力する。ここで、所定の画像処理とは、オプティカルブラック減算処理、ホワイトバランス調整処理、撮像素子105がベイヤー配列の場合には画像データの同時化処理、カラーマトリクス演算処理、γ補正処理、色再現処理およびエッジ強調処理、ノイズ低減処理等を含む基本の画像処理のことである。また、画像処理部406は、予め設定された各画像処理のパラメータに基づいて、自然な画像を再現する画像処理を行う。ここで、各画像処理のパラメータとは、コントラスト、シャープネス、彩度、ホワイトバランスおよび階調の値である。なお、所定の画像処理を行った画像データを、第3外部I/F部401を経由して不揮発メモリ113や記録媒体111に記録するようにしてもよい。
 〔表示装置の構成〕
 次に、表示装置50の構成について説明する。表示装置50は、第2画像処理装置40から入力される画像データに対応する画像を表示する。表示装置50は、液晶または有機EL(Electro Luminescence)等の表示パネル等を用いて構成される。
 以上の構成を有する撮像システム1は、第1画像処理装置30が撮像素子105の各画素の分光感度と基準分光感度との差による画素値の差を補正するための補正係数を算出し、第2画像処理装置40が第1画像処理装置30によって算出された補正係数を用いて注目画素の画素値を補正するための補正量を算出し、この算出した補正量を用いて注目画素の画素値を補正し、表示装置50が第2画像処理装置40によって画像処理が施された画像データに対応する画像を表示する。
 〔分光感度特性の概要〕
 次に、撮像素子105を構成するR画素、G画素およびB画素それぞれの分光感度特性について説明する。図3は、撮像素子105を構成するR画素、G画素およびB画素それぞれの分光感度特性の平均の例を示す図である。図4は、R画素の分光感度特性の例を示す図である。図5は、G画素の分光感度特性の例を示す図である。図6は、B画素の分光感度特性の例を示す図である。図3~6において、横軸が波長を示し、縦軸が相対分光感度を示す。また、図3~図6において、曲線LB1が複数のB画素それぞれの分光感度を平均化した平均分光感度特性を示し、曲線LG1が複数のG画素それぞれの分光感度を平均化した平均分光感度特性を示し、曲線LR1が複数のR画素それぞれの分光感度を平均化した平均分光感度特性を示す。また、図4の曲線LR2がR画素の分光感度特性の一例を示し、図5の曲線LG2がG画素の分光感度特性の一例を示し、図6の曲線LB2がB画素の分光感度特性の一例を示す。図4~図6において、ここで、分光感度の差とは、平均分光感度に対する各画素の分光感度の差を意味し、撮像素子105の製造段階において各フィルタの厚みのばらつき等によって生じる分光透過率のばらつきや、各画素の回路パターンや回路特性の差などによって生じる分光反射率や分光吸収率のばらつき等に起因するものである。また、撮像素子105における全ての画素を用いて各R、G、B画素にそれぞれに対する平均分光感度特性を算出しても良いし、注目画素およびその同色の周辺の画素を用いて、注目画素に対する平均分光感度特性(即ち、局所的な平均分光感度特性)を算出するようにしてもよい。なお、注目画素に対する平均分光感度特性は、注目画素を含めずに注目画素と同色の周辺の画素を用いて算出してもよい。注目画素に対する平均分光感度特性を算出する場合、光源装置20からの光が均一ではない場合や光学系101によりシェーディング発生する場合等、撮像素子105に照射される光が不均一な場合に、その不均一な光による影響を排除した平均分光感度特性が得られる。また、平均分光感度特性が本実施の形態における基準分光感度特性に該当する。
 図4~図6に示すように、分光感度の差が波長領域によって変化する。具体的に例を挙げると、R画素では、図4の曲線LR1および曲線LR2に示すように、平均分光感度に対して550nm近傍より短波長側の波長領域R1において差が生じる。G画素では、図5の曲線LG1および曲線LG2に示すように、平均分光感度に対して500nm近傍より短波長側の波長領域G1と600nm近傍より長波長側の波長領域G2において差が生じる。さらに、B画素では、図6の曲線LG1および曲線LG2に示すように、平均分光感度に対して550nm近傍より長波長側の波長領域B1において差が生じる。
 なお、図4~図6においては、分光感度が低い波長領域で平均分光感度よりも高い分光感度を有するR画素、G画素およびB画素それぞれの一例を説明したが、撮像素子105を構成する各画素によっては、以下の(a)~(d)いずれかの画素が存在する。
 (a)分光感度が低い領域で平均分光感度よりも低い分光感度または同様の分光感度を有する画素
 (b)分光感度が高い波長領域で平均分光感度よりも高い分光感度若しくは低い分光感度または同様の分光感度を有する画素
 (c)分光感度が低い波長領域と高い波長領域とで平均分光感度との大小関係が変わる、または変わらない分光感度を有する画素
 (d)分光感度の高低に関わらず波長によって平均分光感度に対して大小が変化する分光感度を有する画素
このように撮像素子105は、製造段階において各カラーフィルタの厚みのばらつき等によって分光感度のばらつきが画素単位で発生する。本実施の形態では、一例として、分光感度のばらつきは、波長による変化が小さく、いずれの波長でも同程度の小さなばらつきをもつこの場合、例えば平坦な赤色の被写体を撮影するとき、R画素は、分光感度が高い波長領域のため、ランダムノイズによる画素値のばらつきが支配的になり、分光感度のばらつきが画質にあまり影響しない。
 これに対して、平坦な赤色の被写体を撮影するとき、G画素およびB画素の各々は、分光感度が低い波長領域のため、ランダムノイズによる画素値のばらつきが小さく、分光感度のばらつきによる画素値のばらつきが相対的に大きくなることで、分光感度のばらつきが画質に影響する。このような分光感度のばらつきによる画素値のばらつきは、特に平坦な被写体において画像のざらつきとして見える。このざらつきは、画素の画素値に依存するため、多少の凹凸を有する被写体が動いても、ざらつきが停止して見えるため、違和感が生じる。したがって、他の色の画素の分光感度に比べ低い分光感度をもつ波長領域を優先的に補正することが望ましい。
 図7は、撮像素子105が平坦な赤色または平坦な緑色の被写体を撮影した場合における撮像素子105を構成する複数のG画素それぞれの画素値を模式的に示す図である。図7において、横軸が画素列を示し、縦軸が画素値を示す。また、図7において、直線MR2が平坦な赤色の被写体を撮影した際の各G画素における画素値の平均値を示し、直線MG2が平坦な緑色の被写体を撮影した際の各G画素における画素値の平均値を示す。なお、図7において、各G画素で生じるランダムノイズRN1、RN2、GN1およびGN2の各々をハッチングで表現した。また、図7においては、撮像素子105を構成するR画素、G画素およびB画素のうち、6つのG画素を一例に説明する。
 図7に示すように、撮像素子105が平坦な赤の被写体を撮影した場合、G画素G1~G6の各々は、分光感度が低い波長領域のため、ランダムノイズよりも製造段階における各カラーフィルタの厚みのばらつき等による分光感度ばらつきによる影響を受けて、G画素G1~G6の各々の画素値が大きくばらつく(図7(a)を参照)。これに対して、撮像素子105が平坦な緑色の被写体を撮影した場合、G画素G1~G6の各々は、分光感度が高い波長領域のため、製造段階における各カラーフィルタの厚みのばらつき等による分光感度ばらつきよりも、ランダムノイズによる画素値のばらつきが支配的になりG画素G1~G6の各々の画素値がほぼ一定となる(図7(b)を参照)。よって、被写体の分光特性により、ざらつきが見えたり見えなかったりする。このように、各画素は、画素毎に分光感度によるばらつきが異なるため、従来のように各画素に対して一律のゲインをかけたり、一律のオフセットを加減算したりしても、上述したばらつきを補正することができない。そこで、本実施の形態では、後述の補正係数の算出や補正処理を行うことで、上述したざらつきを低減し、被写体が平坦な場合にはMR2に示すような画素値に補正することができる(図7(c)を参照)。このため、本実施の形態では、撮像素子105を構成する複数の画素の各々の分光感度の差によって生じる画質劣化を防止することで、高画質な画像を得る。
 〔第1画像処理装置の処理〕
 次に、第1画像処理装置30が実行する処理について説明する。図8は、第1画像処理装置30が実行する処理の概要を示すフローチャートであり、メインルーチンを示す。なお、図8においては、第1画像処理装置30が実行する各画素の分光感度ばらつきを補正するための補正係数を算出する処理について説明する。本実施の形態では、撮像素子105の各画素は、RGBいずれかのカラーフィルタ106を有しているため、各画素においてR画素値を用いた補正用の補正係数、G画素値を用いた補正用の補正係数、B画素値を用いた補正用の補正係数を算出する。勿論、一部の補正係数のみ算出するようにしてもよい。
 図8に示すように、光源制御部302は、光源装置20が照射する波長領域を示すλを380nmに設定する(ステップS101)。なお、本実施の形態では、光源制御部302は、可視光波長領域として380nm~780nmを設定するが、これに限定されず、赤外等の他の波長領域であってもよい。
 続いて、光源制御部302は、光源装置20が照射する照明光の波長を波長λに設定して照明光を照射させる(ステップS102)。これにより、光源装置20は、被写体として波長λの単波長平面の照明光を撮像装置10に向けて照射する。
 その後、第1画像処理制御部305は、光源装置20が照射する照明光を所定回数撮影して撮像素子105を構成する複数の画素の各々の画素値の平均値を算出する撮影処理を撮像装置10に実行させる(ステップS103)。
 図9は、図8のステップS103の撮影処理の概要を示すフローチャートである。図9に示すように、第1画像処理制御部305は、第1記録部304の第1バッファ部304bに記憶された撮像素子105が生成した画像データに対応する各画素の画素値の蓄積値を算出するためのバッファ領域を初期化する(ステップS201)。
 続いて、第1画像処理制御部305は、カウンタiを0に設定し(ステップS202)、第1バス306、第2外部I/F部301、第1外部I/F部116およびバス114を介して撮像素子105に露光を開始(光源装置20が照射する照明光の撮影を開始)させるとともに(ステップS203)、撮像素子105から画像データの取り込みを行う(ステップS204)。
 その後、第1画像処理制御部305は、第1バッファ部304bに記憶されている各画素の画素値と、撮像素子105から取り込んだ最新の画像データの画素毎に画素値を加算し、この加算した画素値を第1バッファ部304bに記憶されている画素値と置き換える(ステップS205)。
 続いて、第1画像処理制御部305は、カウンタiをインクリメント(i=i+1)し(ステップS206)、画像データの取り込んだ枚数(i)が所定枚数未満(例えば100枚)である場合(ステップS207:Yes)、第1画像処理装置30は、ステップS203へ戻る。これに対して、画像データの取り込んだ枚数(i)が所定枚数未満でない場合(ステップS207:No)、第1画像処理装置30は、ステップS208へ移行する。
 その後、第1画像処理制御部305は、第1バッファ部304bに記憶されている各画素の画素値を、画像データを取り込んだ所定枚数(例えば100枚)で除算し、この除算した結果を第1バッファ部304bに記憶されている画素毎の画素値に置き換える(ステップS208)。これにより、第1バッファ部304bに記憶されている画素毎の画素値は、平均画素値となる。なお、第1画像処理制御部305は、撮像素子105から取り込んだ画像データの各画素において、欠陥画素が含まれている場合、この欠陥画素を補正するようにしてもよい。ステップS208の後、第1画像処理装置30は、上述した図8のメインルーチンへ戻る。なお、図9における撮影処理においては、平均画素値を算出したが、少なくとも画像データにおけるランダムノイズやRTSノイズ等の点滅欠陥等、時間的に変動するノイズが除去された画像データを取得できれば良い。そのため、公知のノイズ低減方法等を用い、時間的に変動するノイズを低減した画像データを取得するようにしても良い。
 図8に戻り、ステップS104以降の説明を続ける。
 ステップS104において、光源制御部302は、光源装置20が照射する照明光の波長を波長λに10nmを加算して設定する。なお、光源制御部302は、10nm間隔以外でも良く、例えば1nm間隔または5nm間隔であってもよい。もちろん、光源制御部302は、20nm間隔または50nm間隔であってもよい。さらに、光源制御部302は、例えば赤、緑および青の各々の3つの波長領域の間隔であってもよい。
 続いて、光源装置20が照射する照明光の波長λが780nm以下(λ≦780nm)である場合(ステップS105:Yes)、第1画像処理装置30は、ステップS102へ戻る。これに対して、光源装置20が照射する照明光の波長λが780nm以下(λ≦780nm)でない場合(ステップS105:No)、第1画像処理装置30は、ステップS106へ移行する。
 その後、補正係数算出部307は、第1バッファ部304bに記憶された380nm~780nmまでの被写体(光源装置20が照射した照明光)を撮影した画像データを用いて、分光感度特性を画素毎に算出する(ステップS106)。このとき、補正係数算出部307は、380nm~780nmまで光の放射輝度が同一では無い場合、正規化した後、分光感度特性を画素毎に算出する。
 続いて、補正係数算出部307は、第1バッファ部304bに記憶された380nm~780nmまでの被写体(光源装置20が照射した照明光)を撮影した画像データを用いて、赤、緑および青の各々のカラーフィルタ毎に基準分光感度特性を算出する(ステップS107)。具体的には、補正係数算出部307は、第1バッファ部304bに記憶された380nm~780nmまでの被写体(光源装置20が照射した照明光)を撮影した複数の画像データを用いて、基準分光感度特性として赤、緑および青の各々のカラーフィルタ毎に分光感度特性の平均値、最大値、最小値、中央値および最頻値等の統計的手法によっていずれか1つを算出する。なお、本実施の形態では、赤、緑および青の各々のカラーフィルタの分光感度特性の平均値を基準分光感度特性として説明する。また、補正係数算出部307は、被写体が完全に平坦でない場合または光学系101によりシェーディングが発生する場合等均一な光が撮像素子105に照射されない場合、注目画素毎に、その注目画素の周囲の同色画素の分光感度特性を用いて基準分光感度を算出するようにしてもよい。
 その後、補正係数算出部307は、撮像素子105の画素毎に分光感度特性を補正するための補正係数を算出する補正係数算出処理を実行する(ステップS108)。
 図10は、図8のステップS108の補正係数算出処理の概要を示すフローチャートである。
 図10に示すように、補正係数算出部307は、基準分光感度特性に基づいて、各色の波長領域を決定する(ステップS301)。具体的には、図11に示すように、補正係数算出部307は、基準分光感度特性に基づいて、フィルタBのB波長領域、フィルタGのG波長領域およびフィルタRのR波長領域の各々を決定する。例えば、図11に示す場合、補正係数算出部307は、B波長領域を380nm~500nm、G波長領域を500nm~600nmおよびR波長領域を600nm~780nmの各々に決定する。なお、補正係数算出部307は、波長領域の一部が重なるようにB波長領域、G波長領域およびR波長領域の各々の波長領域を決定してもよい。また反対に、補正係数算出部307は、波長領域の一部がいずれの波長領域にも該当しないように各々の波長領域を決定してもよい。また、各色の波長領域は、分光感度特性の設計値等に基づき、あらかじめ決定しておくようにしてもよい。
 続いて、補正係数算出部307は、各画素の分光感度特性に基づいて、各画素の画素値を算出する(ステップS302)。具体的には、補正係数算出部307は、各画素と同色の波長領域における画素の分光感度特性の累積値を算出し、その値を画素値として算出する。この画素値は、同色の波長領域のみの特性が1、それ以外の波長領域の特性が0となるような矩形の分光特性を有する被写体(照明光)を露光した場合の画素値に相当する。なお、補正係数算出部307は、予め想定する被写体(光源または照明光の波長領域)を限定または特定できる場合、その被写体の分光特性に応じて重み付け加算することによって、その被写体を露光したときの画素値に相当する値を求めるようにしてもよい。
 その後、補正係数算出部307は、注目画素における周囲であり、注目画素におけるフィルタの色と異なるフィルタを有する異色画素の画素値を用いて補間することによって、注目画素において該画素と異なる色の異色画素値を推定する(ステップS303)。具体的には、補正係数算出部307は、注目画素がG画素の場合、異なる色であるR波長領域とB波長領域の画素値を算出する。また、ステップS303において、補正係数算出部307は、注目画素におけるフィルタの色と同じフィルタを有する周辺画素値を用いて補間することによって、該画素と同じ色の平均画素値を推定する。具体的には、補正係数算出部307は、注目画素がG画素の場合、G波長領域の平均画素値を算出する。
 図11は、通常光を用いた場合における補正係数算出時の分光特性を模式的に示す図である。図12は、狭帯域光を用いた場合における補正係数算出時の分光特性を模式的に示す図である。図11および図12において、横軸が波長を示し、縦軸が相対分光感度を示す。ここで、通常光とは、タングステンランプまたはキセノンランプの光源が照射する可視光の光や、太陽光などの自然光の光であって、分光特性が連続的に変化する光である。また、狭帯域光とは、蛍光灯、LED(Light Emitting Diode)ランプまたはレーザ光源、一部の波長域を通過させるフィルタを有する光源等の光源が照射する光であって、分光特性が離散的な光である。ここで、分光特性が離散的な光とは、一部の波長域の強度が強く、他の波長域の強度が著しく弱い光である場合も含む。
 図11に示すように、補正係数算出部307は、撮影時に通常光(狭帯域光以外)を用いる場合において、注目画素がG画素のとき、注目画素と異なる色であるR波長領域の画素値Sr1およびB波長領域の画素値Sb1、および注目画素と同じ色であるG波長域の平均画素値Sg1それぞれを算出することによって、注目画素において該注目画素と異なる色の異色画素値と注目画素と同じ色の平均画素値を推定する。また、図12に示すように、補正係数算出部307は、撮影時に狭帯域光を用いる場合において、注目画素がG画素のとき、異なる色であるR波長領域の画素値Sr2およびB波長領域の画素値Sb2、および注目画素と同じ色であるG波長域の平均画素値Sg2それぞれを算出することによって、注目画素において該注目画素と異なる色の異色画素値と注目画素と同じ色の平均画素値を推定する。図12に示す状況下において、補正係数算出部307は、用いる狭帯域光の主要な波長領域に合わせて、R波長領域、G波長域およびB波長領域それぞれの波長領域の幅を狭く設定する。具体的には、図12に示す場合、狭帯域光NRL、狭帯域光NGLおよび狭帯域光NBLに設定する。なお、図11および図12において、補正係数算出部307は、画素値Sb1、画素値Sb2、画素値Sr1および画素値Sr2それぞれの補間方法を後述する第2画像処理装置40が実行する補正量算出処理において用いる補間方法と同一にすることが好ましい。同様に、平均画素値Sg1および平均画素値Sg2それぞれの算出方法を後述する第2画像処理装置40が実行する補正量算出処理において用いる補間方法と同一にすることが好ましい。このため、画素値Sb1、画素値Sb2、画素値Sg1、画素値Sg2、画素値Sr1および画素値Sr2それぞれの補間方法は、後述する。
 続いて、補正係数算出部307は、各画素において、該画素と異なる色の波長領域における誤差量を算出する(ステップS304)。具体的には、補正係数算出部307は、図11に示す場合、各画素において、分光感度特性と基準分光感度特性との差を、各波長領域で累積した値によって算出する。例えば、図11の曲線LG1および曲線LG2に示すように、補正係数算出部307は、注目画素がG画素の場合、曲線LG2と曲線LG1との差をR波長領域、G波長域およびB波長領域の各々において累積した値を誤差量Δr1、誤差量Δg1および誤差量Δb1として算出する。また、狭帯域光の場合、図12の曲線LG1および曲線LG2に示すように、補正係数算出部307は、注目画素がG画素のとき、曲線LG1と曲線LG2との差をR波長領域、G波長域およびB波長領域の各々において累積した値を誤差量Δr2、誤差量Δg2および誤差量Δb2として算出する。ここで、誤差量は、基準分光感度特性よりも分光感度特性が大きい(高い)場合には正の値、小さい(低い)場合には負の値とする。
 その後、補正係数算出部307は、各画素において、誤差量を推定した異色画素値または平均画素値で除算することによって、その画素における補正係数を算出する(ステップS305)。例えば、図11に示す場合において、注目画素がG画素のとき、補正係数算出部307は、上述したステップS304で算出したR波長領域の誤差量を上述したステップ303で推定したR波長領域の画素値で除算した値(Δr1/Sr1)をR成分の補正係数とし、上述したステップS304で算出したG波長領域の誤差量を上述したステップ303で推定したG波長領域の平均画素値で除算した値(Δg1/Sg1)をG成分の補正係数とし、上述したステップS304で算出したB波長領域の誤差量を上述したステップS303で推定したB波長領域の画素値で除算した値(Δb1/Sb1)をB成分の補正係数として算出する。また、図12に示す場合において、注目画素がG画素のとき、補正係数算出部307は、上述したステップS304で算出したR波長領域の誤差量を上述したステップ303で推定したR波長領域の画素値で除算した値(Δr2/Sr2)をR成分の補正係数とし、上述したステップS304で算出したG波長領域の誤差量を上述したステップ303で推定したG波長領域の平均画素値で除算した値(Δg2/Sg2)をG成分の補正係数とし、上述したステップS304で算出したB波長領域の誤差量を上述したステップS303で推定したB波長領域の画素値で除算した値(Δb2/Sb2)をB成分の補正係数として算出する。さらに、補正係数算出部307は、各画素に対して、他の色、例えばR画素およびB画素それぞれも同様に補正係数を算出する。ステップS305の後、第1画像処理装置300は、図8のメインルーチンへ戻る。
 図8に戻り、ステップS109以降の説明を続ける。
 ステップS109において、補正係数算出部307は、撮像素子105の各画素において、算出した補正係数を、その画素の補正係数として撮像装置10の補正係数記録部113bに記録する。撮影時には、太陽光などの自然光以外にも、特に暗所などでは、図1に図示していない発光部より光を発光させて被写体に照射し、その反射光を撮像素子105に撮像させる。上述の分光感度ばらつきは、波長に応じて、ばらつき度合いが異なる場合がある。このため、補正係数算出部307は、発光部から発光する光(被写体に照射する光)に合わせた補正を行うことが好ましい。特に、発光する光が狭帯域であるほど、自然光等の通常光とばらつき度合いが異なりやすい。よって、補正係数算出部307は、撮影時に用いる光源の種別毎に応じた補正係数を補正係数記録部113bに記録する。具体的には、補正係数算出部307は、撮影時に用いる光源の種別と補正係数とを対応付けて補正係数記録部113bに記録する。例えば、補正係数算出部307は、通常光であることを示す情報と、上述した図11のように算出した補正係数とを対応付けて補正係数記録部113bに記録する。また、狭帯域光であることを示す情報と、上述した図12のように算出した補正係数とを対応付けて補正係数記録部113bに記録する。これにより、複数の光源それぞれに対応させた各画素の補正係数を記録することができる。ステップS109の後、第1画像処理装置30は、本処理を終了する。
 このように第1画像処理装置30は、互いに異なる分光透過率を有する複数のカラーフィルタを所定のパターンで複数の画素の各々の受光面に配置した撮像素子105によって生成された画像データに基づいて、該画像データにおける注目画素の分光感度と予め設定した基準分光感度との差を、画素値の差によって補正するための補正係数を画素毎に算出する。この結果、撮像素子105を構成する複数の画素それぞれの分光感度のばらつきを補正するための補正係数を画素毎に算出することができる。
 〔第2画像処理装置の処理〕
 次に、第2画像処理装置40が実行する処理について説明する。図13は、第2画像処理装置40が実行する処理の概要を示すフローチャートであり、メインルーチンを示す。
 図13に示すように、まず、補正量算出部404は、撮像装置10から撮像素子105が生成した画像データと補正係数記録部113bが記録する補正係数を取得し、取得した画像データにおける注目画素の画素値の補正量を算出する補正量算出処理を実行する(ステップS401)。なお、補正量算出処理の概要は、後述する。
 続いて、画素値補正部405は、補正量算出部404が算出した各画素の補正量を減算することで各画素の画素値を補正する(ステップS402)。ステップS402の後、第2画像処理装置40は、本処理を終了する。
 次に、図13のステップS401で説明した補正量算出処理の詳細について説明する。図14は、補正量算出処理の概要を示すフローチャートである。
 図14に示すように、補正量算出部404は、まず、第2記録部402の第2バッファ部402bに記憶された画像データに対応する画像の高さ方向(縦方向)における画素の位置を示すカウンタyを初期化(カウンタy=0)し(ステップS501)、画像データに対応する画像の幅方向(横方向)における画素の位置を示すカウンタxを初期化(カウンタx=0)する(ステップS502)。
 続いて、画像データにおける座標(x,y)の注目画素に対して、R波長領域の分光感度ばらつきを補正する場合(ステップS503:Yes)、補正量算出部404は、後述するステップS504へ移行する。これに対して、座標(x,y)の注目画素に対して、R波長領域の分光感度ばらつきを補正しない場合(ステップS503:No)、補正量算出部404は、後述するステップS505へ移行する。
 ステップS504において、補正量算出部404は、R成分の補正量を算出するR成分補正量算出処理を実行する。ここで、R成分とは、R波長領域の画素値である。
 図15は、上述したステップS504のR成分補正量算出処理の概要を示すフローチャートである。図15に示すように、補正量算出部404は、第2バッファ部402bから座標(x,y)の注目画素における周囲のR画素の画素値を取得する(ステップS601)。
 続いて、補正量算出部404は、ステップS601で取得した周囲のR画素の画素値を用いて補間することによって、座標(x,y)の注目画素におけるR成分の画素値を推定する(ステップS602)。例えば、図16A~図16Dに示すように、補正量算出部404が行う補間方法としては、座標(x,y)の注目画素におけるフィルタの色に応じて、注目画素の周囲のR画素の画素値の平均値とすることによって、座標(x,y)の注目画素におけるR成分の画素値を推定する。具体的には、補正量算出部404は、図16Aに示すように、座標(x,y)の注目画素におけるフィルタの色が青色のB画素の場合、斜め4方向のR画素の画素値の平均値(図16Aを参照)を座標(x,y)の注目画素におけるR成分の画素値として推定し、座標(x,y)の注目画素におけるフィルタの色が緑色のG画素の場合、隣接するR画素の画素値の平均値(図16Bおよび図16Cを参照)を座標(x,y)の注目画素におけるR成分の画素値として推定する。また、補正量算出部404は、注目画素におけるフィルタの色が赤色のR画素の場合、上下左右における距離2画素の4つのR画素値の平均値(図16Dを参照)を、座標(x,y)の注目画素におけるR成分の平均画素値として推定する。ここで、補正量算出部404は、注目画素がR画素の場合、注目画素を含めた平均値をR成分の平均画素値として算出するようにしてもよい。また、エッジ方向などを検出してエッジ方向の画素値の重みを大きくする等、重み付けを行った平均値を算出するようにしてもよい。
 その後、狭帯域光を被写体に照射して撮影した場合(ステップS603:Yes)、補正量算出部404は、後述するステップS604へ移行する。これに対して、狭帯域光を被写体に照射せずに撮影した場合(ステップS603:No)、補正量算出部404は、後述するステップS605へ移行する。なお、光源の判定は、例えばメニューから選択してもよいし、補正量算出部404が画像データに対応する画像の色分布に基づいて、判定するようにしてもよい。また、補正量算出部404が外部の光源の情報を直接取得するようにしてもよい。また、補正量算出部404は、通常光と狭帯域光とが混合した混合光の場合(例えばLEDランプによる光+通常光の場合)、LEDランプが照射する光が届く範囲では、狭帯域光を優先して選択する一方、それ以外の範囲では通常光を選択するようにしてもよい。このとき、補正量算出部404は、画像データに対応する画像を構成する複数の画素それぞれに対して、複数の光源が映りこんでいるか否かを検出し、この検出結果に応じて混合光であるか否かを判定後、画素毎に狭帯域光の補正係数または通常光の補正係数を選択や、混合光の混合割合に応じて画素毎に狭帯域光の補正係数と通常光の補正係数を混合するようにしてもよい。
 ステップS604において、補正量算出部404は、第2バッファ部402bから狭帯域光の光源に応じた座標(x,y)の注目画素におけるR成分の補正係数を取得する。ステップS604の後、補正量算出部404は、後述するステップS606へ移行する。
 ステップS605において、補正量算出部404は、第2バッファ部402bから通常光に応じた座標(x,y)の注目画素におけるR成分の補正係数を取得する。ステップS605の後、補正量算出部404は、後述するステップS606へ移行する。
 続いて、補正量算出部404は、上述したステップS602で推定した座標(x,y)の注目画素におけるR画素の画素値(注目画素がR画素である場合にはR成分の平均画素値)に、座標(x,y)の注目画素におけるR成分の補正係数を乗じることによって、座標(x,y)の注目画素における画素値に対するR成分の補正量を算出する(ステップS606)。ステップS606の後、補正量算出部404は、図14の補正量算出処理へ戻る。
 図14に戻り、ステップS505以降の説明を続ける。
 ステップS505において、座標(x,y)の注目画素に対して、G波長領域の分光感度ばらつきを補正する場合(ステップS505:Yes)、補正量算出部404は、後述するステップS506へ移行する。これに対して、座標(x,y)の注目画素に対して、G波長領域の分光感度ばらつきを補正しない場合(ステップS505:No)、補正量算出部404は、後述するステップS507へ移行する。
 ステップS506において、補正量算出部404は、G成分の補正量を算出するG成分補正量算出処理を実行する。ここで、G成分とは、G波長領域の画素値である。
 図17は、上述したステップS506のG成分補正量算出処理の概要を示すフローチャートである。図17に示すように、補正量算出部404は、第2バッファ部402bから座標(x,y)の注目画素における周囲のG画素の画素値を取得する(ステップS701)。
 続いて、補正量算出部404は、ステップS701で取得した周囲のG画素の画素値を用いて補間することによって、座標(x,y)の注目画素におけるG成分の画素値を推定する(ステップS702)。例えば、補正量算出部404は、図18A~図18Dに示すように、座標(x,y)の注目画素におけるフィルタの色が赤色のR画素の場合、上下左右のG画素の画素値の平均値(図18Aを参照)を座標(x,y)の注目画素におけるG成分の画素値として推定し、座標(x,y)の注目画素におけるフィルタの色が青色のB画素の場合、上下左右のG画素の画素値の平均値(図18Bを参照)を座標(x,y)の注目画素におけるG成分の画素値として推定する。また、補正量算出部404は、注目画素におけるフィルタの色が緑色のG画素の場合、斜め4方向のG画素値の平均値(図18Cおよび図18Dを参照)を、座標(x,y)の注目画素におけるG成分の平均画素値として推定する。ここで、補正量算出部404は、注目画素がG画素の場合、注目画素を含めた平均値をG成分の平均画素値として算出するようにしてもよい。また、補正量算出部404は、エッジ方向などを検出してエッジ方向の画素値の重みを大きくする等、重み付けを行った平均値を算出するようにしてもよい。
 その後、狭帯域光を被写体に照射して撮影した場合(ステップS703:Yes)、補正量算出部404は、後述するステップS704へ移行する。これに対して、狭帯域光を被写体に照射せずに撮影した場合(ステップS703:No)、補正量算出部404は、後述するステップS705へ移行する。
 ステップS704において、補正量算出部404は、第2バッファ部402bから狭帯域光の光源に応じた座標(x,y)の注目画素におけるG成分(G波長領域の画素値)の補正係数を取得する。ステップS704の後、補正量算出部404は、後述するステップS706へ移行する。
 ステップS705において、補正量算出部404は、第2バッファ部402bから通常光に応じた座標(x,y)の注目画素におけるG成分の補正係数を取得する。ステップS705の後、補正量算出部404は、後述するステップS706へ移行する。
 続いて、補正量算出部404は、上述したステップS702で推定した座標(x,y)の注目画素におけるG成分の画素値(注目画素がG画素である場合にはG成分の平均画素値)に、座標(x,y)の注目画素におけるG成分の補正係数を乗じることによって、座標(x,y)の注目画素の画素値に対するG成分の補正量を算出する(ステップS706)。ステップS706の後、補正量算出部404は、図14の補正量算出処理へ戻る。
 図14に戻り、ステップS507以降の説明を続ける。
 ステップS507において、座標(x,y)の注目画素に対して、B波長領域の分光感度ばらつきを補正する場合(ステップS507:Yes)、補正量算出部404は、後述するステップS508へ移行する。これに対して、座標(x,y)の注目画素に対して、B波長領域の分光感度ばらつきを補正しない場合(ステップS507:No)、補正量算出部404は、後述するステップS509へ移行する。
 ステップS508において、補正量算出部404は、B成分の補正量を算出するB成分補正量算出処理を実行する。ここで、B成分とは、B波長領域の画素値である。
 図19は、上述したステップS508のB成分補正量算出処理の概要を示すフローチャートである。図19に示すように、補正量算出部404は、第2バッファ部402bから座標(x,y)の注目画素における周囲のB画素の画素値を取得する(ステップS801)。
 続いて、補正量算出部404は、ステップS801で取得した周囲のB画素の画素値を用いて補間することによって、座標(x,y)の注目画素におけるB成分の画素値を推定する(ステップS802)。例えば、補正量算出部404は、図20A~図20Dに示すように、座標(x,y)の注目画素におけるフィルタの色が緑色のG画素の場合、上下または左右のB画素の画素値の平均値(図20Aおよび図20Bを参照)を座標(x,y)の注目画素におけるB成分の画素値として推定し、座標(x,y)の注目画素におけるフィルタの色が赤色のR画素の場合、斜め方向のB画素の画素値の平均値(図20Cを参照)を座標(x,y)の注目画素におけるB成分の画素値として推定する。また、補正量算出部404は、注目画素におけるフィルタの色が青色のB画素の場合、上下左右における距離2画素の4つのB画素値の平均値(図20Dを参照)を、座標(x,y)の注目画素におけるB成分の平均画素値として推定する。ここで、補正量算出部404は、注目画素がB画素の場合、注目画素を含めた平均値をB成分の平均画素値として算出するようにしてもよい。また、補正量算出部404は、エッジ方向などを検出してエッジ方向の画素値の重みを大きくする等、重み付けを行った平均値を算出するようにしてもよい。
 その後、狭帯域光を被写体に照射して撮影した場合(ステップS803:Yes)、補正量算出部404は、後述するステップS804へ移行する。これに対して、狭帯域光を被写体に照射せずに撮影した場合(ステップS803:No)、補正量算出部404は、後述するステップS805へ移行する。
 ステップS804において、補正量算出部404は、第2バッファ部402bから狭帯域光の光源に応じた座標(x,y)のB成分の補正係数を取得する。ステップS804の後、補正量算出部404は、後述するステップS806へ移行する。
 ステップS805において、補正量算出部404は、第2バッファ部402bから通常光に応じた座標(x,y)のB成分の補正係数を取得する。ステップS805の後、補正量算出部404は、後述するステップS806へ移行する。
 続いて、補正量算出部404は、上述したステップS802で推定した座標(x,y)の注目画素におけるB成分の画素値(注目画素がB画素である場合にはB成分の平均画素値)に、座標(x,y)の注目画素におけるB成分の補正係数を乗じることによって、座標(x,y)の注目画素の画素値に対するB成分の補正量を算出する(ステップS806)。ステップS806の後、補正量算出部404は、図14の補正量算出処理へ戻る。
 図14に戻り、ステップS509以降の説明を続ける。
 ステップS509において、補正量算出部404は、上述したステップS503~ステップS508で算出した座標(x,y)の注目画素における補正量(算出しなかった成分の補正量は0とする)の和を、座標(x,y)の注目画素の補正量として算出する。
 続いて、補正量算出部404は、カウンタxをインクリメント(x=x+1)する(ステップS510)。
 その後、カウンタxが画像データに対応する画像の幅より小さい場合(ステップS511:Yes)、補正量算出部404は、ステップS503へ戻る。これに対して、カウンタxが画像データに対応する画像の幅より小さくない場合(ステップS511:No)、補正量算出部404は、ステップS512へ移行する。
 続いて、補正量算出部404は、カウンタyをインクリメント(y=y+1)する(ステップS512)。
 その後、カウンタyが画像データに対応する画像の高さより小さい場合(ステップS513:Yes)、補正量算出部404は、ステップS502へ戻る。これに対して、カウンタyが画像データに対応する画像の高さより小さくない場合(ステップS513:No)、補正量算出部404は、図13のメインルーチンへ戻る。
 このように、第2画像処理装置40は、補正量算出部404が撮像装置10の補正係数記録部113bが記録する補正係数を取得し、取得した補正係数と、注目画素における周囲の画素の画素値とに基づいて、注目画素の画素値を補正するための補正量を算出し、画素値補正部405が補正量算出部404によって算出された補正量を用いて注目画素の画素値を補正する。これにより、撮像素子105を構成する複数の画素それぞれの分光感度のばらつきを補正することができる。なお、第2画像処理装置40は、R画素、G画素およびB画素の各々の画素値を補正していたが、例えばG画素のR成分の画素値だけ補正するようにしてもよい。
 また、上述のように、第2画像処理装置40は、分光感度が相対的に低い波長域のほうが、相対的に高い波長域よりも分光感度ばらつきによる影響が大きいため、注目画素におけるフィルタと異なる色の波長領域のみ補正するようにしてもよい。その場合、ステップS503では注目画素がR画素では無い場合にYesと判定し、ステップS505では注目画素がG画素では無い場合にYesと判定し、ステップS507では注目画素がB画素では無い場合にYesと判定するようにすればよい。このようにすることで、上述に比べ、演算量を削減することができる。
 以上説明した本発明の実施の形態1によれば、補正係数算出部307が互いに異なる分光透過率を有する複数色のカラーフィルタ106のいずれか1つを複数の画素の各々の受光面に設けられた撮像素子105によって生成された画像データに対し、注目画素において分光感度と予め設定した基準分光感度との差による画素値の差分を補正するための補正係数を複数の画素毎に算出するので、撮像素子105を構成する複数の画素それぞれの分光感度のばらつきを画素毎に補正するための補正係数を効率的に算出することができる。
 また、本発明の実施の形態1によれば、補正係数算出部307が撮影時に用いる光源に応じて検出方法を変更することによって、光源に応じて画素毎に適切な分光感度のばらつきを補正するための補正係数を算出することができる。
 また、本発明の実施の形態1によれば、補正量算出部404が補正係数記録部113bによって記録された注目画素における補正係数と注目画素における周囲の画素の画素値とに基づいて、注目画素の画素値を補正するための補正量を算出し、画素値補正部405が補正量算出部404によって算出された補正量に基づいて、注目画素の画素値を補正するので、画素毎に分光感度のばらつきに起因して生じる画素値の差を補正することができる。
 また、本発明の実施の形態1によれば、補正量算出部404が撮影時に用いた光源に応じた補正係数を補正係数記録部113bから取得するので、光源に応じて適切な注目画素の画素値の補正量を算出することができる。
 なお、本発明の実施の形態1では、撮像装置10と第1画像処理装置30とがそれぞれ別に設けられていたが、撮像装置10内に第1画像処理装置30を設けてもよい。
 また、本発明の実施の形態1では、撮像装置10と第2画像処理装置40とがそれぞれ別に設けられていたが、撮像装置10内に第2画像処理装置40を設けてもよい。
(実施の形態2)
 次に、本発明の実施の形態2について説明する。本実施の形態2に係る撮像システムは、上述した実施の形態1に係る撮像システム1と同様の構成を有し、第1画像処理装置が実行する処理が異なる。具体的には、上述した実施の形態1では、被写体としての光源装置20が通常光または特定の波長の光を照射していたが、本実施の形態2では、赤、緑および青それぞれの波長領域の光を光源装置20に照射させる。このため、本実施の形態2に係る第2画像処理装置が実行する処理について説明する。なお、上述した実施の形態1に係る撮像システム1と同一の構成には同一の符号を付して説明を省略する。
 〔第2画像処理装置の処理〕
 図21は、第1画像処理装置30が実行する処理の概要を示すフローチャートであり、メインルーチンを示す。なお、図21において、第1画像処理装置30が実行する各画素の分光感度を補正するための補正係数を算出する処理について説明する。
 図21に示すように、光源制御部302は、光源装置20が照射する光(被写体)の波長領域を赤色の波長領域に設定し、赤色均一被写体の被写体として照明光を照射させる(ステップS901)。具体的には、図22の曲線LR10に示すように、光源制御部302は、光源装置20が照射する光の波長領域を600nm~780nmに設定して、分光放射輝度が他の波長領域に比べて高い一様な赤色の光を被写体として撮像装置10に向けて照射させる。なお、図22の曲線LR11に示すように、光源制御部302は、波長領域600nm~780nmよりも波長領域が狭い狭帯域光を光源装置20に照射させてもよい。
 続いて、第1画像処理装置30は、撮像装置10に光源装置20が照射する赤色の照明光を複数回撮影して撮像素子105を構成する各画素の画素値の平均値を算出する撮影処理を実行させる(ステップS902)。なお、撮影処理は、上述した図9の撮影処理と同様のため、説明を省略する。
 その後、光源制御部302は、光源装置20が照射する光の波長領域を緑色の波長領域に設定して照射させる(ステップS903)。具体的には、図23の曲線LG10に示すように、光源制御部302は、光源装置20が照射する光の波長領域を500nm~600nmに設定して、分光放射輝度が他の波長領域に比べて高い一様な緑色の光を被写体として撮像装置10に向けて照射させる。なお、図23の曲線LG11に示すように、光源制御部302は、波長領域500nm~600nmよりも波長領域が狭い狭帯域光を光源装置20に照射させてもよい。
 続いて、第1画像処理装置30は、撮像装置10に光源装置20が照射する緑色の照明光を複数回撮影して撮像素子105を構成する各画素の画素値の平均値を算出する撮影処理を実行させる(ステップS904)。なお、撮影処理は、上述した図9の撮影処理と同様のため、説明を省略する。
 その後、光源制御部302は、光源装置20が照射する光の波長領域を青色の波長領域に設定して照射させる(ステップS905)。具体的には、図24の曲線LB10に示すように、光源制御部302は、光源装置20が照射する光の波長領域を380nm~500nmに設定して、分光放射輝度が他の波長領域に比べて高い一様な青色の光を被写体として撮像装置10に向けて照射させる。なお、図24の曲線LB11に示すように、光源制御部302は、波長領域380nm~500nmよりも波長領域が狭い狭帯域光を光源装置20に照射させてもよい。
 続いて、第1画像処理装置30は、撮像装置10に光源装置20が照射する青色の照明光を複数回撮影して撮像素子105を構成する各画素の画素値の平均値を算出する撮影処理を実行させる(ステップS906)。なお、撮影処理は、上述した図9の撮影処理と同様のため、説明を省略する。
 その後、補正係数算出部307は、第1バッファ部304bに記録された画像データに対応する画像の高さ方向(縦方向)における画素の位置を示すカウンタyを初期化(カウンタy=0)するとともに(ステップS907)、画像データに対応する画像の幅方向(横方向)における画素の位置を示すカウンタxを初期化(カウンタx=0)する(ステップS908)。
 続いて、補正係数算出部307は、座標(x,y)の注目画素とカラーフィルタの色が同色の周囲画素を用いて、座標(x,y)の注目画素における近傍平均値を算出する(ステップS909)。具体的には、補正係数算出部307は、注目画素の色と異なる色の照明光を撮影した画素の周囲画素を用いて座標(x,y)の注目画素における近傍平均値を算出する。例えば、図25Aおよび図25Bに示すように、補正係数算出部307は、注目画素がG画素である場合、赤色の照明光を撮像した画像PRおよび青色の照明光を撮像した画像PBそれぞれの周囲画素を用いて、座標(x,y)の注目画素における近傍平均値Rおよび近傍平均値Bそれぞれを算出する。ここで、周囲画素とは、注目画素を中心に5×5の範囲に含まれる画素であって、注目画素を除く注目画素と同色の画素である。なお、補正係数算出部307は、注目画素を中心に3×3や7×7等、他の大きさの範囲に含まれる画素であって、注目画素を除く周囲画素を用いて近傍平均値Rおよび近傍平均値Bそれぞれを算出してもよい。また、補正係数算出部307は、注目画素を中心に3×3や5×5、7×7等の大きさの範囲に含まれる画素であって、注目画素を含む周囲画素を用いて近傍平均値Rおよび近傍平均値Bそれぞれを算出してもよい。
 その後、補正係数算出部307は、座標(x,y)の注目画素と異なる色の照明光を撮像した画像における座標(x,y)の注目画素の周囲にある画素であり、かつ、被写体と同色の画素の画素値を用いて補間することで、座標(x,y)の注目画素における異色画素値を推定する(ステップS910)。ここで、周囲にある画素とは、注目画素に隣接する位置する画素または注目画素の近傍に位置する画素である。具体的には、図25Aおよび図25Bに示すように、補正係数算出部307は、座標(x,y)の注目画素がG画素である場合、赤色の照明光を撮像した画像PRにおける座標(x,y)の注目画素における周囲のR画素を用いて座標(x,y)の注目画素におけるR画素の異色画素値(R)を推定し、青色の照明光を撮像した画像PBにおける座標(x,y)の注目画素における周囲のB画素を用いて座標(x,y)の注目画素におけるB画素の異色画素値(B)を推定する。
 続いて、補正係数算出部307は、ステップS909で算出した座標(x,y)の注目画素における近傍平均値と、近傍平均値を算出した画像における座標(x,y)の注目画素の画素値との差を誤差量として算出する(ステップS911)。ここで、誤差量は近傍平均値より座標(x,y)の注目画素の画素値が大きい場合には正の値、小さい場合には負の値とする。
 その後、補正係数算出部307は、上述したステップS911で算出した座標(x,y)の注目画素における誤差量を、ステップS910で推定した異色画素値で除算することによって補正係数を算出する(ステップS912)。具体的には、補正係数算出部307は、注目画素がG画素である場合、赤色の照明光を撮像した画像から算出した誤差量を、同じ画像から注目画素の周囲にあるR画素の画素値を用いて推定した異色画素値(R)で除算し、青色の照明光を撮像した画像から算出した誤差量を、同じ画像から注目画素の周囲にあるB画素の画素値を用いて推定した異色画素値(B)で除算することによって、R成分の補正係数およびB成分の補正係数それぞれを算出する。
 続いて、補正係数算出部307は、カウンタxをインクリメント(x=x+1)する(ステップS913)。
 その後、カウンタxが画像データに対応する画像の幅より小さい場合(ステップS914:Yes)、補正係数算出部307は、ステップS909へ戻る。これに対して、カウンタxが画像データに対応する画像の幅より小さくない場合(ステップS914:No)、補正係数算出部307は、ステップS915へ移行する。
 続いて、補正係数算出部307は、カウンタyをインクリメント(y=y+1)する(ステップS915)。
 その後、カウンタyが画像データに対応する画像の高さより小さい場合(ステップS916:Yes)、補正係数算出部307は、ステップS908へ戻る。これに対して、カウンタyが画像データに対応する画像の高さより小さくない場合(ステップS916:No)、補正係数算出部307は、ステップS917へ移行する。
 続いて、補正係数算出部307は、撮像素子105の各画素において、カラーフィルタ106と同じ波長領域以外の波長領域で算出した補正係数を、その画素の補正係数として第1記録部304に記録する(ステップS917)。例えば、補正係数算出部307は、カラーフィルタ106がRGBのベイヤー配列の場合において、R画像のとき、BおよびGそれぞれの波長領域で算出した補正係数を、G画素のとき、RおよびBそれぞれの波長領域で算出した補正係数を、B画素のとき、RおよびGそれぞれの波長領域で算出した補正係数を、その画素の補正係数として撮像装置10の補正係数記録部113bに記録する。ステップS917の後、第2画像処理装置40は、本処理を終了する。
 以上説明した本発明の実施の形態2によれば、赤色、緑色および青色それぞれの波長領域の光を被写体として照射することによって、補正係数算出部307が画素毎の分光感度のばらつきを補正するための補正係数を簡易に算出することができる。
 また、本発明の実施の形態2によれば、補正係数算出部307が注目画素の周囲の画素の画素値を用いて近傍平均値を算出し、この近傍平均値と注目画素の画素値とに基づいて画素毎に分光感度のばらつきを補正するための補正係数を算出するので、被写体に多少のムラが生じていたとしても精度良く補正係数を算出することができる。
 また、本発明の実施の形態2によれば、補正量算出部404が所定の波長領域における一部の色に対する補正量を算出するので、視覚的に補正効果を維持しながら演算量を削減した補正量を算出することができる。
 なお、本発明の実施の形態2では、注目画素の色成分(例えば、G画素のG成分)にも分光感度のばらつきが発生する場合もあるため、注目画素の色成分の補正係数を同様に算出しておいてもよい。この場合、補正係数算出部307は、注目画素と同色の照明光を撮像した画像に基づいて、注目画素と同じカラーフィルタを有する周囲の画素の画素値から注目画素の近傍平均値を算出し、その近傍平均値と注目画素の画素値との差を誤差量として算出し、その誤差量を注目画素の近傍平均値で除算することによって注目画素の色成分の補正係数を算出すればよい。
(実施の形態3)
 次に、本発明の実施の形態3について説明する。上述した実施の形態1,2では、撮像装置10、第1画像処理装置30および第2画像処理装置40それぞれが個別に設けられていたが、本実施の形態3では、撮像装置内に第1画像処理装置および第2画像処理装置を設けた。このため、以下においては、本実施の形態3に係る撮像システムについて説明する。なお、上述した実施の形態1に係る撮像システム1と同一の構成には同一の符号を付して説明を省略する。
 〔撮像システムの構成〕
 図26は、本発明の実施の形態3に係る撮像装置の構成を模式的に示すブロック図である。図26に示す撮像装置10aは、補正係数を算出する場合には筐体100に配置され、通常の撮影時には筐体100外に配置される。また、補正係数を算出する場合には、撮像装置10aは、光源装置20に通信ケーブル等を介して接続される。撮像装置10aは、上述した実施の形態1に係る撮像装置10の構成に加えて、光源制御部302aと、第1画像処理部60と、第2画像処理部70と、第3画像処理部80と、表示部90と、を備える。
 第1画像処理部60は、ランダムノイズ除去部501と、補正係数算出部307と、を有する。
 ランダムノイズ除去部501は、撮像素子105が生成した画像データのランダムノイズを除去し、この除去した画像データを補正係数算出部307へ出力する。ランダムノイズ除去部501は、周知の技術を用いて画像データに対応する画像を構成する複数の画素それぞれに対して発生するランダムノイズを除去する。
 第2画像処理部70は、ランダムノイズ除去部502と、補正量算出部404と、画素値補正部405と、を有する。
 ランダムノイズ除去部502は、上述したランダムノイズ除去部501と同様の機能を有し、撮像素子105が生成した画像データのランダムノイズを除去し、この除去した画像データを補正量算出部404へ出力する。
 第3画像処理部80は、上述した画像処理部406と同様の機能を有し、画素値補正部405が画素値を補正した画像データに対して、所定の画像処理を行い、この画像処理を行った画像データを表示部90へ出力する。
 表示部90は、撮像装置10aに関する各種情報、画像データに対応する画像を表示する。表示部90は、液晶または有機EL等の表示パネルを用いて構成される。
 このように構成された撮像装置10aは、上述した実施の形態1,2と同様の処理を第1画像処理部60および第2画像処理部70がそれぞれ実行する。具体的には、第1画像処理部60が補正係数を算出する処理を実行し、第2画像処理部70が補正量を補正する処理を実行する。
 以上説明した本発明の実施の形態3によれば、上述した実施の形態1,2と同様の効果を有する。
(その他の実施の形態)
 本発明の実施の形態1~3に係るカラーフィルタ106は、Rフィルタ、GフィルタおよびBフィルタで構成されたベイヤー配列のカラーフィルタであったが、他のカラーフィルタであっても本発明を適用することができる。図27に示すように、本発明では、上述した実施の形態1~3に係るカラーフィルタ106のRフィルタに換えて、補色のMg(マゼンタ)フィルタ、GフィルタおよびBフィルタによって構成されたカラーフィルタ106aであってもよい。また、図28に示すように、本発明では、Rフィルタ、GフィルタおよびBフィルタそれぞれが斜めに配置されたカラーフィルタ106bであってもよい。なお、図28に示す状況下では、撮像素子の各画素も斜めに配置されている。さらにまた、図29に示すように、本発明では、Cy(シアン)フィルタ、MgフィルタおよびYe(イエロー)フィルタを用いた補色フィルタのカラーフィルタであってもよい。図29に示すカラーフィルタ106cを用いる場合、周知の補色から原色に補間する補間方法によって行えばよい。
 また、本発明の実施の形態1~3では、1つの撮像素子に互いに異なる分光透過率を有する複数のカラーフィルタを設けていたが、例えば緑色の波長領域を透過するGフィルタのみを各画素の受光面または、撮像素子全面に設けた撮像素子と、赤色または青色の波長領域を透過するRフィルタおよびBフィルタを市松模様になるように互い違いに各画素の受光面に設けた撮像素子とを用いる2板式の撮像装置であっても本発明を適用することができる。この場合、一方の撮像素子におけるG画素の補正係数を算出する場合、該G画素の座標に対応する他方の撮像素子のR画素またはB画素の画素値を用いることによって本発明の補正係数および補正量を算出することができる。
 本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、本発明の説明に用いた撮像装置以外にも、携帯電話やスマートフォンにおける撮像素子を備えた携帯機器、ビデオカメラ、内視鏡、監視カメラ、顕微鏡のような光学機器を通して被写体を撮影する撮像装置等、被写体を撮像可能ないずれの機器にも適用できる。
 また、本明細書において、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」、「続いて」、「その後」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。
 また、上述した実施形態における画像処理装置による各処理の手法、即ち、各フローチャートに示す処理は、いずれもCPU等の制御部に実行させることができるプログラムとして記憶させておくこともできる。この他、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、CPU等の制御部は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。
 また、本発明は、上述した実施の形態および変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上述した実施の形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した実施の形態および変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、各実施例および変形例で説明した構成要素を適宜組み合わせてもよい。
 また、明細書または図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書または図面のいかなる箇所においても、その異なる用語に置き換えることができる。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。
 1 撮像システム
 10,10a 撮像装置
 20 光源装置
 30 第1画像処理装置
 40 第2画像処理装置
 50 表示装置
 60 第1画像処理部
 70 第2画像処理部
 80 第3画像処理部
 90 表示部
 100 筐体
 101 光学系
 102 絞り
 103 シャッタ
 104 ドライバ
 105 撮像素子
 106,106a,106b,106c カラーフィルタ
 107 アナログ処理部
 108 A/D変換部
 109 第1操作部
 110 メモリI/F部
 111 記録媒体
 112 揮発メモリ
 113 不揮発メモリ
 113a プログラム記録部
 113b 補正係数記録部
 114 バス
 115 撮像制御部
 116 第1外部I/F部
 301 第2外部I/F部
 302 光源制御部
 302a 光源制御部
 303 第2操作部
 304 第1記録部
 304a 第1プログラム記録部
 304b 第1バッファ部
 305 第1画像処理制御部
 306 第1バス
 307 補正係数算出部
 401 第3外部I/F部
 402 第2記録部
 402a 第2プログラム記録部
 402b 第2バッファ部
 403 第2バス
 404 補正量算出部
 405 画素値補正部
 406 画像処理部
 501,502 ランダムノイズ除去部

Claims (12)

  1.  互いに異なる分光透過率を有する複数色のカラーフィルタを用いて所定の配列パターンを形成し、該配列パターンを形成する個々のカラーフィルタが複数の画素のいずれかに対応する位置に配置された撮像素子によって生成された画像データに基づいて、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差に対応する画素値の差分を補正するための補正係数を、少なくとも前記複数色のカラーフィルタのうち所定のカラーフィルタが配置された前記複数の画素毎に算出する補正係数算出部を備えたことを特徴とする画像処理装置。
  2.  前記補正係数算出部は、前記注目画素に設けられた前記カラーフィルタの分光透過率が他の色の前記カラーフィルタの分光透過率よりも低い波長領域を含む前記所定波長域における前記補正係数を算出することを特徴とする請求項1に記載の画像処理装置。
  3.  前記補正係数算出部は、前記注目画素に設けられた前記カラーフィルタの分光透過率が他の色の前記カラーフィルタの分光透過率よりも高い波長領域を含む前記所定波長域における前記補正係数を算出することを特徴とする請求項1に記載の画像処理装置。
  4.  前記補正係数算出部は、前記注目画素と同色の前記カラーフィルタが配置された前記複数の画素の各々の画素値に基づいて、前記基準分光感度を算出することを特徴とする請求項1~3のいずれか一つに記載の画像処理装置。
  5.  前記補正係数算出部は、前記注目画素と同色の前記カラーフィルタが配置された前記複数の画素の各々の分光感度の平均値または前記注目画素毎に該注目画素の周辺に位置し該注目画素と同色の前記カラーフィルタが配置された前記複数の画素の各々の分光感度の平均値を前記基準分光感度として算出することを特徴とする請求項4に記載の画像処理装置。
  6.  前記補正係数算出部は、互いに異なる波長特性の光を照射する光源毎に前記補正係数を算出することを特徴とする請求項1~5のいずれか一つに記載の画像処理装置。
  7.  前記撮像素子は、所定波長領域の分光放射輝度が他の波長領域に比べて高い一様な光を受光することによって前記画像データを生成することを特徴とする請求項1~6のいずれか一つに記載の画像処理装置。
  8.  前記画像データのランダムノイズを除去するランダムノイズ除去部をさらに備え、
     前記補正係数算出部は、前記ランダムノイズ除去部によって前記ランダムノイズが除去された前記画像データに対し、前記補正係数を算出することを特徴とする請求項1~7のいずれか一つに記載の画像処理装置。
  9.  前記カラーフィルタの色は、赤、緑および青であることを特徴とする請求項1~8のいずれか一つに記載の画像処理装置。
  10.  前記カラーフィルタの色は、シアン、マゼンタ、イエローおよび緑であることを特徴とする請求項1~8のいずれか一つに記載の画像処理装置。
  11.  画像処理装置が実行する画像処理方法であって、
     互いに異なる分光透過率を有する複数色のカラーフィルタを用いて所定の配列パターンを形成し、該配列パターンを形成する個々のカラーフィルタが複数の画素のいずれかに対応する位置に配置された撮像素子によって生成された画像データを取得する取得ステップと、
     前記取得ステップにおいて取得した前記画像データに基づいて、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差による画素値の差分を補正するための補正係数を、少なくとも前記複数色のカラーフィルタのうち所定のカラーフィルタが配置された前記複数の画素毎に算出する補正係数算出ステップと、
     を含むことを特徴とする画像処理方法。
  12.  互いに異なる分光透過率を有する複数色のカラーフィルタを用いて所定の配列パターンを形成し、該配列パターンを形成する個々のカラーフィルタが複数の画素のいずれかに対応する位置に配置された撮像素子によって生成された画像データを取得する取得ステップと、
     前記取得ステップにおいて取得した前記画像データに基づいて、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差による画素値の差分を補正するための補正係数を、少なくとも前記複数色のカラーフィルタのうち所定のカラーフィルタが配置された前記複数の画素毎に算出する補正係数算出ステップと、
     を画像処理装置に実行させることを特徴とするプログラム。
PCT/JP2015/057377 2015-03-12 2015-03-12 画像処理装置、画像処理方法およびプログラム WO2016143139A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP15884626.1A EP3270587A4 (en) 2015-03-12 2015-03-12 Image processing device, image processing method, and program
JP2017504541A JP6538819B2 (ja) 2015-03-12 2015-03-12 画像処理装置、画像処理方法およびプログラム
CN201580077653.2A CN107409201B (zh) 2015-03-12 2015-03-12 图像处理装置、图像处理方法和计算机可读取的记录介质
PCT/JP2015/057377 WO2016143139A1 (ja) 2015-03-12 2015-03-12 画像処理装置、画像処理方法およびプログラム
US15/698,717 US10419685B2 (en) 2015-03-12 2017-09-08 Image processing apparatus, image processing method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/057377 WO2016143139A1 (ja) 2015-03-12 2015-03-12 画像処理装置、画像処理方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/698,717 Continuation US10419685B2 (en) 2015-03-12 2017-09-08 Image processing apparatus, image processing method, and computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2016143139A1 true WO2016143139A1 (ja) 2016-09-15

Family

ID=56878661

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/057377 WO2016143139A1 (ja) 2015-03-12 2015-03-12 画像処理装置、画像処理方法およびプログラム

Country Status (5)

Country Link
US (1) US10419685B2 (ja)
EP (1) EP3270587A4 (ja)
JP (1) JP6538819B2 (ja)
CN (1) CN107409201B (ja)
WO (1) WO2016143139A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180266941A1 (en) * 2017-03-15 2018-09-20 Canon Kabushiki Kaisha Analyzer, image capturing apparatus, analyzing method, and storage medium

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019105463A (ja) * 2017-12-08 2019-06-27 キヤノン株式会社 分光測色器及び画像形成装置
CN112219220A (zh) * 2018-06-13 2021-01-12 奥林巴斯株式会社 图像处理装置、图像处理方法及程序
WO2020254438A1 (en) * 2019-06-18 2020-12-24 ams Sensors Germany GmbH Spectral reconstruction of detector sensitivity
US11389066B2 (en) 2019-06-20 2022-07-19 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11898909B2 (en) 2019-06-20 2024-02-13 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11471055B2 (en) 2019-06-20 2022-10-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11540696B2 (en) 2019-06-20 2023-01-03 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US12013496B2 (en) 2019-06-20 2024-06-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed laser mapping imaging system
US11925328B2 (en) 2019-06-20 2024-03-12 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral imaging system
JP7543012B2 (ja) * 2020-07-13 2024-09-02 キヤノン株式会社 装置、及びシステム
CN112164005B (zh) * 2020-09-24 2023-03-17 Oppo(重庆)智能科技有限公司 图像颜色校正方法、装置、设备及存储介质
EP4142283A1 (en) * 2021-08-24 2023-03-01 Aptiv Technologies Limited Method of generating infrared image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007010364A (ja) * 2005-06-28 2007-01-18 Konica Minolta Sensing Inc 分光装置の波長校正方法及び分光装置
JP2010193378A (ja) * 2009-02-20 2010-09-02 Nikon Corp 調整装置及び調整方法、並びに撮像装置
JP2010190741A (ja) * 2009-02-18 2010-09-02 Nikon Corp 測定装置、測定方法および撮像装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3750830B2 (ja) * 1996-08-30 2006-03-01 ソニー株式会社 撮像装置における色補正装置
US6943837B1 (en) * 1999-12-31 2005-09-13 Intel Corporation Method and apparatus for colormetric channel balancing for solid state image sensor using time division multiplexed sampling waveforms
US7301571B2 (en) * 2003-01-17 2007-11-27 Fujifilm Corporation Method and imaging apparatus for correcting defective pixel of solid-state image sensor, and method for creating pixel information
US7760253B2 (en) * 2005-02-08 2010-07-20 Hewlett-Packard Development Company, L.P. Imaging device analysis methods, imaging device analysis systems, and articles of manufacture
JP4804422B2 (ja) * 2007-05-31 2011-11-02 オリンパス株式会社 信号処理装置、信号処理プログラム
JP2011521591A (ja) * 2008-05-22 2011-07-21 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. カメラセンサの補正
WO2010123499A1 (en) * 2009-04-22 2010-10-28 Hewlett-Packard Development Company, L.P. Spatially-varying spectral response calibration data
US8619163B2 (en) * 2009-09-18 2013-12-31 Canon Kabushiki Kaisha Solid state imaging using a correction parameter for correcting a cross talk between adjacent pixels
JP5460202B2 (ja) * 2009-09-18 2014-04-02 キヤノン株式会社 画像処理装置及び撮像システム
JP2012209709A (ja) * 2011-03-29 2012-10-25 Sony Corp 画像処理装置および方法、記録媒体並びにプログラム
JP5865555B2 (ja) * 2013-05-13 2016-02-17 富士フイルム株式会社 混色率算出装置及び方法並びに撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007010364A (ja) * 2005-06-28 2007-01-18 Konica Minolta Sensing Inc 分光装置の波長校正方法及び分光装置
JP2010190741A (ja) * 2009-02-18 2010-09-02 Nikon Corp 測定装置、測定方法および撮像装置
JP2010193378A (ja) * 2009-02-20 2010-09-02 Nikon Corp 調整装置及び調整方法、並びに撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3270587A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180266941A1 (en) * 2017-03-15 2018-09-20 Canon Kabushiki Kaisha Analyzer, image capturing apparatus, analyzing method, and storage medium
US10768097B2 (en) * 2017-03-15 2020-09-08 Canon Kabushiki Kaisha Analyzer, image capturing apparatus that acquires color information, analyzing method, and storage medium

Also Published As

Publication number Publication date
EP3270587A1 (en) 2018-01-17
JPWO2016143139A1 (ja) 2017-12-21
US10419685B2 (en) 2019-09-17
CN107409201B (zh) 2019-02-05
JP6538819B2 (ja) 2019-07-03
EP3270587A4 (en) 2018-10-24
CN107409201A (zh) 2017-11-28
US20170374260A1 (en) 2017-12-28

Similar Documents

Publication Publication Date Title
WO2016143139A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP6725613B2 (ja) 撮像装置および撮像処理方法
JP5527448B2 (ja) 画像入力装置
TWI462055B (zh) 具有合成全色影像之彩色濾光器陣列影像
US10630920B2 (en) Image processing apparatus
JP5349790B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6538818B2 (ja) 画像処理装置、画像処理方法およびプログラム
TWI496463B (zh) 形成全彩色影像之方法
EP2594062B1 (en) Flash system for multi-aperture imaging
JP6999802B2 (ja) ダブルカメラベースの撮像のための方法および装置
JP5397788B2 (ja) 画像入力装置
US20190132528A1 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium
JP2011239252A (ja) 撮像装置
WO2018025323A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP2009141571A (ja) 撮像装置
JP6758326B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2018020687A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP2010098085A (ja) 固体撮像素子及びそれを備えた撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15884626

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017504541

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015884626

Country of ref document: EP