WO2016143134A1 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
WO2016143134A1
WO2016143134A1 PCT/JP2015/057372 JP2015057372W WO2016143134A1 WO 2016143134 A1 WO2016143134 A1 WO 2016143134A1 JP 2015057372 W JP2015057372 W JP 2015057372W WO 2016143134 A1 WO2016143134 A1 WO 2016143134A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
correction amount
image processing
correction
unit
Prior art date
Application number
PCT/JP2015/057372
Other languages
English (en)
French (fr)
Inventor
学 市川
裕輝 丸山
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to EP15884621.2A priority Critical patent/EP3270586A4/en
Priority to JP2017504536A priority patent/JP6538818B2/ja
Priority to CN201580077582.6A priority patent/CN107409200B/zh
Priority to PCT/JP2015/057372 priority patent/WO2016143134A1/ja
Publication of WO2016143134A1 publication Critical patent/WO2016143134A1/ja
Priority to US15/700,254 priority patent/US10416026B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/027Control of working procedures of a spectrometer; Failure detection; Bandwidth calculation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/52Measurement of colour; Colour measuring devices, e.g. colorimeters using colour charts
    • G01J3/524Calibration of colorimeters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • H04N1/6033Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer using test pattern analysis
    • H04N1/6041Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer using test pattern analysis for controlling uniformity of color across image area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/85Camera processing pipelines; Components thereof for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and a program for correcting spectral sensitivity characteristics of a color filter provided in each of a plurality of pixels constituting an imaging device.
  • the present invention has been made in view of the above, and it is an object of the present invention to provide an image processing apparatus, an image processing method, and a program capable of correcting variation in spectral sensitivity of each of a plurality of pixels constituting an imaging device. I assume.
  • an image processing apparatus forms a predetermined arrangement pattern using color filters of a plurality of colors having different spectral transmittances, and The predetermined wavelength range of the spectral sensitivity and the preset reference spectral sensitivity in the pixel of interest based on the image data generated by the imaging device in which the individual color filters to be formed are arranged at positions corresponding to any of the plurality of pixels.
  • a correction amount calculation unit that calculates a correction amount for correcting the pixel value of the target pixel based on the pixel value of the pixel; and the correction value calculated by the correction amount calculation unit. Characterized by comprising a pixel value correcting unit that corrects the pixel value of the pixel of interest using the amounts.
  • the correction amount calculation unit calculates the correction amount based on pixel values of the surrounding pixels having the color filter of a color different from that of the target pixel. It is characterized by
  • the correction amount calculation unit calculates the correction amount based on the pixel value of the surrounding pixel having the color filter of the same color as the target pixel. It is characterized by
  • the surrounding pixels are pixels adjacent to the target pixel vertically and horizontally, a pixel adjacent to the target pixel in a diagonal direction, and a predetermined pixel from the target pixel It is characterized in that it is any one of upper, lower, left and right pixels separated by an interval.
  • the correction amount calculation unit calculates only the correction amount of the target pixel on which the color filter of a predetermined color is arranged.
  • the recording unit records the correction coefficient for each light source emitting light in different wavelength regions, and the correction amount calculation unit responds to the light source.
  • the correction coefficient is selected, and the correction amount is calculated using the selected correction coefficient.
  • the pixel value correction unit adds or subtracts the correction amount calculated by the correction amount calculation unit to the pixel value of the target pixel. Do.
  • the pixel value correction unit corrects the pixel value of the target pixel in the moving image data continuously generated by the imaging device using the correction amount. It is characterized by
  • the image processing apparatus in the above-mentioned invention, in the above-mentioned invention, a pixel value corresponding to a difference between the spectral sensitivity and the reference spectral sensitivity set in advance in the pixel of interest based on the image data generated by the imaging device.
  • the image display apparatus may further include a correction coefficient calculation unit that calculates a correction coefficient for correcting the difference for each of the plurality of pixels.
  • the color of the color filter is red, green and blue.
  • the color of the color filter is cyan, magenta, yellow and green.
  • the image processing method is an image processing method executed by an image processing apparatus, which forms a predetermined arrangement pattern using color filters of plural colors having different spectral transmittances, and the arrangement pattern In the predetermined wavelength range of the image data generated by the imaging device in which the individual color filters that form each other are arranged at positions corresponding to any of the plurality of pixels, and the spectral sensitivity and the preset reference spectral sensitivity in the pixel of interest
  • a pixel value correcting step of correcting the pixel value of the pixel of interest by using the correction amount characterized in that it comprises a.
  • a predetermined array pattern is formed using color filters of a plurality of colors having different spectral transmittances, and each color filter forming the array pattern is one of a plurality of pixels.
  • Image data generated by an imaging element disposed at a corresponding position, a correction coefficient for correcting a difference in pixel value due to a difference in a predetermined wavelength range between a spectral sensitivity and a preset reference spectral sensitivity at a pixel of interest; And a correction amount for correcting the pixel value of the target pixel based on the acquisition step of acquiring the correction value and the correction coefficient of the target pixel acquired in the acquisition step and the pixel values of surrounding pixels in the target pixel.
  • the pixel value of the target pixel is compensated using the correction amount calculation step to be calculated and the correction amount calculated in the correction amount calculation step.
  • the present invention it is possible to correct the dispersion of the spectral sensitivity of each of the plurality of pixels constituting the imaging device.
  • FIG. 1 is a block diagram schematically showing a configuration of an imaging system according to Embodiment 1 of the present invention.
  • FIG. 2 is a view schematically showing a configuration of a color filter according to Embodiment 1 of the present invention.
  • FIG. 3 is a view showing the average of the spectral sensitivity characteristics of each of the R pixel, the G pixel, and the B pixel constituting the imaging device according to Embodiment 1 of the present invention.
  • FIG. 4 is a diagram showing spectral sensitivity characteristics of R pixels constituting the imaging device according to Embodiment 1 of the present invention.
  • FIG. 5 is a diagram showing spectral sensitivity characteristics of G pixels constituting the imaging device according to Embodiment 1 of the present invention.
  • FIG. 1 is a block diagram schematically showing a configuration of an imaging system according to Embodiment 1 of the present invention.
  • FIG. 2 is a view schematically showing a configuration of a color filter according to Embodiment 1 of the present invention.
  • FIG. 6 is a diagram showing spectral sensitivity characteristics of B pixels constituting the imaging device according to Embodiment 1 of the present invention.
  • FIG. 7 is a view schematically showing pixel values of a plurality of G pixels constituting an imaging device when the imaging device according to Embodiment 1 of the present invention images a flat red subject.
  • FIG. 8 is a flowchart showing an outline of processing executed by the first image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 9 is a flowchart showing an outline of the shooting process of FIG.
  • FIG. 10 is a flowchart showing an outline of the correction coefficient calculation process of FIG.
  • FIG. 11 is a diagram schematically showing spectral characteristics at the time of correction coefficient calculation when normal light is used.
  • FIG. 12 is a view schematically showing spectral characteristics at the time of correction coefficient calculation when narrow band light is used.
  • FIG. 13 is a flowchart showing an outline of processing performed by the second image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 14 is a flowchart showing an outline of the correction amount calculation process of FIG.
  • FIG. 15 is a flowchart showing an outline of the R component correction amount calculation process of FIG.
  • FIG. 16A is a diagram schematically illustrating an interpolation method for estimating the R component when the pixel of interest is a B pixel.
  • FIG. 16B is a diagram schematically illustrating an interpolation method for estimating the R component when the pixel of interest is a G pixel.
  • FIG. 16C is a diagram schematically illustrating an interpolation method for estimating the R component when the pixel of interest is a G pixel.
  • FIG. 16D is a diagram schematically illustrating an interpolation method for estimating the R component when the pixel of interest is an R pixel.
  • FIG. 17 is a flowchart showing an outline of the G component correction amount calculation process of FIG.
  • FIG. 18A is a diagram schematically illustrating an interpolation method for estimating the G component when the pixel of interest is an R pixel.
  • FIG. 18B is a diagram schematically illustrating an interpolation method for estimating the G component when the pixel of interest is a B pixel.
  • FIG. 18C is a diagram schematically illustrating an interpolation method for estimating the G component when the pixel of interest is a G pixel.
  • FIG. 18D is a diagram schematically illustrating an interpolation method for estimating the G component when the pixel of interest is a G pixel.
  • FIG. 19 is a flowchart showing an outline of the B component correction amount calculation process of FIG.
  • FIG. 20A is a diagram schematically illustrating an interpolation method for estimating the B component when the pixel of interest is a G pixel.
  • FIG. 20B is a diagram schematically illustrating an interpolation method for estimating the B component when the pixel of interest is a G pixel.
  • FIG. 20A is a diagram schematically illustrating an interpolation method for estimating the B component when the pixel of interest is a G pixel.
  • FIG. 20B is a diagram schematically illustrating an interpolation method for estimating the B component when the pixel of interest is a G pixel.
  • FIG. 20C is a diagram schematically illustrating an interpolation method for estimating the B component when the pixel of interest is an R pixel.
  • FIG. 20D is a diagram schematically illustrating an interpolation method for estimating the B component when the pixel of interest is a B pixel.
  • FIG. 21 is a flowchart showing an outline of processing executed by the first image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 22 is a diagram schematically showing spectral characteristics of a red subject at the time of correction coefficient calculation performed by the first image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 23 is a view schematically showing spectral characteristics of a green subject at the time of correction coefficient calculation performed by the first image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 24 is a diagram schematically showing spectral characteristics of a blue subject at the time of correction coefficient calculation executed by the first image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 25A is a diagram schematically illustrating calculation of a correction coefficient of an R component when the pixel of interest is a G pixel.
  • FIG. 25B is a diagram schematically illustrating correction coefficient calculation of the B component in the case where the pixel of interest is a G pixel.
  • FIG. 26 is a block diagram schematically showing a configuration of an imaging device according to Embodiment 3 of the present invention.
  • FIG. 27 is a view schematically showing a configuration of a color filter according to the first modification of the first to third embodiments of the present invention.
  • FIG. 28 is a view schematically showing a configuration of a color filter according to the second modification of the first to third embodiments of the present invention.
  • FIG. 29 schematically shows a structure of a color filter according to the third modification of the first to third embodiments of the present invention.
  • FIG. 1 is a block diagram schematically showing a configuration of an imaging system according to Embodiment 1 of the present invention.
  • the imaging system 1 illustrated in FIG. 1 is disposed in a housing 100 in which a light shielding space in which light from the outside is shielded is formed when a correction coefficient described later is calculated. Further, the imaging system 1 shown in FIG. 1 is disposed outside the housing 100 when performing normal imaging.
  • the imaging system 1 includes an imaging device 10, a light source device 20 (subject), a first image processing device 30, a second image processing device 40, and a display device 50.
  • the first image processing device 30, the second image processing device 40, and the display device 50 may be disposed outside the housing 100 even when calculating a correction coefficient described later.
  • the imaging apparatus 10 includes an optical system 101, an aperture 102, a shutter 103, a driver 104, an imaging element 105, a color filter 106, an analog processing unit 107, an A / D conversion unit 108, and a first operation unit.
  • a memory I / F unit 110, a recording medium 111, a volatile memory 112, a non-volatile memory 113, a bus 114, an imaging control unit 115, and a first external I / F unit 116 are provided.
  • the optical system 101 is configured using one or more lenses.
  • the optical system 101 is configured using, for example, a focus lens and a zoom lens.
  • the diaphragm 102 adjusts exposure by limiting the amount of incident light collected by the optical system 101.
  • the diaphragm 102 limits the amount of incident light collected by the optical system 101 under the control of the imaging control unit 115.
  • the amount of incident light may be controlled using an electronic shutter in the shutter 103 or the imaging device 105 without using the diaphragm 102.
  • the shutter 103 sets the state of the imaging element 105 to an exposure state or a light blocking state under the control of the imaging control unit 115.
  • the shutter 103 is configured using, for example, a focal plane shutter or the like. Instead of using the shutter 103, an electronic shutter in the imaging device 105 may be used.
  • the driver 104 drives the optical system 101, the diaphragm 102, and the shutter 103 under the control of the imaging control unit 115 described later.
  • the driver 104 changes the zoom magnification of the imaging device 10 or adjusts the focus position by moving the optical system 101 along the optical axis O1.
  • the imaging element 105 receives light collected by the optical system 101 under control of an imaging control unit 115 described later, converts the light into image data (electric signal), and outputs the image data.
  • the imaging device 105 is configured using an image sensor such as a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD) in which a plurality of pixels are two-dimensionally arranged.
  • CMOS complementary metal oxide semiconductor
  • CCD charge coupled device
  • the image sensor 105 also has an electronic shutter function that can electronically control the amount of light received.
  • the color filter 106 is stacked on the light receiving surface of the image sensor 105.
  • a plurality of color filters transmitting light in different wavelength regions form a predetermined array pattern, and individual color filters forming the array pattern constitute a plurality of pixels constituting the imaging element 105. It is arranged at a position corresponding to one of them.
  • FIG. 2 is a diagram schematically showing the configuration of the color filter 106.
  • the color filter 106 shown in FIG. 2 includes a filter R transmitting light in the red wavelength region in the Bayer arrangement, a filter G transmitting light in the green wavelength region, and a filter B transmitting light in the blue wavelength region. It is provided on the light receiving surface of each pixel of the image sensor 105.
  • a pixel in which the filter R is disposed on the light receiving surface is described as an R pixel
  • a pixel in which the filter G is disposed on a light receiving surface is described as a G pixel
  • a pixel in which the filter B is disposed on a light receiving surface is described as a B pixel.
  • the analog processing unit 107 subjects the analog signal output from the imaging device 105 to predetermined analog processing and outputs the analog signal to the A / D conversion unit 108. Specifically, the analog processing unit 107 performs noise reduction processing, gain up processing, and the like on the analog signal input from the imaging device 105. For example, the analog processing unit 107 performs waveform shaping on an analog signal after reducing reset noise and the like, and further performs gain up so as to achieve the target brightness.
  • the A / D conversion unit 108 performs A / D conversion on the analog signal input from the analog processing unit 107 to generate digital image data (hereinafter referred to as “RAW image data”), and the bus 114 Output to the volatile memory 112.
  • the A / D conversion unit 108 may directly output RAW image data to each unit of the imaging apparatus 10 described later.
  • the color filter 106, the analog processing unit 107, and the A / D conversion unit 108 described above may be provided in the imaging device 105, and the imaging device 105 may directly output digital RAW image data.
  • the first operation unit 109 gives various instructions of the imaging device 10.
  • the first operation unit 109 is a power switch that switches the power state of the imaging device 10 to the on state or the off state, a release switch that gives an instruction of still image shooting, an operation switch that switches various settings of the imaging device 10, It has a movie switch etc. which give instructions of movie shooting.
  • the recording medium 111 is configured using a memory card mounted from the outside of the imaging device 10, and is detachably mounted to the imaging device 10 via the memory I / F unit 110.
  • the recording medium 111 may output the program and various information to the non-volatile memory 113 through the memory I / F unit 110 under the control of the imaging control unit 115.
  • the volatile memory 112 temporarily stores the image data input from the A / D conversion unit 108 via the bus 114.
  • the volatile memory 112 temporarily stores image data sequentially output for each frame by the imaging device 105 via the analog processing unit 107, the A / D conversion unit 108, and the bus 114.
  • the volatile memory 112 is configured using an SDRAM (Synchronous Dynamic Random Access Memory) or the like.
  • the non-volatile memory 113 records various programs for operating the imaging device 10 and various data used during execution of the programs.
  • the non-volatile memory 113 is a correction coefficient for correcting the dispersion of the spectral sensitivity of each of the plurality of pixels constituting the image pickup device 105 input through the program recording unit 113 a and the first external I / F unit 116.
  • a correction coefficient recording unit 113b for recording the The non-volatile memory 113 is configured using a flash memory or the like.
  • the bus 114 is configured by using a transmission path or the like connecting each component of the imaging device 10, and transfers various data generated inside the imaging device 10 to each component of the imaging device 10.
  • the imaging control unit 115 is configured using a CPU (Central Processing Unit) or the like, and transmits instructions or data to each unit configuring the imaging device 10 according to an instruction signal from the first operation unit 109 or a release signal.
  • the imaging control unit 115 performs control to start the imaging operation in the imaging device 10.
  • the imaging operation in the imaging device 10 refers to an operation in which the analog processing unit 107 and the A / D conversion unit 108 perform predetermined processing on an analog signal output from the imaging element 105.
  • the image data thus processed is recorded on the recording medium 111 via the bus 114 and the memory I / F unit 110 under the control of the imaging control unit 115.
  • the first external I / F unit 116 outputs information input from an external device through the bus 114 to the nonvolatile memory 113 or the volatile memory 112, while the volatile memory 112 stores the information to the external device through the bus 114.
  • Information, the information recorded by the non-volatile memory 113, and the image data generated by the imaging device 105 are output.
  • the first external I / F unit 116 outputs the image data generated by the imaging element 105 to the first image processing device 30 and the second image processing device 40 via the bus 114.
  • the light source device 20 directs light of a predetermined wavelength region to the imaging device 10 under the control of the first image processing device 30, and emits illumination light of parallel light as a subject . Specifically, under the control of the first image processing device 30, the light source device 20 emits visible light of, for example, 380 nm to 780 nm toward the imaging device 10 at intervals of 10 nm.
  • the light source device 20 is configured using, for example, a rotating filter provided with a plurality of filters transmitting light having different wavelength regions, a light source such as a tungsten lamp or a xenon lamp, and a driver such as a motor rotating the rotating filter.
  • the light source device 20 may use a fluorescent lamp that emits parallel light in a predetermined wavelength range, an LED (Light Emitting Diode), a laser beam, or the like.
  • the light source device 20 may switch the light of a predetermined wavelength region, for example, each wavelength region of red, green and blue instead of the 10 nm interval, and irradiate the light toward the imaging device 10.
  • a compact digital camera in which the imaging device 10 is integrated with the optical system 101 and the diaphragm 102 is assumed, but a lens unit having the optical system 101 and the diaphragm 102 is a main body (body It is applicable even if it is a digital camera which can be attached or detached freely with respect to In this case, light from the light source device 20 is preferably incident on the imaging device 10 as parallel light. For this reason, in the case of a digital camera in which the lens unit is removable, it is preferable to shoot while the lens unit is removed from the main body unit. In addition, it is preferable that the light source device 20 irradiate parallel light as uniform as possible toward the imaging device 10.
  • the first image processing apparatus 30 includes a second external I / F unit 301, a light source control unit 302, a second operation unit 303, a first recording unit 304, a first image processing control unit 305, and a first bus. And a correction coefficient calculation unit 307.
  • the second external I / F unit 301 acquires image data generated by the imaging device 105 via the first external I / F unit 116 of the imaging device 10, and the acquired image data is used as the correction coefficient calculation unit 307 or 1 Output to the buffer unit 304 b. Further, the second external I / F unit 301 outputs the information input from the correction coefficient calculation unit 307 to the imaging device 10.
  • the second external I / F unit 301 and the first external I / F unit 116 are connected via, for example, a control cable capable of exchanging information bidirectionally, a wireless communication path, or the like.
  • the light source control unit 302 is configured using a CPU, and controls the wavelength range of light emitted by the light source device 20. Specifically, the light source control unit 302 causes the light source device 20 to emit light of a wavelength region of every 10 nm to the imaging device 10.
  • the second operation unit 303 gives various instructions of the first image processing apparatus 30. Specifically, the second operation unit 303 gives the light source device 20 an instruction to sequentially emit light of different wavelength ranges.
  • the first recording unit 304 is configured using volatile memory and non-volatile memory, and is used during execution of image data input from the imaging device 10, various programs for operating the first image processing device 30, and programs. Record various data.
  • the first recording unit 304 also stores a first program recording unit 304 a that records various programs for operating the first image processing device 30, and temporarily stores image data and the like input from the imaging device 10. And one buffer unit 304 b.
  • the first image processing control unit 305 is configured by using a CPU or the like, and transmits instructions and data to each unit configuring the first image processing apparatus 30 according to an instruction from the second operation unit 303, The operation of the image processing apparatus 30 is comprehensively controlled.
  • the correction coefficient calculation unit 307 corrects the correction coefficient for correcting the difference of the pixel value corresponding to the difference between the spectral sensitivity and the preset reference spectral sensitivity in the pixel of interest based on the image data generated by the imaging device 105.
  • the calculation result is calculated for each of the plurality of pixels of the imaging element 105, and the calculated calculation result is recorded in the correction coefficient recording unit 113b of the imaging device 10.
  • the first bus 306 is configured by using a transmission path or the like connecting each component of the first image processing device 30, and various data generated inside the first image processing device 30 can be obtained by each of the first image processing device 30. Transfer to the component part.
  • the second image processing apparatus 40 includes a third external I / F unit 401, a second recording unit 402, a second bus 403, a correction amount calculation unit 404, a pixel value correction unit 405, and an image processing unit 406. And.
  • the third external I / F unit 401 acquires and acquires the image data generated by the imaging device 105 via the first external I / F unit 116 of the imaging device 10 and the correction coefficient from the correction coefficient recording unit 113 b.
  • the image data and the correction coefficient are output to the correction amount calculation unit 404 or the second buffer unit 402b.
  • the third external I / F unit 401 and the first external I / F unit 116 are connected via, for example, a control cable capable of bidirectionally exchanging information, a wireless communication path, or the like.
  • the second recording unit 402 is configured using a volatile memory and a non-volatile memory, and receives image data input from the imaging device 10, correction coefficients, various programs for operating the second image processing apparatus 40, and programs being executed. Record various data used.
  • the second recording unit 402 temporarily stores a second program recording unit 402 a for driving the second image processing device 40, the image data input from the imaging device 10, the correction coefficient of the pixel of interest, and the like. It has a second buffer unit 402b.
  • the correction amount calculation unit 404 calculates a correction amount for correcting the pixel value of the pixel of interest based on the correction coefficient of the pixel of interest recorded by the correction coefficient recording unit 113 b and the pixel values of surrounding pixels of the pixel of interest. . Further, the correction amount calculation unit 404 calculates a correction amount for correcting the pixel value of the target pixel based on the pixel values of the target pixel and the surrounding pixels.
  • the surrounding pixels are pixels adjacent to the target pixel or pixels located in the vicinity of the target pixel. Further, the pixel adjacent to the target pixel is a pixel located in the left, right, upper, and lower directions with reference to the target pixel.
  • the pixel located in the vicinity of the pixel of interest is a pixel located in an oblique direction with respect to the pixel of interest or a pixel closest to the pixel of interest in the same color as the pixel of interest. Furthermore, the correction amount calculation unit 404 selects and acquires a correction coefficient corresponding to the light source from the correction coefficient recording unit 113b, and calculates a correction amount for correcting the pixel value of the target pixel using the acquired correction coefficient. .
  • the pixel value correction unit 405 corrects the pixel value of the target pixel using the correction amount calculated by the correction amount calculation unit 404.
  • the image processing unit 406 performs predetermined image processing on the image data whose spectral sensitivity variation has been corrected by the pixel value correction unit 405, and outputs the image data to the display device 50.
  • predetermined image processing includes optical black subtraction processing, white balance adjustment processing, image data synchronization processing when the image sensor 105 has a Bayer arrangement, color matrix arithmetic processing, ⁇ correction processing, color reproduction processing, Basic image processing including edge enhancement processing, noise reduction processing, and the like.
  • the image processing unit 406 also performs image processing to reproduce a natural image based on parameters of each image processing set in advance.
  • the parameters of each image processing are values of contrast, sharpness, saturation, white balance, and gradation.
  • the image data subjected to the predetermined image processing may be recorded in the non-volatile memory 113 or the recording medium 111 via the third external I / F unit 401.
  • the display device 50 displays an image corresponding to the image data input from the second image processing device 40.
  • the display device 50 is configured using a display panel such as liquid crystal or organic EL (Electro Luminescence), or the like.
  • the first image processing device 30 calculates a correction coefficient for correcting the difference in pixel value due to the difference between the spectral sensitivity of each pixel of the image sensor 105 and the reference spectral sensitivity.
  • the image processing device 40 calculates the correction amount for correcting the pixel value of the target pixel using the correction coefficient calculated by the first image processing device 30, and uses the calculated correction amount to calculate the pixel value of the target pixel. Is corrected, and the display device 50 displays an image corresponding to the image data subjected to the image processing by the second image processing device 40.
  • FIG. 3 is a diagram showing an example of the average of the spectral sensitivity characteristics of each of the R pixel, the G pixel, and the B pixel constituting the image sensor 105.
  • FIG. 4 is a diagram showing an example of the spectral sensitivity characteristic of the R pixel.
  • FIG. 5 is a diagram showing an example of the spectral sensitivity characteristic of the G pixel.
  • FIG. 6 is a diagram showing an example of the spectral sensitivity characteristic of the B pixel.
  • the abscissa indicates the wavelength, and the ordinate indicates the relative spectral sensitivity.
  • FIGS. 3 to 6 represents the average spectral sensitivity characteristic curve L B1 is obtained by averaging the spectral sensitivity of each of the plurality of B pixels
  • the average spectral curves L G1 is obtained by averaging the spectral sensitivity of each of the plurality of G pixels
  • a sensitivity characteristic is shown
  • a curve L R1 shows an average spectral sensitivity characteristic obtained by averaging the spectral sensitivities of each of a plurality of R pixels.
  • the curve L R2 in FIG. 4 shows an example of the spectral sensitivity characteristic of the R pixel
  • the difference in spectral sensitivity means the difference in spectral sensitivity of each pixel with respect to the average spectral sensitivity, and the spectral transmission caused by variations in the thickness of each filter at the manufacturing stage of the imaging device 105. This is attributable to the variation of the rate, the variation of the spectral reflectance or the spectral absorptivity, etc. caused by the circuit pattern of each pixel or the difference of the circuit characteristics.
  • average spectral sensitivity characteristics may be calculated for each of R, G, and B pixels using all pixels in the imaging device 105, or using the pixel of interest and pixels around the same color for the pixel of interest
  • the average spectral sensitivity characteristic ie, the local average spectral sensitivity characteristic
  • the average spectral sensitivity characteristic for the target pixel may be calculated using surrounding pixels of the same color as the target pixel without including the target pixel.
  • the difference in spectral sensitivity changes depending on the wavelength region.
  • the R pixel as shown by the curves L R1 and L R2 in FIG. 4, a difference occurs in the wavelength region R1 shorter than the vicinity of 550 nm with respect to the average spectral sensitivity.
  • the G pixel as indicated by the curve L G1 and the curve L G2 of FIG. 5, the difference occurs in the wavelength region G2 of the longer wavelength side than the wavelength region G1 and 600nm near the shorter wavelength side than 500nm near to the average spectral sensitivity .
  • the B pixel as shown by the curve LG1 and the curve LG2 in FIG. 6, a difference occurs with respect to the average spectral sensitivity in the wavelength region B1 on the longer wavelength side than the vicinity of 550 nm.
  • A pixels having lower spectral sensitivity than the average spectral sensitivity in the low spectral sensitivity region or pixels having similar spectral sensitivities
  • b higher spectral sensitivity or lower spectral sensitivity or the same in the wavelength region where the spectral sensitivity is high
  • c Pixels with different spectral sensitivities that change or do not change in average spectral sensitivity between the wavelength range where the spectral sensitivity is low and the wavelength range where the spectral sensitivity is high
  • d Pixels having spectral sensitivities that change in size with respect to the average spectral sensitivity
  • dispersion of spectral sensitivities occurs on a pixel basis due to, for example, dispersion of the thickness of each color filter.
  • the variation in spectral sensitivity has a small change with wavelength, and in this case with small variation at any wavelength, for example, when photographing a flat red subject, the R pixel is Because of the wavelength region where the spectral sensitivity is high, the variation in pixel value due to random noise becomes dominant, and the variation in spectral sensitivity does not affect the image quality much.
  • each of the G pixel and the B pixel has a low spectral sensitivity, so the variation in pixel value due to random noise is small, and the pixel value due to the variation in spectral sensitivity
  • the dispersion of spectral sensitivity affects the image quality due to the relative dispersion of.
  • Such variations in pixel values due to variations in spectral sensitivity appear as image roughness, particularly on flat subjects. This roughness depends on the pixel value of the pixel, so even if the subject with some unevenness is moved, the roughness appears to stop, which gives a sense of discomfort. Therefore, it is desirable to preferentially correct a wavelength region having a lower spectral sensitivity than that of pixels of other colors.
  • FIG. 7 is a view schematically showing pixel values of a plurality of G pixels constituting the image sensor 105 when the image sensor 105 captures a flat red or flat green subject.
  • the horizontal axis indicates a pixel column
  • the vertical axis indicates a pixel value.
  • the straight line MR2 indicates the average value of pixel values in each G pixel when shooting a flat red subject
  • the straight line MG2 indicates a pixel value in each G pixel when shooting a flat green subject
  • each of random noises RN1, RN2, GN1 and GN2 generated in each G pixel is represented by hatching.
  • six G pixels among the R pixel, the G pixel, and the B pixel constituting the imaging device 105 will be described as an example.
  • each of the G pixels G1 to G6 has a wavelength region with low spectral sensitivity, so each color filter in the manufacturing stage is more random noise than random noise.
  • the pixel values of each of the G pixels G1 to G6 greatly vary under the influence of the spectral sensitivity variation due to the thickness variation or the like (see FIG. 7A).
  • each of the G pixels G1 to G6 has a wavelength region with high spectral sensitivity, so that spectral Variations in pixel values due to random noise dominate over variations in sensitivity, and the pixel values of each of the G pixels G1 to G6 become substantially constant (see FIG. 7B).
  • FIG. 8 is a flowchart showing an outline of processing executed by the first image processing apparatus 30, and shows a main routine.
  • variation of each pixel which 1st image processing apparatus 30 performs is demonstrated.
  • each pixel of the image sensor 105 has the color filter 106 of any of RGB, the correction using the R pixel value and the correction using the G pixel value are performed for each pixel.
  • the correction coefficient for correction and the correction coefficient for correction using the B pixel value are calculated. Of course, only a part of the correction coefficients may be calculated.
  • the light source control unit 302 sets ⁇ indicating the wavelength region irradiated by the light source device 20 to 380 nm (step S101).
  • the light source control unit 302 sets the visible light wavelength range from 380 nm to 780 nm.
  • the present invention is not limited to this, and another wavelength range such as infrared may be used.
  • the light source control unit 302 sets the wavelength of the illumination light emitted by the light source device 20 to the wavelength ⁇ and emits the illumination light (Step S102).
  • the light source device 20 irradiates the imaging device 10 with illumination light of a single wavelength plane of wavelength ⁇ as a subject.
  • the first image processing control unit 305 captures an image of the illumination light emitted by the light source device 20 a predetermined number of times, and calculates an average value of pixel values of a plurality of pixels constituting the imaging device 105 as an imaging device 10 (step S103).
  • FIG. 9 is a flowchart showing an outline of the photographing process of step S103 of FIG.
  • the first image processing control unit 305 stores the accumulated value of the pixel value of each pixel corresponding to the image data generated by the imaging device 105 stored in the first buffer unit 304 b of the first recording unit 304.
  • the buffer area for calculating is initialized (step S201).
  • the first image processing control unit 305 sets the counter i to 0 (step S202), and the first bus 306, the second external I / F unit 301, the first external I / F unit 116, and the bus 114 While causing the image sensor 105 to start exposure (start shooting of the illumination light emitted by the light source device 20) (step S203), image data is fetched from the image sensor 105 (step S204).
  • the first image processing control unit 305 adds the pixel value of each pixel stored in the first buffer unit 304 b and the pixel value of each pixel of the latest image data fetched from the image sensor 105, and adds this value. These pixel values are replaced with the pixel values stored in the first buffer unit 304b (step S205).
  • a predetermined number for example, 100
  • the first image processing apparatus 30 proceeds to step S208.
  • the first image processing control unit 305 divides the pixel value of each pixel stored in the first buffer unit 304b by a predetermined number (for example, 100) of image data, and divides the result of the division It substitutes with the pixel value for every pixel memorized by 1 buffer part 304b (Step S208). As a result, the pixel value of each pixel stored in the first buffer unit 304 b becomes an average pixel value.
  • the first image processing control unit 305 may correct the defective pixel.
  • the first image processing apparatus 30 returns to the main routine of FIG. 8 described above. Although the average pixel value is calculated in the photographing process in FIG.
  • step S104 the light source control unit 302 sets the wavelength of the illumination light emitted by the light source device 20 by adding 10 nm to the wavelength ⁇ .
  • the light source control unit 302 may have an interval other than 10 nm, for example, an interval of 1 nm or an interval of 5 nm.
  • the light source control unit 302 may have an interval of 20 nm or an interval of 50 nm.
  • the light source control unit 302 may be, for example, an interval of three wavelength regions of each of red, green and blue.
  • step S105: Yes when the wavelength ⁇ of the illumination light emitted by the light source device 20 is 780 nm or less ( ⁇ ⁇ 780 nm) (step S105: Yes), the first image processing device 30 returns to step S102. On the other hand, if the wavelength ⁇ of the illumination light emitted by the light source device 20 is not 780 nm or less ( ⁇ ⁇ 780 nm) (step S105: No), the first image processing device 30 proceeds to step S106.
  • the correction coefficient calculation unit 307 uses the image data obtained by photographing the subject from 380 nm to 780 nm (illumination light emitted by the light source device 20) stored in the first buffer unit 304b to obtain spectral sensitivity characteristics for each pixel. It calculates (step S106). At this time, if the radiance of light is not the same from 380 nm to 780 nm, the correction coefficient calculation unit 307 calculates the spectral sensitivity characteristic for each pixel after normalization.
  • the correction coefficient calculation unit 307 uses red, green, and blue images by using the image data obtained by photographing the subject from 380 nm to 780 nm (illumination light emitted by the light source device 20) stored in the first buffer unit 304b.
  • a reference spectral sensitivity characteristic is calculated for each color filter (step S107). Specifically, the correction coefficient calculation unit 307 uses the plurality of pieces of image data obtained by photographing the subject (illumination light emitted by the light source device 20) from 380 nm to 780 nm stored in the first buffer unit 304b.
  • one of the red, green and blue color filters is calculated by statistical methods such as the average value, the maximum value, the minimum value, the median value and the mode value of the spectral sensitivity characteristic.
  • the average value of the spectral sensitivity characteristics of each of the red, green and blue color filters will be described as a reference spectral sensitivity characteristic.
  • the correction coefficient calculation unit 307 when the image sensor 105 is not irradiated with uniform light when the subject is not completely flat or when shading occurs due to the optical system 101, for each pixel of interest, the periphery of the pixel of interest
  • the reference spectral sensitivity may be calculated using the spectral sensitivity characteristic of the same color pixel.
  • the correction coefficient calculation unit 307 executes correction coefficient calculation processing for calculating a correction coefficient for correcting the spectral sensitivity characteristic for each pixel of the image sensor 105 (step S108).
  • FIG. 10 is a flowchart showing an outline of the correction coefficient calculation process of step S108 of FIG.
  • the correction coefficient calculation unit 307 determines the wavelength region of each color based on the reference spectral sensitivity characteristic (step S301). Specifically, as shown in FIG. 11, the correction coefficient calculation unit 307 determines each of the B wavelength region of the filter B, the G wavelength region of the filter G, and the R wavelength region of the filter R based on the reference spectral sensitivity characteristic. decide. For example, in the case shown in FIG. 11, the correction coefficient calculation unit 307 determines the B wavelength range to 380 nm to 500 nm, the G wavelength range to 500 nm to 600 nm, and the R wavelength range to 600 nm to 780 nm.
  • the correction coefficient calculation unit 307 may determine each of the wavelength regions of the B wavelength region, the G wavelength region, and the R wavelength region so that a part of the wavelength regions overlaps. Conversely, the correction coefficient calculation unit 307 may determine each wavelength region so that a part of the wavelength region does not correspond to any wavelength region.
  • the wavelength range of each color may be determined in advance based on the design value of the spectral sensitivity characteristic or the like.
  • the correction coefficient calculation unit 307 calculates the pixel value of each pixel based on the spectral sensitivity characteristic of each pixel (step S302). Specifically, the correction coefficient calculation unit 307 calculates an accumulated value of spectral sensitivity characteristics of pixels in the wavelength region of the same color as each pixel, and calculates the value as a pixel value. This pixel value corresponds to a pixel value when an object (illumination light) having a rectangular spectral characteristic such that the characteristic of the wavelength region of the same color is 1 and the characteristic of the other wavelength regions is 0 is exposed.
  • the correction coefficient calculation unit 307 can limit or specify a subject (a light source or a wavelength range of illumination light) assumed in advance, the subject is exposed by weighting addition according to the spectral characteristics of the subject. A value corresponding to the pixel value may be obtained.
  • the correction coefficient calculation unit 307 interpolates using the pixel value of the different color pixel that is the periphery of the target pixel and that has a filter different from the filter color of the target pixel. Pixel values are estimated (step S303). Specifically, when the pixel of interest is a G pixel, the correction coefficient calculation unit 307 calculates pixel values of R wavelength region and B wavelength region which are different colors. Further, in step S303, the correction coefficient calculation unit 307 estimates the average pixel value of the same color as the pixel by interpolating using neighboring pixel values having the same filter as the filter color of the pixel of interest. Specifically, when the target pixel is a G pixel, the correction coefficient calculation unit 307 calculates an average pixel value in the G wavelength region.
  • FIG. 11 is a diagram schematically showing spectral characteristics at the time of correction coefficient calculation when normal light is used.
  • FIG. 12 is a view schematically showing spectral characteristics at the time of correction coefficient calculation when narrow band light is used.
  • the horizontal axis indicates the wavelength
  • the vertical axis indicates the relative spectral sensitivity.
  • normal light is light of visible light emitted by a light source of a tungsten lamp or a xenon lamp, or light of natural light such as sunlight, and is light of which spectral characteristics change continuously.
  • narrow-band light refers to light emitted by a light source such as a fluorescent lamp, a light emitting diode (LED) lamp or a laser light source, or a light source having a filter for passing a part of the wavelength range.
  • a light source such as a fluorescent lamp, a light emitting diode (LED) lamp or a laser light source, or a light source having a filter for passing a part of the wavelength range.
  • a light source such as a fluorescent lamp, a light emitting diode (LED) lamp or a laser light source, or a light source having a filter for passing a part of the wavelength range.
  • light having discrete spectral characteristics includes light in which the intensity in a part of wavelength ranges is high and the intensity in the other wavelength ranges is extremely low.
  • the correction coefficient calculation unit 307 uses normal light (other than narrow band light) at the time of shooting
  • the pixel of interest is a G pixel
  • the pixel value of the R wavelength region that is different from the pixel of interest
  • the different color pixel values of the color different from the pixel of interest and the pixel of interest Estimate the average pixel value of the same color.
  • FIG. 12 when the narrow band light is used at the time of photographing, as shown in FIG.
  • the correction coefficient calculation unit 307 sets the widths of the R wavelength region, the G wavelength region, and the B wavelength region narrowly in accordance with the main wavelength region of the narrow band light to be used. Specifically, in the case shown in FIG. 12, the narrow band light N RL , the narrow band light N GL and the narrow band light N BL are set.
  • the correction coefficient calculation unit 307 calculates the correction amount to be executed by the second image processing apparatus 40, which will be described later, the interpolation method for each of the pixel value Sb1, pixel value Sb2, pixel value Sr1 and pixel value Sr2. It is preferable to make it the same as the interpolation method used in processing. Similarly, it is preferable that the calculation method of each of the average pixel value Sg1 and the average pixel value Sg2 be the same as the interpolation method used in the correction amount calculation process performed by the second image processing apparatus 40 described later. Therefore, an interpolation method of each of the pixel value Sb1, the pixel value Sb2, the pixel value Sg1, the pixel value Sg2, the pixel value Sr1, and the pixel value Sr2 will be described later.
  • the correction coefficient calculation unit 307 calculates an error amount in the wavelength region of a color different from that of the pixel in each pixel (step S304). Specifically, in the case shown in FIG. 11, the correction coefficient calculation unit 307 calculates the difference between the spectral sensitivity characteristic and the reference spectral sensitivity characteristic in each pixel by using a value accumulated in each wavelength region. For example, as indicated by the curve L G1 and the curve L G2 of FIG.
  • the correction coefficient calculation unit 307 if the target pixel is a G pixel, the difference of the R wavelength region between the curve L G2 and the curve L G1, G wavelength region
  • the values accumulated in each of the B and B wavelength regions are calculated as the error amount ⁇ r1, the error amount ⁇ g1, and the error amount ⁇ b1.
  • the narrow case of band light as shown by the curve L G1 and the curve L G2 of FIG. 12, the correction coefficient calculation unit 307, when the target pixel is a G pixel, the difference between the curve L G1 and the curve L G2 R Values accumulated in each of the wavelength region, the G wavelength region, and the B wavelength region are calculated as an error amount ⁇ r2, an error amount ⁇ g2, and an error amount ⁇ b2.
  • the error amount is a positive value when the spectral sensitivity characteristic is larger (higher) than the reference spectral sensitivity characteristic, and is a negative value when it is smaller (lower).
  • the correction coefficient calculation unit 307 calculates a correction coefficient for each pixel by dividing the error amount by the estimated different color pixel value or the average pixel value in each pixel (step S305). For example, in the case shown in FIG. 11, when the pixel of interest is a G pixel, the correction coefficient calculation unit 307 calculates the error amount of the R wavelength region calculated in step S304 described above in the pixels of R wavelength region estimated in step 303 described above.
  • a value obtained by dividing the value ( ⁇ r1 / Sr1) divided by the value as the correction coefficient of the R component and dividing the error amount of the G wavelength region calculated in step S304 described above by the average pixel value of the G wavelength region estimated in step 303 described above Let ( ⁇ g1 / Sg1) be the correction coefficient of the G component, and divide the error amount of the B wavelength region calculated in step S304 described above by the pixel value of the B wavelength region estimated in step S303 described above ( ⁇ b1 / Sb1) Calculated as a correction coefficient of the B component. Further, in the case shown in FIG.
  • the correction coefficient calculation unit 307 calculates the error amount of the R wavelength region calculated in step S304 described above in the pixels of the R wavelength region estimated in step 303 described above.
  • a value obtained by dividing the value ( ⁇ r2 / Sr2) divided by the value as the correction coefficient of the R component and dividing the error amount of the G wavelength region calculated in step S304 described above by the average pixel value of the G wavelength region estimated in step 303 described above ( ⁇ g 2 / Sg 2) is a correction coefficient of G component
  • a value ( ⁇ b 2 / Sb 2) obtained by dividing the error amount of the B wavelength region calculated in step S 304 described above by the pixel value of B wavelength region estimated in step S 303 described above Calculated as a correction coefficient of the B component.
  • the correction coefficient calculation unit 307 similarly calculates correction coefficients for other colors, for example, R pixel and B pixel.
  • step S109 the correction coefficient calculation unit 307 records the calculated correction coefficient in each pixel of the imaging device 105 as the correction coefficient of that pixel in the correction coefficient recording unit 113b of the imaging device 10.
  • the correction coefficient calculation unit 307 records the calculated correction coefficient in each pixel of the imaging device 105 as the correction coefficient of that pixel in the correction coefficient recording unit 113b of the imaging device 10.
  • the correction coefficient calculation unit 307 perform correction in accordance with the light emitted from the light emitting unit (the light emitted to the subject).
  • the degree of variation is likely to differ from that of normal light such as natural light. Therefore, the correction coefficient calculation unit 307 records, in the correction coefficient recording unit 113b, a correction coefficient corresponding to each type of light source used at the time of shooting.
  • the correction coefficient calculation unit 307 associates the type of light source used at the time of shooting with the correction coefficient and records the result in the correction coefficient recording unit 113 b.
  • the correction coefficient calculation unit 307 associates the information indicating that the light is normal light with the correction coefficient calculated as shown in FIG.
  • step S109 the first image processing apparatus 30 ends the present process.
  • the first image processing apparatus 30 is based on the image data generated by the imaging element 105 in which the plurality of color filters having different spectral transmittances are arranged on the light receiving surface of each of the plurality of pixels in a predetermined pattern.
  • a correction coefficient for correcting the difference between the spectral sensitivity of the pixel of interest in the image data and the preset reference spectral sensitivity based on the difference in pixel value is calculated for each pixel.
  • FIG. 13 is a flowchart showing an outline of processing executed by the second image processing apparatus 40, and shows a main routine.
  • the correction amount calculation unit 404 acquires, from the imaging device 10, the image data generated by the imaging device 105 and the correction coefficient recorded by the correction coefficient recording unit 113b, and the pixel of interest in the acquired image data A correction amount calculation process is performed to calculate the correction amount of the pixel value (step S401). The outline of the correction amount calculation process will be described later.
  • the pixel value correction unit 405 corrects the pixel value of each pixel by subtracting the correction amount of each pixel calculated by the correction amount calculation unit 404 (step S402). After step S402, the second image processing apparatus 40 ends the present process.
  • FIG. 14 is a flowchart showing an outline of the correction amount calculation process.
  • the correction amount calculation unit 404 first determines the pixel position in the height direction (vertical direction) of the image corresponding to the image data stored in the second buffer unit 402 b of the second recording unit 402.
  • step S503: Yes when correcting the spectral sensitivity variation in the R wavelength region with respect to the target pixel at coordinates (x, y) in the image data (step S503: Yes), the correction amount calculation unit 404 proceeds to step S504 described later. Do. On the other hand, if the spectral sensitivity variation in the R wavelength region is not corrected for the pixel of interest at coordinates (x, y) (step S503: No), the correction amount calculation unit 404 proceeds to step S505 described later. .
  • step S504 the correction amount calculation unit 404 executes R component correction amount calculation processing for calculating the correction amount of the R component.
  • the R component is a pixel value in the R wavelength region.
  • FIG. 15 is a flowchart showing an outline of the R component correction amount calculation process of step S504 described above.
  • the correction amount calculation unit 404 acquires the pixel values of surrounding R pixels in the target pixel at the coordinates (x, y) from the second buffer unit 402b (step S601).
  • the correction amount calculation unit 404 estimates the pixel value of the R component in the target pixel of the coordinates (x, y) by interpolating using the pixel values of the surrounding R pixels acquired in step S601 (step S602). For example, as shown in FIGS. 16A to 16D, as the interpolation method performed by the correction amount calculation unit 404, pixels of R pixels around the pixel of interest according to the color of the filter at the pixel of interest at coordinates (x, y) By using the average value, the pixel value of the R component at the target pixel at the coordinates (x, y) is estimated. Specifically, as shown in FIG.
  • the correction amount calculator 404 calculates the pixel values of the R pixels in four diagonal directions. If the average value (see FIG. 16A) is estimated as the pixel value of the R component in the pixel of interest at coordinate (x, y), and the color of the filter at the pixel of interest at coordinate (x, y) is green, adjacent The average value of the pixel values of the R pixels (see FIGS. 16B and 16C) is estimated as the pixel value of the R component in the pixel of interest at coordinates (x, y). Further, when the color of the filter at the target pixel is red, the correction amount calculation unit 404 calculates the average value (see FIG.
  • the correction amount calculation unit 404 may calculate an average value including the target pixel as an average pixel value of the R component.
  • an weighted average value may be calculated, for example, by detecting the edge direction and increasing the weight of pixel values in the edge direction.
  • step S603: Yes when the narrow band light is irradiated to the subject and photographed (step S603: Yes), the correction amount calculation unit 404 proceeds to step S604 described later.
  • step S603: No when the narrow band light is photographed without being irradiated to the subject (step S603: No), the correction amount calculation unit 404 proceeds to step S605 described later.
  • the determination of the light source may be selected from, for example, a menu, or the correction amount calculation unit 404 may determine based on the color distribution of the image corresponding to the image data. Further, the correction amount calculation unit 404 may directly acquire information of an external light source.
  • the correction amount calculation unit 404 narrow band light in the range where the light irradiated by the LED lamp can reach. In the other range, the normal light may be selected. At this time, the correction amount calculation unit 404 detects whether or not a plurality of light sources are projected for each of a plurality of pixels constituting an image corresponding to image data, and the mixed light is used according to the detection result. After determining whether or not there is a narrow band light correction factor or a normal light correction factor for each pixel, or a narrow band light correction factor and a normal light correction factor for each pixel according to the mixing ratio of mixed light May be mixed.
  • step S604 the correction amount calculation unit 404 acquires, from the second buffer unit 402b, the correction coefficient of the R component in the pixel of interest at coordinates (x, y) according to the narrowband light source. After step S604, the correction amount calculation unit 404 proceeds to step S606 described later.
  • step S605 the correction amount calculation unit 404 acquires, from the second buffer unit 402b, the correction coefficient of the R component in the pixel of interest at the coordinates (x, y) according to the normal light. After step S605, the correction amount calculation unit 404 proceeds to step S606 described later.
  • the correction amount calculation unit 404 calculates the pixel value of the R pixel in the target pixel of the coordinates (x, y) estimated in step S602 described above (if the target pixel is the R pixel, the average pixel value of the R component)
  • the correction amount of the R component with respect to the pixel value in the target pixel of the coordinate (x, y) is calculated by multiplying the correction coefficient of the R component in the target pixel of the coordinate (x, y) (step S606).
  • the correction amount calculation unit 404 returns to the correction amount calculation process of FIG.
  • step S505 when the spectral sensitivity variation in the G wavelength region is corrected with respect to the target pixel at the coordinates (x, y) (step S505: Yes), the correction amount calculation unit 404 proceeds to step S506 described later. On the other hand, if the spectral sensitivity variation in the G wavelength region is not corrected for the pixel of interest at coordinates (x, y) (step S505: No), the correction amount calculation unit 404 proceeds to step S507 described later. .
  • step S506 the correction amount calculation unit 404 executes G component correction amount calculation processing for calculating the correction amount of the G component.
  • the G component is a pixel value in the G wavelength region.
  • FIG. 17 is a flowchart showing an outline of the G component correction amount calculation process of step S506 described above.
  • the correction amount calculation unit 404 acquires the pixel value of the surrounding G pixel in the target pixel at the coordinates (x, y) from the second buffer unit 402 b (step S 701).
  • the correction amount calculation unit 404 estimates the pixel value of the G component in the target pixel of the coordinates (x, y) by interpolating using the pixel values of the surrounding G pixels acquired in step S 701 (step S702). For example, as shown in FIGS. 18A to 18D, when the color of the filter at the target pixel at coordinates (x, y) is red as shown in FIGS. The value (see FIG. 18A) is estimated as the pixel value of the G component at the pixel of interest at coordinate (x, y), and the filter color at the pixel of interest at coordinate (x, y) is blue B pixels. The average value of the pixel values of the G pixels (see FIG.
  • the correction amount calculation unit 404 calculates an average value of G pixel values in four oblique directions (see FIGS. 18C and 18D) at coordinates (x, y). It is estimated as the average pixel value of the G component in the target pixel of.
  • the correction amount calculation unit 404 may calculate an average value including the target pixel as an average pixel value of the G component. Further, the correction amount calculation unit 404 may calculate an weighted average value by detecting an edge direction or the like to increase the weight of pixel values in the edge direction.
  • step S703: Yes when the narrow band light is irradiated to the subject and photographed (step S703: Yes), the correction amount calculation unit 404 proceeds to step S704 described later. On the other hand, when the narrow band light is photographed without being irradiated to the subject (step S703: No), the correction amount calculation unit 404 proceeds to step S705 described later.
  • step S704 the correction amount calculation unit 404 acquires, from the second buffer unit 402b, the correction coefficient of the G component (pixel value of the G wavelength region) at the pixel of interest at coordinates (x, y) according to the narrowband light source. Do. After step S704, the correction amount calculation unit 404 proceeds to step S706 described later.
  • step S705 the correction amount calculation unit 404 acquires, from the second buffer unit 402b, the correction coefficient of the G component in the pixel of interest at coordinates (x, y) corresponding to the normal light. After step S705, the correction amount calculation unit 404 proceeds to step S706 described later.
  • the correction amount calculation unit 404 calculates the pixel value of the G component in the target pixel of the coordinates (x, y) estimated in step S702 described above (if the target pixel is a G pixel, the average pixel value of the G component)
  • the correction amount of the G component with respect to the pixel value of the target pixel at the coordinates (x, y) is calculated by multiplying the correction coefficient of the G component at the target pixel at the coordinates (x, y) (step S706).
  • the correction amount calculation unit 404 returns to the correction amount calculation process of FIG.
  • step S507 when the spectral sensitivity variation in the B wavelength region is corrected with respect to the target pixel at the coordinates (x, y) (step S507: Yes), the correction amount calculation unit 404 proceeds to step S508 described later. On the other hand, if the spectral sensitivity variation in the B wavelength region is not corrected with respect to the target pixel at coordinates (x, y) (step S507: No), the correction amount calculation unit 404 proceeds to step S509 described later. .
  • step S508 the correction amount calculation unit 404 executes B component correction amount calculation processing for calculating the correction amount of the B component.
  • the B component is a pixel value in the B wavelength region.
  • FIG. 19 is a flowchart showing an outline of the B component correction amount calculation process of step S508 described above.
  • the correction amount calculation unit 404 acquires the pixel value of the surrounding B pixel in the target pixel at the coordinates (x, y) from the second buffer unit 402 b (step S 801).
  • the correction amount calculation unit 404 estimates the pixel value of the B component in the target pixel at the coordinates (x, y) by interpolating using the pixel values of the surrounding B pixels acquired in step S801 (step S802). For example, as shown in FIGS. 20A to 20D, when the color of the filter at the target pixel at coordinates (x, y) is green, the correction amount calculator 404 calculates the pixel values of the upper, lower, or left B pixels. The average value (see FIGS.
  • the average value of the pixel values of the B pixels in the oblique direction is estimated as the pixel value of the B component in the target pixel at coordinates (x, y).
  • the correction amount calculation unit 404 calculates the average value (see FIG. 20D) of the four B pixel values of the two pixels at the top, bottom, left, and right It is estimated as the average pixel value of the B component in the target pixel of y).
  • the correction amount calculation unit 404 may calculate an average value including the target pixel as an average pixel value of the B component. Further, the correction amount calculation unit 404 may calculate an weighted average value by detecting an edge direction or the like to increase the weight of pixel values in the edge direction.
  • step S803: Yes when the narrow band light is irradiated to the subject and photographed (step S803: Yes), the correction amount calculation unit 404 proceeds to step S804 described later. On the other hand, when the narrow band light is photographed without being irradiated to the subject (step S803: No), the correction amount calculation unit 404 proceeds to step S805 described later.
  • step S804 the correction amount calculation unit 404 acquires the correction coefficient of the B component of the coordinates (x, y) according to the narrowband light source from the second buffer unit 402b. After step S804, the correction amount calculation unit 404 proceeds to step S806 described later.
  • step S805 the correction amount calculation unit 404 acquires, from the second buffer unit 402b, the correction coefficient of the B component of the coordinates (x, y) according to the normal light. After step S805, the correction amount calculation unit 404 proceeds to step S806 described later.
  • the correction amount calculation unit 404 calculates the pixel value of the B component in the target pixel of the coordinates (x, y) estimated in step S802 described above (if the target pixel is the B pixel, the average pixel value of the B component) Then, the correction amount of the B component with respect to the pixel value of the target pixel of the coordinate (x, y) is calculated by multiplying the correction coefficient of the B component of the target pixel of the coordinate (x, y) (step S806). After step S806, the correction amount calculation unit 404 returns to the correction amount calculation process of FIG.
  • step S509 the correction amount calculation unit 404 calculates the sum of the correction amount (the correction amount of the component not calculated is 0) at the pixel of interest at the coordinates (x, y) calculated in steps S503 to S508 described above. It is calculated as the correction amount of the target pixel at coordinates (x, y).
  • step S511: YES if the counter x is smaller than the width of the image corresponding to the image data (step S511: YES), the correction amount calculation unit 404 returns to step S503. On the other hand, when the counter x is not smaller than the width of the image corresponding to the image data (step S511: No), the correction amount calculation unit 404 proceeds to step S512.
  • step S513: YES if the counter y is smaller than the height of the image corresponding to the image data (step S513: YES), the correction amount calculation unit 404 returns to step S502. On the other hand, if the counter y is not smaller than the height of the image corresponding to the image data (step S513: No), the correction amount calculation unit 404 returns to the main routine of FIG.
  • the correction amount calculation unit 404 acquires the correction coefficient recorded by the correction coefficient recording unit 113b of the imaging device 10, and the acquired correction coefficient and pixels of surrounding pixels in the target pixel
  • the correction amount for correcting the pixel value of the target pixel is calculated based on the value and the pixel value correction unit 405 corrects the pixel value of the target pixel using the correction amount calculated by the correction amount calculation unit 404. .
  • variation in the spectral sensitivity of each of the several pixel which comprises the image pick-up element 105 can be correct
  • the second image processing apparatus 40 corrects the pixel values of each of the R pixel, the G pixel, and the B pixel, but may correct only the pixel value of the R component of the G pixel, for example.
  • the second image processing apparatus 40 is different from the filter in the pixel of interest because the wavelength range with relatively low spectral sensitivity is more affected by the spectral sensitivity variation than the relatively high wavelength range. Only the wavelength region of the color may be corrected. In that case, if the target pixel is not the R pixel in step S503, the determination is Yes, and if the target pixel is not the G pixel in step S505, the determination is Yes. If the target pixel is not the B pixel in step S507 It may be determined as By doing this, the amount of computation can be reduced compared to the above.
  • any one of the color filters 106 of a plurality of colors having different spectral transmittances is provided to the light receiving surface of each of the plurality of pixels.
  • the correction coefficient for correcting the difference in pixel value due to the difference between the spectral sensitivity and the preset reference spectral sensitivity in the pixel of interest is calculated for each of a plurality of pixels with respect to the image data generated by the imaging device 105. It is possible to efficiently calculate the correction coefficient for correcting the dispersion of the spectral sensitivity of each of the plurality of pixels constituting the imaging element 105 for each pixel.
  • the correction coefficient calculation unit 307 corrects the variation in spectral sensitivity appropriate for each pixel according to the light source by changing the detection method according to the light source used at the time of photographing. Correction coefficients can be calculated.
  • the correction amount calculation unit 404 calculates the target pixel based on the correction coefficient in the target pixel recorded by the correction coefficient recording unit 113b and the pixel values of surrounding pixels in the target pixel.
  • the correction amount for correcting the pixel value of the pixel is calculated, and the pixel value correction unit 405 corrects the pixel value of the target pixel based on the correction amount calculated by the correction amount calculation unit 404.
  • the correction amount calculation unit 404 acquires the correction coefficient corresponding to the light source used at the time of photographing from the correction coefficient recording unit 113b, the pixel of the pixel of interest appropriate for the light source The correction amount of the value can be calculated.
  • the imaging device 10 and the first image processing device 30 are separately provided, but the first image processing device 30 may be provided in the imaging device 10.
  • the imaging device 10 and the second image processing device 40 are separately provided, but the second image processing device 40 may be provided in the imaging device 10.
  • the imaging system according to the second embodiment has a configuration similar to that of the imaging system 1 according to the above-described first embodiment, and the processing executed by the first image processing apparatus is different.
  • the light source device 20 as a subject emits normal light or light of a specific wavelength, but in the second embodiment, the wavelengths of red, green and blue are different.
  • the light of the area is irradiated to the light source device 20. Therefore, the process performed by the second image processing apparatus according to the second embodiment will be described.
  • the same components as those of the imaging system 1 according to the first embodiment described above are assigned the same reference numerals and descriptions thereof will be omitted.
  • FIG. 21 is a flowchart showing an outline of processing executed by the first image processing apparatus 30, and shows a main routine. A process of calculating a correction coefficient for correcting the spectral sensitivity of each pixel performed by the first image processing device 30 will be described with reference to FIG.
  • the light source control unit 302 sets the wavelength range of light (subject) irradiated by the light source device 20 to a red wavelength range, and emits illumination light as a red uniform subject (step S 901). .
  • the light source control unit 302 sets the wavelength range of the light emitted by the light source device 20 to 600 nm to 780 nm, and the spectral radiance is in another wavelength range.
  • a uniform red light which is relatively high, is directed to the imaging device 10 as a subject.
  • the light source control unit 302 may cause the light source device 20 to emit narrow-band light whose wavelength range is narrower than the wavelength range of 600 nm to 780 nm, as indicated by a curve L R11 in FIG.
  • the first image processing device 30 captures an image of red illumination light emitted from the light source device 20 to the imaging device 10 a plurality of times, and calculates an average value of pixel values of respective pixels constituting the imaging device 105 Are executed (step S902).
  • the photographing process is the same as the photographing process of FIG. 9 described above, and thus the description thereof is omitted.
  • the light source control unit 302 sets the wavelength region of the light emitted by the light source device 20 to a green wavelength region and causes the light to be emitted (step S903). Specifically, as shown by a curve LG10 in FIG. 23, the light source control unit 302 sets the wavelength range of the light emitted by the light source device 20 to 500 nm to 600 nm, and the spectral radiance is in another wavelength range. A uniform green light, which is relatively high, is directed to the imaging device 10 as a subject. Note that, as shown by a curve LG11 in FIG. 23, the light source control unit 302 may cause the light source device 20 to emit narrow band light whose wavelength range is narrower than the wavelength range of 500 nm to 600 nm.
  • the first image processing apparatus 30 captures an image of green illumination light emitted from the light source device 20 to the imaging device 10 a plurality of times, and calculates an average value of pixel values of respective pixels constituting the imaging device 105 Are executed (step S904).
  • the photographing process is the same as the photographing process of FIG. 9 described above, and thus the description thereof is omitted.
  • the light source control unit 302 sets the wavelength range of the light emitted by the light source device 20 to the blue wavelength range and causes the light to be emitted (step S905). Specifically, as shown by curve LB10 in FIG. 24, the light source control unit 302 sets the wavelength range of the light emitted by the light source device 20 to 380 nm to 500 nm, and the spectral radiance is in another wavelength range. A uniform blue light, which is relatively high, is directed to the imaging device 10 as a subject. Note that, as shown by curve LB11 in FIG. 24, the light source control unit 302 may cause the light source device 20 to emit narrow band light whose wavelength range is narrower than the wavelength range of 380 nm to 500 nm.
  • the first image processing apparatus 30 captures an image of blue illumination light emitted from the light source device 20 to the imaging device 10 a plurality of times, and calculates an average value of pixel values of respective pixels constituting the imaging device 105 Are executed (step S906).
  • the photographing process is the same as the photographing process of FIG. 9 described above, and thus the description thereof is omitted.
  • the correction coefficient calculation unit 307 calculates the neighborhood average value of the pixel of interest at coordinates (x, y) using surrounding pixels of the pixel of interest at coordinate (x, y) and the color of the color filter Step S909). Specifically, the correction coefficient calculation unit 307 calculates the neighborhood average value of the pixel of interest at coordinates (x, y) using surrounding pixels of the pixel that has captured illumination light of a color different from the color of the pixel of interest. For example, as shown in FIGS.
  • the correction coefficient calculation unit 307 target when the pixel is the G pixel, the image P B respectively obtained by imaging a red image P R and the blue illumination light imaging illumination light
  • the neighboring average value R and the neighboring average value B at the target pixel at the coordinates (x, y) are calculated using the surrounding pixels of.
  • the surrounding pixels are pixels included in a 5 ⁇ 5 range centered on the target pixel, and are pixels having the same color as the target pixel excluding the target pixel.
  • the correction coefficient calculation unit 307 is a pixel included in a range of other sizes such as 3 ⁇ 3 or 7 ⁇ 7 around the pixel of interest, and using the surrounding pixels excluding the pixel of interest, the neighboring average value R And the neighboring average value B may be calculated. Further, the correction coefficient calculation unit 307 is a pixel included in a size range of 3 ⁇ 3, 5 ⁇ 5, 7 ⁇ 7, etc. centering on the target pixel, and using the surrounding pixels including the target pixel, the neighborhood average Each of the value R and the neighboring average value B may be calculated.
  • the correction coefficient calculation unit 307 is a pixel around the pixel of interest at coordinates (x, y) in the image obtained by imaging illumination light of a color different from the pixel of interest at coordinates (x, y), and By interpolating using the pixel value of the pixel of the same color, the different color pixel value in the target pixel of the coordinates (x, y) is estimated (step S 910).
  • the surrounding pixels are pixels located adjacent to the target pixel or pixels located near the target pixel. Specifically, as shown in FIGS.
  • the correction coefficient calculation unit 307 the coordinates (x, y) if the pixel of interest is a G pixel, the coordinates of the image P R of the captured red illumination light (x, y) to estimate the coordinates using the periphery of the R pixels in the target pixel (x, y) different-color pixel value of R pixels in the target pixel (R), in the image P B obtained by imaging the blue illumination light
  • the different-color pixel value (B) of the B pixel in the target pixel of the coordinates (x, y) is estimated using the surrounding B pixels in the target pixel of the coordinates (x, y).
  • the correction coefficient calculation unit 307 calculates the pixel value of the pixel of interest at the coordinates (x, y) in the image for which the pixel average of the pixels at the coordinates of (x, y) calculated at step S909 is calculated. Is calculated as an error amount (step S 911).
  • the error amount is a positive value when the pixel value of the target pixel at coordinates (x, y) is larger than the neighborhood average value, and is a negative value when the pixel value is small.
  • the correction coefficient calculation unit 307 calculates a correction coefficient by dividing the error amount at the target pixel of the coordinates (x, y) calculated in step S911 described above by the different color pixel value estimated in step S910 (step S912). Specifically, when the target pixel is a G pixel, the correction coefficient calculation unit 307 calculates the error amount calculated from the image obtained by capturing the red illumination light as the pixel value of the R pixel around the target pixel from the same image.
  • the error amount calculated from the image captured of the blue illumination light is estimated using the pixel value of the B pixel around the pixel of interest from the same image
  • the R component correction coefficient and the B component correction coefficient are calculated by dividing by the pixel value (B).
  • step S914 YES
  • step S909 the correction coefficient calculation unit 307 proceeds to step S915.
  • step S916: YES if the counter y is smaller than the height of the image corresponding to the image data (step S916: YES), the correction coefficient calculation unit 307 returns to step S908. On the other hand, when the counter y is not smaller than the height of the image corresponding to the image data (step S916: No), the correction coefficient calculation unit 307 proceeds to step S917.
  • the correction coefficient calculation unit 307 records, in the first recording unit 304, the correction coefficient calculated in wavelength regions other than the same wavelength region as the color filter 106 as the correction coefficient of that pixel. (Step S917).
  • the correction coefficient calculation unit 307 calculates the correction coefficient calculated in each of the wavelength regions of B and G in the case of the R image when the color filter 106 has the RGB Bayer arrangement, and corresponds to each of R and B in the case of G pixels.
  • the correction coefficient calculated in the wavelength region is recorded in the correction coefficient recording unit 113b of the imaging device 10 as the correction coefficient of the pixel in the case of the B pixel.
  • the second image processing apparatus 40 ends the present process.
  • the correction coefficient calculation unit 307 corrects the dispersion of the spectral sensitivity for each pixel by irradiating the light in the wavelength regions of red, green and blue as objects.
  • the correction factor of can be easily calculated.
  • the correction coefficient calculation unit 307 calculates the neighborhood average value using the pixel values of the pixels around the pixel of interest, and calculates the neighborhood average value and the pixel value of the pixel of interest. Since the correction coefficient for correcting the dispersion of the spectral sensitivity is calculated on a pixel-by-pixel basis, the correction coefficient can be accurately calculated even if the subject has some unevenness.
  • the correction amount calculation unit 404 calculates the correction amount for a part of colors in the predetermined wavelength region, the amount of calculation is reduced while maintaining the correction effect visually.
  • the correction amount can be calculated.
  • the correction coefficient of the color component of the pixel of interest is similarly set. It may be calculated.
  • the correction coefficient calculation unit 307 calculates the neighborhood average value of the pixel of interest from the pixel values of surrounding pixels having the same color filter as the pixel of interest based on the image obtained by capturing illumination light of the same color as the pixel of interest.
  • the difference between the neighborhood average value and the pixel value of the pixel of interest may be calculated as an error amount, and the correction amount of the color component of the pixel of interest may be calculated by dividing the error amount by the neighborhood average value of the pixel of interest.
  • the imaging device 10 the first image processing device 30, and the second image processing device 40 are individually provided.
  • the first image processing device is not provided in the imaging device.
  • An image processing apparatus and a second image processing apparatus are provided. Therefore, in the following, an imaging system according to the third embodiment will be described.
  • the same components as those of the imaging system 1 according to the first embodiment described above are assigned the same reference numerals and descriptions thereof will be omitted.
  • FIG. 26 is a block diagram schematically showing a configuration of an imaging device according to Embodiment 3 of the present invention.
  • the imaging device 10a illustrated in FIG. 26 is disposed in the housing 100 when calculating a correction coefficient, and is disposed outside the housing 100 during normal imaging.
  • the imaging device 10a is connected to the light source device 20 via a communication cable or the like.
  • the imaging device 10a includes a light source control unit 302a, a first image processing unit 60, a second image processing unit 70, and a third image processing unit 80. And a display unit 90.
  • the first image processing unit 60 has a random noise removing unit 501 and a correction coefficient calculating unit 307.
  • the random noise removing unit 501 removes random noise of the image data generated by the imaging device 105, and outputs the removed image data to the correction coefficient calculating unit 307.
  • the random noise removing unit 501 removes random noise generated for each of a plurality of pixels forming an image corresponding to image data using a known technique.
  • the second image processing unit 70 includes a random noise removing unit 502, a correction amount calculating unit 404, and a pixel value correcting unit 405.
  • the random noise removing unit 502 has the same function as the above-described random noise removing unit 501, removes random noise of the image data generated by the imaging device 105, and outputs the removed image data to the correction amount calculating unit 404. Do.
  • the third image processing unit 80 has the same function as the image processing unit 406 described above, performs predetermined image processing on the image data whose pixel value has been corrected by the pixel value correction unit 405, and performs this image processing.
  • the image data thus obtained is output to the display unit 90.
  • the display unit 90 displays various information related to the imaging device 10 a and an image corresponding to image data.
  • the display unit 90 is configured using a display panel such as liquid crystal or organic EL.
  • the first image processing unit 60 and the second image processing unit 70 execute the same processes as those in the first and second embodiments described above. Specifically, the first image processing unit 60 executes a process of calculating a correction coefficient, and the second image processing unit 70 executes a process of correcting a correction amount.
  • the color filter 106 according to the first to third embodiments of the present invention is a Bayer-arranged color filter configured of an R filter, a G filter, and a B filter
  • the present invention can be applied to other color filters. can do.
  • each of the R filter, the G filter, and the B filter may be a color filter 106b disposed obliquely. Under the condition shown in FIG.
  • each pixel of the imaging device is also disposed obliquely.
  • the present invention may be a color filter of a complementary color filter using a Cy (cyan) filter, an Mg filter and a Ye (yellow) filter.
  • the color filter 106c shown in FIG. 29 it may be performed by an interpolation method of interpolating known complementary colors into primary colors.
  • the present invention although a plurality of color filters having different spectral transmittances are provided in one imaging element, for example, only the G filter transmitting the green wavelength region is used for each pixel.
  • the present invention can be applied even to a two-plate type imaging device.
  • the correction coefficient and correction of the present invention can be obtained by using the pixel value of the R pixel or B pixel of the other image pickup device corresponding to the coordinates of the G pixel.
  • the quantity can be calculated.
  • an image pickup apparatus for photographing an object through an optical apparatus such as a portable device provided with an image pickup element in a mobile phone or smart phone, a video camera, an endoscope, a surveillance camera, or a microscope
  • an optical apparatus such as a portable device provided with an image pickup element in a mobile phone or smart phone, a video camera, an endoscope, a surveillance camera, or a microscope
  • the present invention can be applied to any device capable of capturing an object, such as a device.
  • the method of each process by the image processing apparatus in the embodiment described above can be stored as a program that can be executed by a control unit such as a CPU.
  • a control unit such as a CPU.
  • it stores and distributes in storage media of external storage devices such as memory card (ROM card, RAM card etc.), magnetic disk (floppy disk, hard disk etc.), optical disk (CD-ROM, DVD etc.), semiconductor memory etc. be able to.
  • a control unit such as a CPU can read the program stored in the storage medium of the external storage device, and can execute the above-described processing by controlling the operation by the read program.
  • the present invention is not limited to the above-described embodiment and modification as it is, and at the implementation stage, the constituent elements can be modified and embodied without departing from the scope of the invention.
  • various inventions can be formed by appropriately combining a plurality of components disclosed in the above-described embodiment. For example, some components may be deleted from all the components described in the above-described embodiment and modifications. Furthermore, the components described in the embodiments and the modifications may be combined as appropriate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Processing (AREA)

Abstract

 撮像素子を構成する複数の画素それぞれの分光感度のばらつきを補正することができる画像処理装置、画像処理方法およびプログラムを提供する。第2画像処理装置40は、補正係数記録部113bが記録する注目画素における補正係数と注目画素における周囲の画素の画素値とに基づいて、注目画素の画素値を補正するための補正量を算出する補正量算出部404と、補正量算出部404が算出した補正量を用いて注目画素の画素値を補正する画素値補正部405と、を備える。

Description

画像処理装置、画像処理方法およびプログラム
 本発明は、撮像素子を構成する複数の画素の各々に設けられたカラーフィルタの分光感度特性を補正する画像処理装置、画像処理方法およびプログラムに関する。
 従来、デジタルカメラ等の撮像装置において、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子の受光面に設けられたカラーフィルタの分光透過率のばらつきによる画素の分光感度のばらつきを撮像素子毎に調整する技術が知られている(特許文献1参照)。この技術では、プリズムでスペクトル分光された可視光を撮像素子で光電変換することによってR(赤)、G(緑)およびB(青)の各々の色成分の組み合わせからなる画像データから波長毎にR、GおよびBそれぞれの値を算出し、この算出したR、GおよびBそれぞれの値と予め波長毎に算出された基準値との差分の各々が小さくなるように、R、GおよびBそれぞれの値に乗じる係数を算出する。
特開2010-193378号公報
 ところで、撮像素子の微細化にともなって、撮像素子を構成する複数の画素の各々に配置されるカラーフィルタも小さくなり、撮像素子の製造段階で生じる画素ごとのカラーフィルタの分光透過率のばらつきも増加する。このため、上述した特許文献1のように、撮像素子毎に分光感度特性のばらつきを調整しても、画素毎に分光感度のばらつきが生じる。この結果、上述した特許文献1では、画素毎に画素値の出力結果が変化してしまうという問題点があった。さらに、上述した特許文献1では、1つの画素に注目した場合、波長に応じて分光感度のばらつき度合いが異なるため、受光する光の波長によって画素値のばらつき度合いも変化してしまうという問題があった。
 本発明は、上記に鑑みてなされたものであって、撮像素子を構成する複数の画素それぞれの分光感度のばらつきを補正することができる画像処理装置、画像処理方法およびプログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、互いに異なる分光透過率を有する複数色のカラーフィルタを用いて所定の配列パターンを形成し、該配列パターンを形成する個々のカラーフィルタが複数の画素のいずれかに対応する位置に配置された撮像素子によって生成された画像データに基づいて、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差に対応する画素値の差分を補正するための補正係数を前記複数の画素毎に記録する記録部と、前記記録部が記録する前記注目画素における前記補正係数と前記注目画素における周囲の画素の画素値とに基づいて、前記注目画素の画素値を補正するための補正量を算出する補正量算出部と、前記補正量算出部が算出した前記補正量を用いて前記注目画素の画素値を補正する画素値補正部と、を備えたことを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記補正量算出部は、前記注目画素と異なる色の前記カラーフィルタを有する前記周囲の画素の画素値に基づいて、前記補正量を算出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記補正量算出部は、前記注目画素と同色の前記カラーフィルタを有する前記周囲の画素の画素値に基づいて、前記補正量を算出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記周囲の画素は、前記注目画素に上下左右に隣接する画素、前記注目画素の斜め方向に近接する画素および前記注目画素から所定の画素間だけ離れた上下左右の画素のいずれかであることを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記補正量算出部は、所定の色の前記カラーフィルタが配置された前記注目画素の前記補正量のみを算出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記記録部は、互いに異なる波長領域の光を照射する光源毎に前記補正係数を記録し、前記補正量算出部は、前記光源に応じて前記補正係数を選択し、該選択した前記補正係数を用いて前記補正量を算出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記画素値補正部は、前記注目画素の画素値に前記補正量算出部によって算出された前記補正量を加算または減算することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記画素値補正部は、前記撮像素子が連続的に生成する動画データにおける前記注目画素の画素値を、前記補正量を用いて補正することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記撮像素子によって生成された画像データに基づいて、前記注目画素において分光感度と予め設定した基準分光感度との差に対応する画素値の差分を補正するための補正係数を前記複数の画素毎に算出する補正係数算出部をさらに備えたことを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記カラーフィルタの色は、赤、緑および青であることを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記カラーフィルタの色は、シアン、マゼンタ、イエローおよび緑であることを特徴とする。
 また、本発明に係る画像処理方法は、画像処理装置が実行する画像処理方法であって、互いに異なる分光透過率を有する複数色のカラーフィルタを用いて所定の配列パターンを形成し、該配列パターンを形成する個々のカラーフィルタが複数の画素のいずれかに対応する位置に配置された撮像素子によって生成された画像データと、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差による画素値の差分を補正するための補正係数と、を取得する取得ステップと、前記取得ステップにおいて取得した前記注目画素の前記補正係数と前記注目画素における周囲の画素の画素値とに基づいて、前記注目画素の画素値を補正するための補正量を算出する補正量算出ステップと、前記補正量算出ステップにおいて算出した前記補正量を用いて前記注目画素の画素値を補正する画素値補正ステップと、を含むことを特徴とする。
 また、本発明に係るプログラムは、互いに異なる分光透過率を有する複数色のカラーフィルタを用いて所定の配列パターンを形成し、該配列パターンを形成する個々のカラーフィルタが複数の画素のいずれかに対応する位置に配置された撮像素子によって生成された画像データと、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差による画素値の差分を補正するための補正係数と、を取得する取得ステップと、前記取得ステップにおいて取得した前記注目画素の前記補正係数と前記注目画素における周囲の画素の画素値とに基づいて、前記注目画素の画素値を補正するための補正量を算出する補正量算出ステップと、前記補正量算出ステップにおいて算出した前記補正量を用いて前記注目画素の画素値を補正する画素値補正ステップと、を画像処理装置に実行させることを特徴とする。
 本発明によれば、撮像素子を構成する複数の画素それぞれの分光感度のばらつきを補正することができるという効果を奏する。
図1は、本発明の実施の形態1に係る撮像システムの構成を模式的に示すブロック図である。 図2は、本発明の実施の形態1に係るカラーフィルタの構成を模式的に示す図である。 図3は、本発明の実施の形態1に係る撮像素子を構成するR画素、G画素およびB画素それぞれの分光感度特性の平均を示す図である。 図4は、本発明の実施の形態1に係る撮像素子を構成するR画素の分光感度特性を示す図である。 図5は、本発明の実施の形態1に係る撮像素子を構成するG画素の分光感度特性を示す図である。 図6は、本発明の実施の形態1に係る撮像素子を構成するB画素の分光感度特性を示す図である。 図7は、本発明の実施の形態1に係る撮像素子が平坦な赤色の被写体を撮影した場合における撮像素子を構成する複数のG画素それぞれの画素値を模式的に示す図である。 図8は、本発明の実施の形態1に係る第1画像処理装置が実行する処理の概要を示すフローチャートである。 図9は、図8の撮影処理の概要を示すフローチャートである。 図10は、図8の補正係数算出処理の概要を示すフローチャートである。 図11は、通常光を用いた場合における補正係数算出時の分光特性を模式的に示す図である。 図12は、狭帯域光を用いた場合における補正係数算出時の分光特性を模式的に示す図である。 図13は、本発明の実施の形態1に係る第2画像処理装置が実行する処理の概要を示すフローチャートである。 図14は、図13の補正量算出処理の概要を示すフローチャートである。 図15は、図14のR成分補正量算出処理の概要を示すフローチャートである。 図16Aは、注目画素がB画素の場合にR成分を推定する補間方法を模式的に説明する図である。 図16Bは、注目画素がG画素の場合にR成分を推定する補間方法を模式的に説明する図である。 図16Cは、注目画素がG画素の場合にR成分を推定する補間方法を模式的に説明する図である。 図16Dは、注目画素がR画素の場合にR成分を推定する補間方法を模式的に説明する図である。 図17は、図14のG成分補正量算出処理の概要を示すフローチャートである。 図18Aは、注目画素がR画素の場合にG成分を推定する補間方法を模式的に説明する図である。 図18Bは、注目画素がB画素の場合にG成分を推定する補間方法を模式的に説明する図である。 図18Cは、注目画素がG画素の場合にG成分を推定する補間方法を模式的に説明する図である。 図18Dは、注目画素がG画素の場合にG成分を推定する補間方法を模式的に説明する図である。 図19は、図14のB成分補正量算出処理の概要を示すフローチャートである。 図20Aは、注目画素がG画素の場合にB成分を推定する補間方法を模式的に説明する図である。 図20Bは、注目画素がG画素の場合にB成分を推定する補間方法を模式的に説明する図である。 図20Cは、注目画素がR画素の場合にB成分を推定する補間方法を模式的に説明する図である。 図20Dは、注目画素がB画素の場合にB成分を推定する補間方法を模式的に説明する図である。 図21は、本発明の実施の形態2に係る第1画像処理装置が実行する処理の概要を示すフローチャートである。 図22は、本発明の実施の形態2に係る第1画像処理装置が実行する補正係数算出時における赤色被写体の分光特性を模式的に示す図である。 図23は、本発明の実施の形態2に係る第1画像処理装置が実行する補正係数算出時における緑色被写体の分光特性を模式的に示す図である。 図24は、本発明の実施の形態2に係る第1画像処理装置が実行する補正係数算出時における青色被写体の分光特性を模式的に示す図である。 図25Aは、注目画素がG画素の場合におけるR成分の補正係数算出を模式的に説明する図である。 図25Bは、注目画素がG画素の場合におけるB成分の補正係数算出を模式的に説明する図である。 図26は、本発明の実施の形態3に係る撮像装置の構成を模式的に示すブロック図である。 図27は、本発明の実施の形態1~3の変形例1に係るカラーフィルタの構成を模式的に示す図である。 図28は、本発明の実施の形態1~3の変形例2に係るカラーフィルタの構成を模式的に示す図である。 図29は、本発明の実施の形態1~3の変形例3に係るカラーフィルタの構成を模式的に示す図である。
 以下、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付して説明する。
(実施の形態1)
 〔撮像システムの構成〕
 図1は、本発明の実施の形態1に係る撮像システムの構成を模式的に示すブロック図である。図1に示す撮像システム1は、後述の補正係数を算出する場合には外部からの光が遮光された遮光空間が形成された筐体100内に配置される。また、図1に示す撮像システム1は、通常撮影を行う場合には、筐体100外に配置される。撮像システム1は、撮像装置10と、光源装置20(被写体)と、第1画像処理装置30と、第2画像処理装置40と、表示装置50と、を備える。なお、第1画像処理装置30、第2画像処理装置40および表示装置50は、後述の補正係数を算出する場合においても、筐体100の外部に配置されていてもよい。
 〔撮像装置の構成〕
 まず、撮像装置10の構成について説明する。撮像装置10は、光学系101と、絞り102と、シャッタ103と、ドライバ104と、撮像素子105と、カラーフィルタ106と、アナログ処理部107と、A/D変換部108と、第1操作部109と、メモリI/F部110と、記録媒体111と、揮発メモリ112と、不揮発メモリ113と、バス114と、撮像制御部115と、第1外部I/F部116と、を備える。
 光学系101は、単数または複数のレンズを用いて構成される。光学系101は、例えばフォーカスレンズとズームレンズとを用いて構成される。
 絞り102は、光学系101が集光した光の入射量を制限することで露出の調整を行う。絞り102は、撮像制御部115の制御のもと、光学系101が集光した光の入射量を制限する。絞り102を用いずに、シャッタ103や撮像素子105における電子シャッタを用いて光の入射量を制御するようにしてもよい。
 シャッタ103は、撮像制御部115の制御のもと、撮像素子105の状態を露光状態または遮光状態に設定する。シャッタ103は、例えばフォーカルプレーンシャッタ等を用いて構成される。シャッタ103を用いずに、撮像素子105における電子シャッタを用いてもよい。
 ドライバ104は、後述する撮像制御部115の制御のもと、光学系101、絞り102およびシャッタ103を駆動する。例えば、ドライバ104は、光学系101を光軸O1に沿って移動させることによって、撮像装置10のズーム倍率の変更またはピント位置の調整を行う。
 撮像素子105は、後述する撮像制御部115の制御のもと、光学系101が集光した光を受光して画像データ(電気信号)に変換して出力する。撮像素子105は、複数の画素が2次元状に配置されたCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)等のイメージセンサを用いて構成される。また、撮像素子105は、受光量を電子的に制御可能な電子シャッタ機能を有する。
 カラーフィルタ106は、撮像素子105の受光面に積層して設けられる。カラーフィルタ106は、互いに異なる波長領域の光を透過する複数のカラーフィルタの各々が所定の配列パターンを形成し、この配列パターンを形成する個々のカラーフィルタが撮像素子105を構成する複数の画素のいずれかに対応する位置に配置される。
 図2は、カラーフィルタ106の構成を模式的に示す図である。図2に示すカラーフィルタ106は、ベイヤー配列における赤色の波長領域の光を透過するフィルタR、緑色の波長領域の光を透過するフィルタGおよび青色の波長領域の光を透過するフィルタBの各々が撮像素子105の各画素の受光面に設けられる。なお、以下においては、フィルタRを受光面に配置した画素をR画素、フィルタGを受光面に配置した画素をG画素およびフィルタBを受光面に配置した画素をB画素として説明する。
 アナログ処理部107は、撮像素子105から出力されるアナログ信号に対して、所定のアナログ処理を施してA/D変換部108へ出力する。具体的には、アナログ処理部107は、撮像素子105から入力されるアナログ信号に対して、ノイズ低減処理およびゲインアップ処理等を行う。例えば、アナログ処理部107は、アナログ信号に対して、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるようにゲインアップを行う。
 A/D変換部108は、アナログ処理部107から入力されるアナログ信号に対して、A/D変換を行うことによってデジタルの画像データ(以下、「RAW画像データ」という)を生成し、バス114を介して揮発メモリ112に出力する。なお、A/D変換部108は、後述する撮像装置10の各部に対してRAW画像データを直接出力するようにしてもよい。なお、上述したカラーフィルタ106、アナログ処理部107とA/D変換部108を撮像素子105に設け、撮像素子105がデジタルのRAW画像データを直接出力するようにしてもよい。
 第1操作部109は、撮像装置10の各種の指示を与える。具体的には、第1操作部109は、撮像装置10の電源状態をオン状態またはオフ状態に切り替える電源スイッチ、静止画撮影の指示を与えるレリーズスイッチ、撮像装置10の各種設定を切り替える操作スイッチおよび動画撮影の指示を与える動画スイッチ等を有する。
 記録媒体111は、撮像装置10の外部から装着されるメモリカードを用いて構成され、メモリI/F部110を介して撮像装置10に着脱自在に装着される。また、記録媒体111は、撮像制御部115の制御のもと、メモリI/F部110を介してプログラムおよび各種情報それぞれを不揮発メモリ113に出力してもよい。
 揮発メモリ112は、バス114を介してA/D変換部108から入力される画像データを一時的に記憶する。例えば、揮発メモリ112は、アナログ処理部107、A/D変換部108およびバス114を介して、撮像素子105が1フレーム毎に順次出力する画像データを一時的に記憶する。揮発メモリ112は、SDRAM(Synchronous Dynamic Random Access Memory)等を用いて構成される。
 不揮発メモリ113は、撮像装置10を動作させるための各種プログラム、プログラムの実行中に使用される各種データを記録する。また、不揮発メモリ113は、プログラム記録部113aと、第1外部I/F部116を介して入力される撮像素子105を構成する複数の画素の各々の分光感度のばらつきを補正するための補正係数を記録する補正係数記録部113bと、を有する。不揮発メモリ113は、Flashメモリ等を用いて構成される。
 バス114は、撮像装置10の各構成部位を接続する伝送路等を用いて構成され、撮像装置10の内部で発生した各種データを撮像装置10の各構成部位に転送する。
 撮像制御部115は、CPU(Central Processing Unit)等を用いて構成され、第1操作部109からの指示信号やレリーズ信号に応じて撮像装置10を構成する各部に対する指示やデータの転送等を行って撮像装置10の動作を統括的に制御する。例えば、撮像制御部115は、第1操作部109からセカンドレリーズ信号が入力された場合、撮像装置10における撮影動作を開始する制御を行う。ここで、撮像装置10における撮影動作とは、撮像素子105が出力したアナログ信号に対し、アナログ処理部107およびA/D変換部108が所定の処理を施す動作をいう。このように処理が施された画像データは、撮像制御部115の制御のもと、バス114およびメモリI/F部110を介して記録媒体111に記録される。
 第1外部I/F部116は、バス114を介して外部の機器から入力される情報を不揮発メモリ113または揮発メモリ112へ出力する一方、バス114を介して外部の機器へ揮発メモリ112が記憶する情報、不揮発メモリ113が記録する情報および撮像素子105が生成した画像データを出力する。具体的には、第1外部I/F部116は、バス114を介して第1画像処理装置30および第2画像処理装置40に撮像素子105が生成した画像データを出力する。
 〔光源装置の構成〕
 次に、光源装置20の構成について説明する。光源装置20は、後述の補正係数を算出する場合に、第1画像処理装置30の制御のもと、所定の波長領域の光を撮像装置10に向けて平行光の照明光を被写体として照射する。具体的には、光源装置20は、第1画像処理装置30の制御のもと、例えば380nm~780nmの可視光を10nm間隔で撮像装置10に向けて照射する。光源装置20は、例えば互いに波長領域が異なる光を透過させる複数のフィルタが設けられた回転フィルタ、タングステンランプまたはキセノンランプ等の光源および回転フィルタを回転させるモータ等のドライバを用いて構成される。なお、光源装置20は、所定の波長領域の平行光を照射する蛍光灯、LED(Light Emitting Diode)およびレーザ光等を用いてもよい。また、光源装置20は、10nm間隔でなく、所定の波長領域、例えば赤、緑および青の各々の波長領域の光を切り換えて撮像装置10に向けて照射してもよい。また、本実施の形態では、撮像装置10を光学系101および絞り102が一体型に構成されたコンパクトデジタルカメラを想定しているが、光学系101および絞り102を有するレンズ部を本体部(ボディ部)に対して着脱自在なデジタルカメラであっても適用することができる。この場合、光源装置20からの光は、平行光として撮像装置10に入射することが好ましい。このため、レンズ部を着脱可能なデジタルカメラの場合には、本体部からレンズ部を取り外した状態で撮影することが好ましい。なお、光源装置20は、可能な限り均一な平行光を撮像装置10に向けて照射することが好ましい。
 〔第1画像処理装置の構成〕
 次に、第1画像処理装置30の構成について説明する。第1画像処理装置30は、第2外部I/F部301と、光源制御部302と、第2操作部303と、第1記録部304と、第1画像処理制御部305と、第1バス306と、補正係数算出部307と、を備える。
 第2外部I/F部301は、撮像装置10の第1外部I/F部116を介して撮像素子105によって生成された画像データを取得し、取得した画像データを補正係数算出部307または第1バッファ部304bへ出力する。また、第2外部I/F部301は、補正係数算出部307から入力された情報を撮像装置10へ出力する。第2外部I/F部301および第1外部I/F部116は、例えば双方向に情報をやり取り可能な制御ケーブルや無線通信路等を介して接続されている。
 光源制御部302は、CPUを用いて構成され、光源装置20が照射する光の波長領域を制御する。具体的には、光源制御部302は、光源装置20に10nm毎の波長領域の光を撮像装置10に照射させる。
 第2操作部303は、第1画像処理装置30の各種の指示を与える。具体的には、第2操作部303は、光源装置20に波長領域が異なる光を順次照射させる指示を与える。
 第1記録部304は、揮発メモリおよび不揮発メモリを用いて構成され、撮像装置10から入力された画像データ、第1画像処理装置30を動作させるための各種プログラム、プログラムの実行中に使用される各種データを記録する。また、第1記録部304は、第1画像処理装置30を動作させるための各種プログラムを記録する第1プログラム記録部304aと、撮像装置10から入力された画像データ等を一時的に記憶する第1バッファ部304bと、を有する。
 第1画像処理制御部305は、CPU等を用いて構成され、第2操作部303からの指示に応じて第1画像処理装置30を構成する各部に対する指示やデータの転送等を行って第1画像処理装置30の動作を統括的に制御する。
 補正係数算出部307は、撮像素子105によって生成された画像データに基づいて、注目画素において分光感度と予め設定した基準分光感度との差に対応する画素値の差分を補正するための補正係数を撮像素子105の複数の画素毎に算出し、算出した算出結果を撮像装置10の補正係数記録部113bに記録する。
 第1バス306は、第1画像処理装置30の各構成部位を接続する伝送路等を用いて構成され、第1画像処理装置30の内部で発生した各種データを第1画像処理装置30の各構成部位に転送する。
 〔第2画像処理装置の構成〕
 次に、第2画像処理装置40の構成について説明する。
 第2画像処理装置40は、第3外部I/F部401と、第2記録部402と、第2バス403と、補正量算出部404と、画素値補正部405と、画像処理部406と、を備える。
 第3外部I/F部401は、撮像装置10の第1外部I/F部116を介して撮像素子105によって生成された画像データおよび補正係数記録部113bから補正係数をそれぞれ取得し、取得した画像データおよび補正係数を補正量算出部404または第2バッファ部402bへ出力する。第3外部I/F部401および第1外部I/F部116は、例えば双方向に情報をやり取り可能な制御ケーブルや無線通信路等を介して接続されている。
 第2記録部402は、揮発メモリおよび不揮発メモリを用いて構成され、撮像装置10から入力された画像データ、補正係数、第2画像処理装置40を動作させるための各種プログラム、プログラムの実行中に使用される各種データを記録する。また、第2記録部402は、第2画像処理装置40を駆動するための第2プログラム記録部402aと、撮像装置10から入力された画像データおよび注目画素の補正係数等を一時的に記憶する第2バッファ部402bを有する。
 補正量算出部404は、補正係数記録部113bが記録する注目画素における補正係数と注目画素における周囲の画素の画素値とに基づいて、注目画素の画素値を補正するための補正量を算出する。また、補正量算出部404は、注目画素と周囲の画素の画素値に基づいて、注目画素の画素値を補正するための補正量を算出する。ここで、周囲の画素とは、注目画素に隣接する画素または注目画素の近傍に位置する画素である。また、注目画素に隣接する画素とは、注目画素を基準に左右上下方向に位置する画素である。さらに、注目画素の近傍に位置する画素とは、注目画素を基準に斜め方向に位置する画素、または、注目画素と同色で最も注目画素に近い画素である。さらに、補正量算出部404は、光源に応じた補正係数を補正係数記録部113bから選択して取得し、取得した補正係数を用いて注目画素の画素値を補正するための補正量を算出する。
 画素値補正部405は、補正量算出部404が算出した補正量を用いて注目画素の画素値を補正する。
 画像処理部406は、画素値補正部405によって分光感度ばらつきが補正された画像データに対して、所定の画像処理を行って表示装置50へ出力する。ここで、所定の画像処理とは、オプティカルブラック減算処理、ホワイトバランス調整処理、撮像素子105がベイヤー配列の場合には画像データの同時化処理、カラーマトリクス演算処理、γ補正処理、色再現処理およびエッジ強調処理、ノイズ低減処理等を含む基本の画像処理のことである。また、画像処理部406は、予め設定された各画像処理のパラメータに基づいて、自然な画像を再現する画像処理を行う。ここで、各画像処理のパラメータとは、コントラスト、シャープネス、彩度、ホワイトバランスおよび階調の値である。なお、所定の画像処理を行った画像データを、第3外部I/F部401を経由して不揮発メモリ113や記録媒体111に記録するようにしてもよい。
 〔表示装置の構成〕
 次に、表示装置50の構成について説明する。表示装置50は、第2画像処理装置40から入力される画像データに対応する画像を表示する。表示装置50は、液晶または有機EL(Electro Luminescence)等の表示パネル等を用いて構成される。
 以上の構成を有する撮像システム1は、第1画像処理装置30が撮像素子105の各画素の分光感度と基準分光感度との差による画素値の差を補正するための補正係数を算出し、第2画像処理装置40が第1画像処理装置30によって算出された補正係数を用いて注目画素の画素値を補正するための補正量を算出し、この算出した補正量を用いて注目画素の画素値を補正し、表示装置50が第2画像処理装置40によって画像処理が施された画像データに対応する画像を表示する。
 〔分光感度特性の概要〕
 次に、撮像素子105を構成するR画素、G画素およびB画素それぞれの分光感度特性について説明する。図3は、撮像素子105を構成するR画素、G画素およびB画素それぞれの分光感度特性の平均の例を示す図である。図4は、R画素の分光感度特性の例を示す図である。図5は、G画素の分光感度特性の例を示す図である。図6は、B画素の分光感度特性の例を示す図である。図3~6において、横軸が波長を示し、縦軸が相対分光感度を示す。また、図3~図6において、曲線LB1が複数のB画素それぞれの分光感度を平均化した平均分光感度特性を示し、曲線LG1が複数のG画素それぞれの分光感度を平均化した平均分光感度特性を示し、曲線LR1が複数のR画素それぞれの分光感度を平均化した平均分光感度特性を示す。また、図4の曲線LR2がR画素の分光感度特性の一例を示し、図5の曲線LG2がG画素の分光感度特性の一例を示し、図6の曲線LB2がB画素の分光感度特性の一例を示す。図4~図6において、ここで、分光感度の差とは、平均分光感度に対する各画素の分光感度の差を意味し、撮像素子105の製造段階において各フィルタの厚みのばらつき等によって生じる分光透過率のばらつきや、各画素の回路パターンや回路特性の差などによって生じる分光反射率や分光吸収率のばらつき等に起因するものである。また、撮像素子105における全ての画素を用いて各R、G、B画素にそれぞれに対する平均分光感度特性を算出しても良いし、注目画素およびその同色の周辺の画素を用いて、注目画素に対する平均分光感度特性(即ち、局所的な平均分光感度特性)を算出するようにしてもよい。なお、注目画素に対する平均分光感度特性は、注目画素を含めずに注目画素と同色の周辺の画素を用いて算出してもよい。注目画素に対する平均分光感度特性を算出する場合、光源装置20からの光が均一ではない場合や光学系101によりシェーディング発生する場合等、撮像素子105に照射される光が不均一な場合に、その不均一な光による影響を排除した平均分光感度特性が得られる。また、平均分光感度特性が本実施の形態における基準分光感度特性に該当する。
 図4~図6に示すように、分光感度の差が波長領域によって変化する。具体的に例を挙げると、R画素では、図4の曲線LR1および曲線LR2に示すように、平均分光感度に対して550nm近傍より短波長側の波長領域R1において差が生じる。G画素では、図5の曲線LG1および曲線LG2に示すように、平均分光感度に対して500nm近傍より短波長側の波長領域G1と600nm近傍より長波長側の波長領域G2において差が生じる。さらに、B画素では、図6の曲線LG1および曲線LG2に示すように、平均分光感度に対して550nm近傍より長波長側の波長領域B1において差が生じる。
 なお、図4~図6においては、分光感度が低い波長領域で平均分光感度よりも高い分光感度を有するR画素、G画素およびB画素それぞれの一例を説明したが、撮像素子105を構成する各画素によっては、以下の(a)~(d)いずれかの画素が存在する。
 (a)分光感度が低い領域で平均分光感度よりも低い分光感度または同様の分光感度を有する画素
 (b)分光感度が高い波長領域で平均分光感度よりも高い分光感度若しくは低い分光感度または同様の分光感度を有する画素
 (c)分光感度が低い波長領域と高い波長領域とで平均分光感度との大小関係が変わる、または変わらない分光感度を有する画素
 (d)分光感度の高低に関わらず波長によって平均分光感度に対して大小が変化する分光感度を有する画素
このように撮像素子105は、製造段階において各カラーフィルタの厚みのばらつき等によって分光感度のばらつきが画素単位で発生する。本実施の形態では、一例として、分光感度のばらつきは、波長による変化が小さく、いずれの波長でも同程度の小さなばらつきをもつこの場合、例えば平坦な赤色の被写体を撮影するとき、R画素は、分光感度が高い波長領域のため、ランダムノイズによる画素値のばらつきが支配的になり、分光感度のばらつきが画質にあまり影響しない。
 これに対して、平坦な赤色の被写体を撮影するとき、G画素およびB画素の各々は、分光感度が低い波長領域のため、ランダムノイズによる画素値のばらつきが小さく、分光感度のばらつきによる画素値のばらつきが相対的に大きくなることで、分光感度のばらつきが画質に影響する。このような分光感度のばらつきによる画素値のばらつきは、特に平坦な被写体において画像のざらつきとして見える。このざらつきは、画素の画素値に依存するため、多少の凹凸を有する被写体が動いても、ざらつきが停止して見えるため、違和感が生じる。したがって、他の色の画素の分光感度に比べ低い分光感度をもつ波長領域を優先的に補正することが望ましい。
 図7は、撮像素子105が平坦な赤色または平坦な緑色の被写体を撮影した場合における撮像素子105を構成する複数のG画素それぞれの画素値を模式的に示す図である。図7において、横軸が画素列を示し、縦軸が画素値を示す。また、図7において、直線MR2が平坦な赤色の被写体を撮影した際の各G画素における画素値の平均値を示し、直線MG2が平坦な緑色の被写体を撮影した際の各G画素における画素値の平均値を示す。なお、図7において、各G画素で生じるランダムノイズRN1、RN2、GN1およびGN2の各々をハッチングで表現した。また、図7においては、撮像素子105を構成するR画素、G画素およびB画素のうち、6つのG画素を一例に説明する。
 図7に示すように、撮像素子105が平坦な赤の被写体を撮影した場合、G画素G1~G6の各々は、分光感度が低い波長領域のため、ランダムノイズよりも製造段階における各カラーフィルタの厚みのばらつき等による分光感度ばらつきによる影響を受けて、G画素G1~G6の各々の画素値が大きくばらつく(図7(a)を参照)。これに対して、撮像素子105が平坦な緑色の被写体を撮影した場合、G画素G1~G6の各々は、分光感度が高い波長領域のため、製造段階における各カラーフィルタの厚みのばらつき等による分光感度ばらつきよりも、ランダムノイズによる画素値のばらつきが支配的になりG画素G1~G6の各々の画素値がほぼ一定となる(図7(b)を参照)。よって、被写体の分光特性により、ざらつきが見えたり見えなかったりする。このように、各画素は、画素毎に分光感度によるばらつきが異なるため、従来のように各画素に対して一律のゲインをかけたり、一律のオフセットを加減算したりしても、上述したばらつきを補正することができない。そこで、本実施の形態では、後述の補正係数の算出や補正処理を行うことで、上述したざらつきを低減し、被写体が平坦な場合にはMR2に示すような画素値に補正することができる(図7(c)を参照)。このため、本実施の形態では、撮像素子105を構成する複数の画素の各々の分光感度の差によって生じる画質劣化を防止することで、高画質な画像を得る。
 〔第1画像処理装置の処理〕
 次に、第1画像処理装置30が実行する処理について説明する。図8は、第1画像処理装置30が実行する処理の概要を示すフローチャートであり、メインルーチンを示す。なお、図8においては、第1画像処理装置30が実行する各画素の分光感度ばらつきを補正するための補正係数を算出する処理について説明する。本実施の形態では、撮像素子105の各画素は、RGBいずれかのカラーフィルタ106を有しているため、各画素においてR画素値を用いた補正用の補正係数、G画素値を用いた補正用の補正係数、B画素値を用いた補正用の補正係数を算出する。勿論、一部の補正係数のみ算出するようにしてもよい。
 図8に示すように、光源制御部302は、光源装置20が照射する波長領域を示すλを380nmに設定する(ステップS101)。なお、本実施の形態では、光源制御部302は、可視光波長領域として380nm~780nmを設定するが、これに限定されず、赤外等の他の波長領域であってもよい。
 続いて、光源制御部302は、光源装置20が照射する照明光の波長を波長λに設定して照明光を照射させる(ステップS102)。これにより、光源装置20は、被写体として波長λの単波長平面の照明光を撮像装置10に向けて照射する。
 その後、第1画像処理制御部305は、光源装置20が照射する照明光を所定回数撮影して撮像素子105を構成する複数の画素の各々の画素値の平均値を算出する撮影処理を撮像装置10に実行させる(ステップS103)。
 図9は、図8のステップS103の撮影処理の概要を示すフローチャートである。図9に示すように、第1画像処理制御部305は、第1記録部304の第1バッファ部304bに記憶された撮像素子105が生成した画像データに対応する各画素の画素値の蓄積値を算出するためのバッファ領域を初期化する(ステップS201)。
 続いて、第1画像処理制御部305は、カウンタiを0に設定し(ステップS202)、第1バス306、第2外部I/F部301、第1外部I/F部116およびバス114を介して撮像素子105に露光を開始(光源装置20が照射する照明光の撮影を開始)させるとともに(ステップS203)、撮像素子105から画像データの取り込みを行う(ステップS204)。
 その後、第1画像処理制御部305は、第1バッファ部304bに記憶されている各画素の画素値と、撮像素子105から取り込んだ最新の画像データの画素毎に画素値を加算し、この加算した画素値を第1バッファ部304bに記憶されている画素値と置き換える(ステップS205)。
 続いて、第1画像処理制御部305は、カウンタiをインクリメント(i=i+1)し(ステップS206)、画像データの取り込んだ枚数(i)が所定枚数未満(例えば100枚)である場合(ステップS207:Yes)、第1画像処理装置30は、ステップS203へ戻る。これに対して、画像データの取り込んだ枚数(i)が所定枚数未満でない場合(ステップS207:No)、第1画像処理装置30は、ステップS208へ移行する。
 その後、第1画像処理制御部305は、第1バッファ部304bに記憶されている各画素の画素値を、画像データを取り込んだ所定枚数(例えば100枚)で除算し、この除算した結果を第1バッファ部304bに記憶されている画素毎の画素値に置き換える(ステップS208)。これにより、第1バッファ部304bに記憶されている画素毎の画素値は、平均画素値となる。なお、第1画像処理制御部305は、撮像素子105から取り込んだ画像データの各画素において、欠陥画素が含まれている場合、この欠陥画素を補正するようにしてもよい。ステップS208の後、第1画像処理装置30は、上述した図8のメインルーチンへ戻る。なお、図9における撮影処理においては、平均画素値を算出したが、少なくとも画像データにおけるランダムノイズやRTSノイズ等の点滅欠陥等、時間的に変動するノイズが除去された画像データを取得できれば良い。そのため、公知のノイズ低減方法等を用い、時間的に変動するノイズを低減した画像データを取得するようにしても良い。
 図8に戻り、ステップS104以降の説明を続ける。
 ステップS104において、光源制御部302は、光源装置20が照射する照明光の波長を波長λに10nmを加算して設定する。なお、光源制御部302は、10nm間隔以外でも良く、例えば1nm間隔または5nm間隔であってもよい。もちろん、光源制御部302は、20nm間隔または50nm間隔であってもよい。さらに、光源制御部302は、例えば赤、緑および青の各々の3つの波長領域の間隔であってもよい。
 続いて、光源装置20が照射する照明光の波長λが780nm以下(λ≦780nm)である場合(ステップS105:Yes)、第1画像処理装置30は、ステップS102へ戻る。これに対して、光源装置20が照射する照明光の波長λが780nm以下(λ≦780nm)でない場合(ステップS105:No)、第1画像処理装置30は、ステップS106へ移行する。
 その後、補正係数算出部307は、第1バッファ部304bに記憶された380nm~780nmまでの被写体(光源装置20が照射した照明光)を撮影した画像データを用いて、分光感度特性を画素毎に算出する(ステップS106)。このとき、補正係数算出部307は、380nm~780nmまで光の放射輝度が同一では無い場合、正規化した後、分光感度特性を画素毎に算出する。
 続いて、補正係数算出部307は、第1バッファ部304bに記憶された380nm~780nmまでの被写体(光源装置20が照射した照明光)を撮影した画像データを用いて、赤、緑および青の各々のカラーフィルタ毎に基準分光感度特性を算出する(ステップS107)。具体的には、補正係数算出部307は、第1バッファ部304bに記憶された380nm~780nmまでの被写体(光源装置20が照射した照明光)を撮影した複数の画像データを用いて、基準分光感度特性として赤、緑および青の各々のカラーフィルタ毎に分光感度特性の平均値、最大値、最小値、中央値および最頻値等の統計的手法によっていずれか1つを算出する。なお、本実施の形態では、赤、緑および青の各々のカラーフィルタの分光感度特性の平均値を基準分光感度特性として説明する。また、補正係数算出部307は、被写体が完全に平坦でない場合または光学系101によりシェーディングが発生する場合等均一な光が撮像素子105に照射されない場合、注目画素毎に、その注目画素の周囲の同色画素の分光感度特性を用いて基準分光感度を算出するようにしてもよい。
 その後、補正係数算出部307は、撮像素子105の画素毎に分光感度特性を補正するための補正係数を算出する補正係数算出処理を実行する(ステップS108)。
 図10は、図8のステップS108の補正係数算出処理の概要を示すフローチャートである。
 図10に示すように、補正係数算出部307は、基準分光感度特性に基づいて、各色の波長領域を決定する(ステップS301)。具体的には、図11に示すように、補正係数算出部307は、基準分光感度特性に基づいて、フィルタBのB波長領域、フィルタGのG波長領域およびフィルタRのR波長領域の各々を決定する。例えば、図11に示す場合、補正係数算出部307は、B波長領域を380nm~500nm、G波長領域を500nm~600nmおよびR波長領域を600nm~780nmの各々に決定する。なお、補正係数算出部307は、波長領域の一部が重なるようにB波長領域、G波長領域およびR波長領域の各々の波長領域を決定してもよい。また反対に、補正係数算出部307は、波長領域の一部がいずれの波長領域にも該当しないように各々の波長領域を決定してもよい。また、各色の波長領域は、分光感度特性の設計値等に基づき、あらかじめ決定しておくようにしてもよい。
 続いて、補正係数算出部307は、各画素の分光感度特性に基づいて、各画素の画素値を算出する(ステップS302)。具体的には、補正係数算出部307は、各画素と同色の波長領域における画素の分光感度特性の累積値を算出し、その値を画素値として算出する。この画素値は、同色の波長領域のみの特性が1、それ以外の波長領域の特性が0となるような矩形の分光特性を有する被写体(照明光)を露光した場合の画素値に相当する。なお、補正係数算出部307は、予め想定する被写体(光源または照明光の波長領域)を限定または特定できる場合、その被写体の分光特性に応じて重み付け加算することによって、その被写体を露光したときの画素値に相当する値を求めるようにしてもよい。
 その後、補正係数算出部307は、注目画素における周囲であり、注目画素におけるフィルタの色と異なるフィルタを有する異色画素の画素値を用いて補間することによって、注目画素において該画素と異なる色の異色画素値を推定する(ステップS303)。具体的には、補正係数算出部307は、注目画素がG画素の場合、異なる色であるR波長領域とB波長領域の画素値を算出する。また、ステップS303において、補正係数算出部307は、注目画素におけるフィルタの色と同じフィルタを有する周辺画素値を用いて補間することによって、該画素と同じ色の平均画素値を推定する。具体的には、補正係数算出部307は、注目画素がG画素の場合、G波長領域の平均画素値を算出する。
 図11は、通常光を用いた場合における補正係数算出時の分光特性を模式的に示す図である。図12は、狭帯域光を用いた場合における補正係数算出時の分光特性を模式的に示す図である。図11および図12において、横軸が波長を示し、縦軸が相対分光感度を示す。ここで、通常光とは、タングステンランプまたはキセノンランプの光源が照射する可視光の光や、太陽光などの自然光の光であって、分光特性が連続的に変化する光である。また、狭帯域光とは、蛍光灯、LED(Light Emitting Diode)ランプまたはレーザ光源、一部の波長域を通過させるフィルタを有する光源等の光源が照射する光であって、分光特性が離散的な光である。ここで、分光特性が離散的な光とは、一部の波長域の強度が強く、他の波長域の強度が著しく弱い光である場合も含む。
 図11に示すように、補正係数算出部307は、撮影時に通常光(狭帯域光以外)を用いる場合において、注目画素がG画素のとき、注目画素と異なる色であるR波長領域の画素値Sr1およびB波長領域の画素値Sb1、および注目画素と同じ色であるG波長域の平均画素値Sg1それぞれを算出することによって、注目画素において該注目画素と異なる色の異色画素値と注目画素と同じ色の平均画素値を推定する。また、図12に示すように、補正係数算出部307は、撮影時に狭帯域光を用いる場合において、注目画素がG画素のとき、異なる色であるR波長領域の画素値Sr2およびB波長領域の画素値Sb2、および注目画素と同じ色であるG波長域の平均画素値Sg2それぞれを算出することによって、注目画素において該注目画素と異なる色の異色画素値と注目画素と同じ色の平均画素値を推定する。図12に示す状況下において、補正係数算出部307は、用いる狭帯域光の主要な波長領域に合わせて、R波長領域、G波長域およびB波長領域それぞれの波長領域の幅を狭く設定する。具体的には、図12に示す場合、狭帯域光NRL、狭帯域光NGLおよび狭帯域光NBLに設定する。なお、図11および図12において、補正係数算出部307は、画素値Sb1、画素値Sb2、画素値Sr1および画素値Sr2それぞれの補間方法を後述する第2画像処理装置40が実行する補正量算出処理において用いる補間方法と同一にすることが好ましい。同様に、平均画素値Sg1および平均画素値Sg2それぞれの算出方法を後述する第2画像処理装置40が実行する補正量算出処理において用いる補間方法と同一にすることが好ましい。このため、画素値Sb1、画素値Sb2、画素値Sg1、画素値Sg2、画素値Sr1および画素値Sr2それぞれの補間方法は、後述する。
 続いて、補正係数算出部307は、各画素において、該画素と異なる色の波長領域における誤差量を算出する(ステップS304)。具体的には、補正係数算出部307は、図11に示す場合、各画素において、分光感度特性と基準分光感度特性との差を、各波長領域で累積した値によって算出する。例えば、図11の曲線LG1および曲線LG2に示すように、補正係数算出部307は、注目画素がG画素の場合、曲線LG2と曲線LG1との差をR波長領域、G波長域およびB波長領域の各々において累積した値を誤差量Δr1、誤差量Δg1および誤差量Δb1として算出する。また、狭帯域光の場合、図12の曲線LG1および曲線LG2に示すように、補正係数算出部307は、注目画素がG画素のとき、曲線LG1と曲線LG2との差をR波長領域、G波長域およびB波長領域の各々において累積した値を誤差量Δr2、誤差量Δg2および誤差量Δb2として算出する。ここで、誤差量は、基準分光感度特性よりも分光感度特性が大きい(高い)場合には正の値、小さい(低い)場合には負の値とする。
 その後、補正係数算出部307は、各画素において、誤差量を推定した異色画素値または平均画素値で除算することによって、その画素における補正係数を算出する(ステップS305)。例えば、図11に示す場合において、注目画素がG画素のとき、補正係数算出部307は、上述したステップS304で算出したR波長領域の誤差量を上述したステップ303で推定したR波長領域の画素値で除算した値(Δr1/Sr1)をR成分の補正係数とし、上述したステップS304で算出したG波長領域の誤差量を上述したステップ303で推定したG波長領域の平均画素値で除算した値(Δg1/Sg1)をG成分の補正係数とし、上述したステップS304で算出したB波長領域の誤差量を上述したステップS303で推定したB波長領域の画素値で除算した値(Δb1/Sb1)をB成分の補正係数として算出する。また、図12に示す場合において、注目画素がG画素のとき、補正係数算出部307は、上述したステップS304で算出したR波長領域の誤差量を上述したステップ303で推定したR波長領域の画素値で除算した値(Δr2/Sr2)をR成分の補正係数とし、上述したステップS304で算出したG波長領域の誤差量を上述したステップ303で推定したG波長領域の平均画素値で除算した値(Δg2/Sg2)をG成分の補正係数とし、上述したステップS304で算出したB波長領域の誤差量を上述したステップS303で推定したB波長領域の画素値で除算した値(Δb2/Sb2)をB成分の補正係数として算出する。さらに、補正係数算出部307は、各画素に対して、他の色、例えばR画素およびB画素それぞれも同様に補正係数を算出する。ステップS305の後、第1画像処理装置300は、図8のメインルーチンへ戻る。
 図8に戻り、ステップS109以降の説明を続ける。
 ステップS109において、補正係数算出部307は、撮像素子105の各画素において、算出した補正係数を、その画素の補正係数として撮像装置10の補正係数記録部113bに記録する。撮影時には、太陽光などの自然光以外にも、特に暗所などでは、図1に図示していない発光部より光を発光させて被写体に照射し、その反射光を撮像素子105に撮像させる。上述の分光感度ばらつきは、波長に応じて、ばらつき度合いが異なる場合がある。このため、補正係数算出部307は、発光部から発光する光(被写体に照射する光)に合わせた補正を行うことが好ましい。特に、発光する光が狭帯域であるほど、自然光等の通常光とばらつき度合いが異なりやすい。よって、補正係数算出部307は、撮影時に用いる光源の種別毎に応じた補正係数を補正係数記録部113bに記録する。具体的には、補正係数算出部307は、撮影時に用いる光源の種別と補正係数とを対応付けて補正係数記録部113bに記録する。例えば、補正係数算出部307は、通常光であることを示す情報と、上述した図11のように算出した補正係数とを対応付けて補正係数記録部113bに記録する。また、狭帯域光であることを示す情報と、上述した図12のように算出した補正係数とを対応付けて補正係数記録部113bに記録する。これにより、複数の光源それぞれに対応させた各画素の補正係数を記録することができる。ステップS109の後、第1画像処理装置30は、本処理を終了する。
 このように第1画像処理装置30は、互いに異なる分光透過率を有する複数のカラーフィルタを所定のパターンで複数の画素の各々の受光面に配置した撮像素子105によって生成された画像データに基づいて、該画像データにおける注目画素の分光感度と予め設定した基準分光感度との差を、画素値の差によって補正するための補正係数を画素毎に算出する。この結果、撮像素子105を構成する複数の画素それぞれの分光感度のばらつきを補正するための補正係数を画素毎に算出することができる。
 〔第2画像処理装置の処理〕
 次に、第2画像処理装置40が実行する処理について説明する。図13は、第2画像処理装置40が実行する処理の概要を示すフローチャートであり、メインルーチンを示す。
 図13に示すように、まず、補正量算出部404は、撮像装置10から撮像素子105が生成した画像データと補正係数記録部113bが記録する補正係数を取得し、取得した画像データにおける注目画素の画素値の補正量を算出する補正量算出処理を実行する(ステップS401)。なお、補正量算出処理の概要は、後述する。
 続いて、画素値補正部405は、補正量算出部404が算出した各画素の補正量を減算することで各画素の画素値を補正する(ステップS402)。ステップS402の後、第2画像処理装置40は、本処理を終了する。
 次に、図13のステップS401で説明した補正量算出処理の詳細について説明する。図14は、補正量算出処理の概要を示すフローチャートである。
 図14に示すように、補正量算出部404は、まず、第2記録部402の第2バッファ部402bに記憶された画像データに対応する画像の高さ方向(縦方向)における画素の位置を示すカウンタyを初期化(カウンタy=0)し(ステップS501)、画像データに対応する画像の幅方向(横方向)における画素の位置を示すカウンタxを初期化(カウンタx=0)する(ステップS502)。
 続いて、画像データにおける座標(x,y)の注目画素に対して、R波長領域の分光感度ばらつきを補正する場合(ステップS503:Yes)、補正量算出部404は、後述するステップS504へ移行する。これに対して、座標(x,y)の注目画素に対して、R波長領域の分光感度ばらつきを補正しない場合(ステップS503:No)、補正量算出部404は、後述するステップS505へ移行する。
 ステップS504において、補正量算出部404は、R成分の補正量を算出するR成分補正量算出処理を実行する。ここで、R成分とは、R波長領域の画素値である。
 図15は、上述したステップS504のR成分補正量算出処理の概要を示すフローチャートである。図15に示すように、補正量算出部404は、第2バッファ部402bから座標(x,y)の注目画素における周囲のR画素の画素値を取得する(ステップS601)。
 続いて、補正量算出部404は、ステップS601で取得した周囲のR画素の画素値を用いて補間することによって、座標(x,y)の注目画素におけるR成分の画素値を推定する(ステップS602)。例えば、図16A~図16Dに示すように、補正量算出部404が行う補間方法としては、座標(x,y)の注目画素におけるフィルタの色に応じて、注目画素の周囲のR画素の画素値の平均値とすることによって、座標(x,y)の注目画素におけるR成分の画素値を推定する。具体的には、補正量算出部404は、図16Aに示すように、座標(x,y)の注目画素におけるフィルタの色が青色のB画素の場合、斜め4方向のR画素の画素値の平均値(図16Aを参照)を座標(x,y)の注目画素におけるR成分の画素値として推定し、座標(x,y)の注目画素におけるフィルタの色が緑色のG画素の場合、隣接するR画素の画素値の平均値(図16Bおよび図16Cを参照)を座標(x,y)の注目画素におけるR成分の画素値として推定する。また、補正量算出部404は、注目画素におけるフィルタの色が赤色のR画素の場合、上下左右における距離2画素の4つのR画素値の平均値(図16Dを参照)を、座標(x,y)の注目画素におけるR成分の平均画素値として推定する。ここで、補正量算出部404は、注目画素がR画素の場合、注目画素を含めた平均値をR成分の平均画素値として算出するようにしてもよい。また、エッジ方向などを検出してエッジ方向の画素値の重みを大きくする等、重み付けを行った平均値を算出するようにしてもよい。
 その後、狭帯域光を被写体に照射して撮影した場合(ステップS603:Yes)、補正量算出部404は、後述するステップS604へ移行する。これに対して、狭帯域光を被写体に照射せずに撮影した場合(ステップS603:No)、補正量算出部404は、後述するステップS605へ移行する。なお、光源の判定は、例えばメニューから選択してもよいし、補正量算出部404が画像データに対応する画像の色分布に基づいて、判定するようにしてもよい。また、補正量算出部404が外部の光源の情報を直接取得するようにしてもよい。また、補正量算出部404は、通常光と狭帯域光とが混合した混合光の場合(例えばLEDランプによる光+通常光の場合)、LEDランプが照射する光が届く範囲では、狭帯域光を優先して選択する一方、それ以外の範囲では通常光を選択するようにしてもよい。このとき、補正量算出部404は、画像データに対応する画像を構成する複数の画素それぞれに対して、複数の光源が映りこんでいるか否かを検出し、この検出結果に応じて混合光であるか否かを判定後、画素毎に狭帯域光の補正係数または通常光の補正係数を選択や、混合光の混合割合に応じて画素毎に狭帯域光の補正係数と通常光の補正係数を混合するようにしてもよい。
 ステップS604において、補正量算出部404は、第2バッファ部402bから狭帯域光の光源に応じた座標(x,y)の注目画素におけるR成分の補正係数を取得する。ステップS604の後、補正量算出部404は、後述するステップS606へ移行する。
 ステップS605において、補正量算出部404は、第2バッファ部402bから通常光に応じた座標(x,y)の注目画素におけるR成分の補正係数を取得する。ステップS605の後、補正量算出部404は、後述するステップS606へ移行する。
 続いて、補正量算出部404は、上述したステップS602で推定した座標(x,y)の注目画素におけるR画素の画素値(注目画素がR画素である場合にはR成分の平均画素値)に、座標(x,y)の注目画素におけるR成分の補正係数を乗じることによって、座標(x,y)の注目画素における画素値に対するR成分の補正量を算出する(ステップS606)。ステップS606の後、補正量算出部404は、図14の補正量算出処理へ戻る。
 図14に戻り、ステップS505以降の説明を続ける。
 ステップS505において、座標(x,y)の注目画素に対して、G波長領域の分光感度ばらつきを補正する場合(ステップS505:Yes)、補正量算出部404は、後述するステップS506へ移行する。これに対して、座標(x,y)の注目画素に対して、G波長領域の分光感度ばらつきを補正しない場合(ステップS505:No)、補正量算出部404は、後述するステップS507へ移行する。
 ステップS506において、補正量算出部404は、G成分の補正量を算出するG成分補正量算出処理を実行する。ここで、G成分とは、G波長領域の画素値である。
 図17は、上述したステップS506のG成分補正量算出処理の概要を示すフローチャートである。図17に示すように、補正量算出部404は、第2バッファ部402bから座標(x,y)の注目画素における周囲のG画素の画素値を取得する(ステップS701)。
 続いて、補正量算出部404は、ステップS701で取得した周囲のG画素の画素値を用いて補間することによって、座標(x,y)の注目画素におけるG成分の画素値を推定する(ステップS702)。例えば、補正量算出部404は、図18A~図18Dに示すように、座標(x,y)の注目画素におけるフィルタの色が赤色のR画素の場合、上下左右のG画素の画素値の平均値(図18Aを参照)を座標(x,y)の注目画素におけるG成分の画素値として推定し、座標(x,y)の注目画素におけるフィルタの色が青色のB画素の場合、上下左右のG画素の画素値の平均値(図18Bを参照)を座標(x,y)の注目画素におけるG成分の画素値として推定する。また、補正量算出部404は、注目画素におけるフィルタの色が緑色のG画素の場合、斜め4方向のG画素値の平均値(図18Cおよび図18Dを参照)を、座標(x,y)の注目画素におけるG成分の平均画素値として推定する。ここで、補正量算出部404は、注目画素がG画素の場合、注目画素を含めた平均値をG成分の平均画素値として算出するようにしてもよい。また、補正量算出部404は、エッジ方向などを検出してエッジ方向の画素値の重みを大きくする等、重み付けを行った平均値を算出するようにしてもよい。
 その後、狭帯域光を被写体に照射して撮影した場合(ステップS703:Yes)、補正量算出部404は、後述するステップS704へ移行する。これに対して、狭帯域光を被写体に照射せずに撮影した場合(ステップS703:No)、補正量算出部404は、後述するステップS705へ移行する。
 ステップS704において、補正量算出部404は、第2バッファ部402bから狭帯域光の光源に応じた座標(x,y)の注目画素におけるG成分(G波長領域の画素値)の補正係数を取得する。ステップS704の後、補正量算出部404は、後述するステップS706へ移行する。
 ステップS705において、補正量算出部404は、第2バッファ部402bから通常光に応じた座標(x,y)の注目画素におけるG成分の補正係数を取得する。ステップS705の後、補正量算出部404は、後述するステップS706へ移行する。
 続いて、補正量算出部404は、上述したステップS702で推定した座標(x,y)の注目画素におけるG成分の画素値(注目画素がG画素である場合にはG成分の平均画素値)に、座標(x,y)の注目画素におけるG成分の補正係数を乗じることによって、座標(x,y)の注目画素の画素値に対するG成分の補正量を算出する(ステップS706)。ステップS706の後、補正量算出部404は、図14の補正量算出処理へ戻る。
 図14に戻り、ステップS507以降の説明を続ける。
 ステップS507において、座標(x,y)の注目画素に対して、B波長領域の分光感度ばらつきを補正する場合(ステップS507:Yes)、補正量算出部404は、後述するステップS508へ移行する。これに対して、座標(x,y)の注目画素に対して、B波長領域の分光感度ばらつきを補正しない場合(ステップS507:No)、補正量算出部404は、後述するステップS509へ移行する。
 ステップS508において、補正量算出部404は、B成分の補正量を算出するB成分補正量算出処理を実行する。ここで、B成分とは、B波長領域の画素値である。
 図19は、上述したステップS508のB成分補正量算出処理の概要を示すフローチャートである。図19に示すように、補正量算出部404は、第2バッファ部402bから座標(x,y)の注目画素における周囲のB画素の画素値を取得する(ステップS801)。
 続いて、補正量算出部404は、ステップS801で取得した周囲のB画素の画素値を用いて補間することによって、座標(x,y)の注目画素におけるB成分の画素値を推定する(ステップS802)。例えば、補正量算出部404は、図20A~図20Dに示すように、座標(x,y)の注目画素におけるフィルタの色が緑色のG画素の場合、上下または左右のB画素の画素値の平均値(図20Aおよび図20Bを参照)を座標(x,y)の注目画素におけるB成分の画素値として推定し、座標(x,y)の注目画素におけるフィルタの色が赤色のR画素の場合、斜め方向のB画素の画素値の平均値(図20Cを参照)を座標(x,y)の注目画素におけるB成分の画素値として推定する。また、補正量算出部404は、注目画素におけるフィルタの色が青色のB画素の場合、上下左右における距離2画素の4つのB画素値の平均値(図20Dを参照)を、座標(x,y)の注目画素におけるB成分の平均画素値として推定する。ここで、補正量算出部404は、注目画素がB画素の場合、注目画素を含めた平均値をB成分の平均画素値として算出するようにしてもよい。また、補正量算出部404は、エッジ方向などを検出してエッジ方向の画素値の重みを大きくする等、重み付けを行った平均値を算出するようにしてもよい。
 その後、狭帯域光を被写体に照射して撮影した場合(ステップS803:Yes)、補正量算出部404は、後述するステップS804へ移行する。これに対して、狭帯域光を被写体に照射せずに撮影した場合(ステップS803:No)、補正量算出部404は、後述するステップS805へ移行する。
 ステップS804において、補正量算出部404は、第2バッファ部402bから狭帯域光の光源に応じた座標(x,y)のB成分の補正係数を取得する。ステップS804の後、補正量算出部404は、後述するステップS806へ移行する。
 ステップS805において、補正量算出部404は、第2バッファ部402bから通常光に応じた座標(x,y)のB成分の補正係数を取得する。ステップS805の後、補正量算出部404は、後述するステップS806へ移行する。
 続いて、補正量算出部404は、上述したステップS802で推定した座標(x,y)の注目画素におけるB成分の画素値(注目画素がB画素である場合にはB成分の平均画素値)に、座標(x,y)の注目画素におけるB成分の補正係数を乗じることによって、座標(x,y)の注目画素の画素値に対するB成分の補正量を算出する(ステップS806)。ステップS806の後、補正量算出部404は、図14の補正量算出処理へ戻る。
 図14に戻り、ステップS509以降の説明を続ける。
 ステップS509において、補正量算出部404は、上述したステップS503~ステップS508で算出した座標(x,y)の注目画素における補正量(算出しなかった成分の補正量は0とする)の和を、座標(x,y)の注目画素の補正量として算出する。
 続いて、補正量算出部404は、カウンタxをインクリメント(x=x+1)する(ステップS510)。
 その後、カウンタxが画像データに対応する画像の幅より小さい場合(ステップS511:Yes)、補正量算出部404は、ステップS503へ戻る。これに対して、カウンタxが画像データに対応する画像の幅より小さくない場合(ステップS511:No)、補正量算出部404は、ステップS512へ移行する。
 続いて、補正量算出部404は、カウンタyをインクリメント(y=y+1)する(ステップS512)。
 その後、カウンタyが画像データに対応する画像の高さより小さい場合(ステップS513:Yes)、補正量算出部404は、ステップS502へ戻る。これに対して、カウンタyが画像データに対応する画像の高さより小さくない場合(ステップS513:No)、補正量算出部404は、図13のメインルーチンへ戻る。
 このように、第2画像処理装置40は、補正量算出部404が撮像装置10の補正係数記録部113bが記録する補正係数を取得し、取得した補正係数と、注目画素における周囲の画素の画素値とに基づいて、注目画素の画素値を補正するための補正量を算出し、画素値補正部405が補正量算出部404によって算出された補正量を用いて注目画素の画素値を補正する。これにより、撮像素子105を構成する複数の画素それぞれの分光感度のばらつきを補正することができる。なお、第2画像処理装置40は、R画素、G画素およびB画素の各々の画素値を補正していたが、例えばG画素のR成分の画素値だけ補正するようにしてもよい。
 また、上述のように、第2画像処理装置40は、分光感度が相対的に低い波長域のほうが、相対的に高い波長域よりも分光感度ばらつきによる影響が大きいため、注目画素におけるフィルタと異なる色の波長領域のみ補正するようにしてもよい。その場合、ステップS503では注目画素がR画素では無い場合にYesと判定し、ステップS505では注目画素がG画素では無い場合にYesと判定し、ステップS507では注目画素がB画素では無い場合にYesと判定するようにすればよい。このようにすることで、上述に比べ、演算量を削減することができる。
 以上説明した本発明の実施の形態1によれば、補正係数算出部307が互いに異なる分光透過率を有する複数色のカラーフィルタ106のいずれか1つを複数の画素の各々の受光面に設けられた撮像素子105によって生成された画像データに対し、注目画素において分光感度と予め設定した基準分光感度との差による画素値の差分を補正するための補正係数を複数の画素毎に算出するので、撮像素子105を構成する複数の画素それぞれの分光感度のばらつきを画素毎に補正するための補正係数を効率的に算出することができる。
 また、本発明の実施の形態1によれば、補正係数算出部307が撮影時に用いる光源に応じて検出方法を変更することによって、光源に応じて画素毎に適切な分光感度のばらつきを補正するための補正係数を算出することができる。
 また、本発明の実施の形態1によれば、補正量算出部404が補正係数記録部113bによって記録された注目画素における補正係数と注目画素における周囲の画素の画素値とに基づいて、注目画素の画素値を補正するための補正量を算出し、画素値補正部405が補正量算出部404によって算出された補正量に基づいて、注目画素の画素値を補正するので、画素毎に分光感度のばらつきに起因して生じる画素値の差を補正することができる。
 また、本発明の実施の形態1によれば、補正量算出部404が撮影時に用いた光源に応じた補正係数を補正係数記録部113bから取得するので、光源に応じて適切な注目画素の画素値の補正量を算出することができる。
 なお、本発明の実施の形態1では、撮像装置10と第1画像処理装置30とがそれぞれ別に設けられていたが、撮像装置10内に第1画像処理装置30を設けてもよい。
 また、本発明の実施の形態1では、撮像装置10と第2画像処理装置40とがそれぞれ別に設けられていたが、撮像装置10内に第2画像処理装置40を設けてもよい。
(実施の形態2)
 次に、本発明の実施の形態2について説明する。本実施の形態2に係る撮像システムは、上述した実施の形態1に係る撮像システム1と同様の構成を有し、第1画像処理装置が実行する処理が異なる。具体的には、上述した実施の形態1では、被写体としての光源装置20が通常光または特定の波長の光を照射していたが、本実施の形態2では、赤、緑および青それぞれの波長領域の光を光源装置20に照射させる。このため、本実施の形態2に係る第2画像処理装置が実行する処理について説明する。なお、上述した実施の形態1に係る撮像システム1と同一の構成には同一の符号を付して説明を省略する。
 〔第2画像処理装置の処理〕
 図21は、第1画像処理装置30が実行する処理の概要を示すフローチャートであり、メインルーチンを示す。なお、図21において、第1画像処理装置30が実行する各画素の分光感度を補正するための補正係数を算出する処理について説明する。
 図21に示すように、光源制御部302は、光源装置20が照射する光(被写体)の波長領域を赤色の波長領域に設定し、赤色均一被写体の被写体として照明光を照射させる(ステップS901)。具体的には、図22の曲線LR10に示すように、光源制御部302は、光源装置20が照射する光の波長領域を600nm~780nmに設定して、分光放射輝度が他の波長領域に比べて高い一様な赤色の光を被写体として撮像装置10に向けて照射させる。なお、図22の曲線LR11に示すように、光源制御部302は、波長領域600nm~780nmよりも波長領域が狭い狭帯域光を光源装置20に照射させてもよい。
 続いて、第1画像処理装置30は、撮像装置10に光源装置20が照射する赤色の照明光を複数回撮影して撮像素子105を構成する各画素の画素値の平均値を算出する撮影処理を実行させる(ステップS902)。なお、撮影処理は、上述した図9の撮影処理と同様のため、説明を省略する。
 その後、光源制御部302は、光源装置20が照射する光の波長領域を緑色の波長領域に設定して照射させる(ステップS903)。具体的には、図23の曲線LG10に示すように、光源制御部302は、光源装置20が照射する光の波長領域を500nm~600nmに設定して、分光放射輝度が他の波長領域に比べて高い一様な緑色の光を被写体として撮像装置10に向けて照射させる。なお、図23の曲線LG11に示すように、光源制御部302は、波長領域500nm~600nmよりも波長領域が狭い狭帯域光を光源装置20に照射させてもよい。
 続いて、第1画像処理装置30は、撮像装置10に光源装置20が照射する緑色の照明光を複数回撮影して撮像素子105を構成する各画素の画素値の平均値を算出する撮影処理を実行させる(ステップS904)。なお、撮影処理は、上述した図9の撮影処理と同様のため、説明を省略する。
 その後、光源制御部302は、光源装置20が照射する光の波長領域を青色の波長領域に設定して照射させる(ステップS905)。具体的には、図24の曲線LB10に示すように、光源制御部302は、光源装置20が照射する光の波長領域を380nm~500nmに設定して、分光放射輝度が他の波長領域に比べて高い一様な青色の光を被写体として撮像装置10に向けて照射させる。なお、図24の曲線LB11に示すように、光源制御部302は、波長領域380nm~500nmよりも波長領域が狭い狭帯域光を光源装置20に照射させてもよい。
 続いて、第1画像処理装置30は、撮像装置10に光源装置20が照射する青色の照明光を複数回撮影して撮像素子105を構成する各画素の画素値の平均値を算出する撮影処理を実行させる(ステップS906)。なお、撮影処理は、上述した図9の撮影処理と同様のため、説明を省略する。
 その後、補正係数算出部307は、第1バッファ部304bに記録された画像データに対応する画像の高さ方向(縦方向)における画素の位置を示すカウンタyを初期化(カウンタy=0)するとともに(ステップS907)、画像データに対応する画像の幅方向(横方向)における画素の位置を示すカウンタxを初期化(カウンタx=0)する(ステップS908)。
 続いて、補正係数算出部307は、座標(x,y)の注目画素とカラーフィルタの色が同色の周囲画素を用いて、座標(x,y)の注目画素における近傍平均値を算出する(ステップS909)。具体的には、補正係数算出部307は、注目画素の色と異なる色の照明光を撮影した画素の周囲画素を用いて座標(x,y)の注目画素における近傍平均値を算出する。例えば、図25Aおよび図25Bに示すように、補正係数算出部307は、注目画素がG画素である場合、赤色の照明光を撮像した画像PRおよび青色の照明光を撮像した画像PBそれぞれの周囲画素を用いて、座標(x,y)の注目画素における近傍平均値Rおよび近傍平均値Bそれぞれを算出する。ここで、周囲画素とは、注目画素を中心に5×5の範囲に含まれる画素であって、注目画素を除く注目画素と同色の画素である。なお、補正係数算出部307は、注目画素を中心に3×3や7×7等、他の大きさの範囲に含まれる画素であって、注目画素を除く周囲画素を用いて近傍平均値Rおよび近傍平均値Bそれぞれを算出してもよい。また、補正係数算出部307は、注目画素を中心に3×3や5×5、7×7等の大きさの範囲に含まれる画素であって、注目画素を含む周囲画素を用いて近傍平均値Rおよび近傍平均値Bそれぞれを算出してもよい。
 その後、補正係数算出部307は、座標(x,y)の注目画素と異なる色の照明光を撮像した画像における座標(x,y)の注目画素の周囲にある画素であり、かつ、被写体と同色の画素の画素値を用いて補間することで、座標(x,y)の注目画素における異色画素値を推定する(ステップS910)。ここで、周囲にある画素とは、注目画素に隣接する位置する画素または注目画素の近傍に位置する画素である。具体的には、図25Aおよび図25Bに示すように、補正係数算出部307は、座標(x,y)の注目画素がG画素である場合、赤色の照明光を撮像した画像PRにおける座標(x,y)の注目画素における周囲のR画素を用いて座標(x,y)の注目画素におけるR画素の異色画素値(R)を推定し、青色の照明光を撮像した画像PBにおける座標(x,y)の注目画素における周囲のB画素を用いて座標(x,y)の注目画素におけるB画素の異色画素値(B)を推定する。
 続いて、補正係数算出部307は、ステップS909で算出した座標(x,y)の注目画素における近傍平均値と、近傍平均値を算出した画像における座標(x,y)の注目画素の画素値との差を誤差量として算出する(ステップS911)。ここで、誤差量は近傍平均値より座標(x,y)の注目画素の画素値が大きい場合には正の値、小さい場合には負の値とする。
 その後、補正係数算出部307は、上述したステップS911で算出した座標(x,y)の注目画素における誤差量を、ステップS910で推定した異色画素値で除算することによって補正係数を算出する(ステップS912)。具体的には、補正係数算出部307は、注目画素がG画素である場合、赤色の照明光を撮像した画像から算出した誤差量を、同じ画像から注目画素の周囲にあるR画素の画素値を用いて推定した異色画素値(R)で除算し、青色の照明光を撮像した画像から算出した誤差量を、同じ画像から注目画素の周囲にあるB画素の画素値を用いて推定した異色画素値(B)で除算することによって、R成分の補正係数およびB成分の補正係数それぞれを算出する。
 続いて、補正係数算出部307は、カウンタxをインクリメント(x=x+1)する(ステップS913)。
 その後、カウンタxが画像データに対応する画像の幅より小さい場合(ステップS914:Yes)、補正係数算出部307は、ステップS909へ戻る。これに対して、カウンタxが画像データに対応する画像の幅より小さくない場合(ステップS914:No)、補正係数算出部307は、ステップS915へ移行する。
 続いて、補正係数算出部307は、カウンタyをインクリメント(y=y+1)する(ステップS915)。
 その後、カウンタyが画像データに対応する画像の高さより小さい場合(ステップS916:Yes)、補正係数算出部307は、ステップS908へ戻る。これに対して、カウンタyが画像データに対応する画像の高さより小さくない場合(ステップS916:No)、補正係数算出部307は、ステップS917へ移行する。
 続いて、補正係数算出部307は、撮像素子105の各画素において、カラーフィルタ106と同じ波長領域以外の波長領域で算出した補正係数を、その画素の補正係数として第1記録部304に記録する(ステップS917)。例えば、補正係数算出部307は、カラーフィルタ106がRGBのベイヤー配列の場合において、R画像のとき、BおよびGそれぞれの波長領域で算出した補正係数を、G画素のとき、RおよびBそれぞれの波長領域で算出した補正係数を、B画素のとき、RおよびGそれぞれの波長領域で算出した補正係数を、その画素の補正係数として撮像装置10の補正係数記録部113bに記録する。ステップS917の後、第2画像処理装置40は、本処理を終了する。
 以上説明した本発明の実施の形態2によれば、赤色、緑色および青色それぞれの波長領域の光を被写体として照射することによって、補正係数算出部307が画素毎の分光感度のばらつきを補正するための補正係数を簡易に算出することができる。
 また、本発明の実施の形態2によれば、補正係数算出部307が注目画素の周囲の画素の画素値を用いて近傍平均値を算出し、この近傍平均値と注目画素の画素値とに基づいて画素毎に分光感度のばらつきを補正するための補正係数を算出するので、被写体に多少のムラが生じていたとしても精度良く補正係数を算出することができる。
 また、本発明の実施の形態2によれば、補正量算出部404が所定の波長領域における一部の色に対する補正量を算出するので、視覚的に補正効果を維持しながら演算量を削減した補正量を算出することができる。
 なお、本発明の実施の形態2では、注目画素の色成分(例えば、G画素のG成分)にも分光感度のばらつきが発生する場合もあるため、注目画素の色成分の補正係数を同様に算出しておいてもよい。この場合、補正係数算出部307は、注目画素と同色の照明光を撮像した画像に基づいて、注目画素と同じカラーフィルタを有する周囲の画素の画素値から注目画素の近傍平均値を算出し、その近傍平均値と注目画素の画素値との差を誤差量として算出し、その誤差量を注目画素の近傍平均値で除算することによって注目画素の色成分の補正係数を算出すればよい。
(実施の形態3)
 次に、本発明の実施の形態3について説明する。上述した実施の形態1,2では、撮像装置10、第1画像処理装置30および第2画像処理装置40それぞれが個別に設けられていたが、本実施の形態3では、撮像装置内に第1画像処理装置および第2画像処理装置を設けた。このため、以下においては、本実施の形態3に係る撮像システムについて説明する。なお、上述した実施の形態1に係る撮像システム1と同一の構成には同一の符号を付して説明を省略する。
 〔撮像システムの構成〕
 図26は、本発明の実施の形態3に係る撮像装置の構成を模式的に示すブロック図である。図26に示す撮像装置10aは、補正係数を算出する場合には筐体100に配置され、通常の撮影時には筐体100外に配置される。また、補正係数を算出する場合には、撮像装置10aは、光源装置20に通信ケーブル等を介して接続される。撮像装置10aは、上述した実施の形態1に係る撮像装置10の構成に加えて、光源制御部302aと、第1画像処理部60と、第2画像処理部70と、第3画像処理部80と、表示部90と、を備える。
 第1画像処理部60は、ランダムノイズ除去部501と、補正係数算出部307と、を有する。
 ランダムノイズ除去部501は、撮像素子105が生成した画像データのランダムノイズを除去し、この除去した画像データを補正係数算出部307へ出力する。ランダムノイズ除去部501は、周知の技術を用いて画像データに対応する画像を構成する複数の画素それぞれに対して発生するランダムノイズを除去する。
 第2画像処理部70は、ランダムノイズ除去部502と、補正量算出部404と、画素値補正部405と、を有する。
 ランダムノイズ除去部502は、上述したランダムノイズ除去部501と同様の機能を有し、撮像素子105が生成した画像データのランダムノイズを除去し、この除去した画像データを補正量算出部404へ出力する。
 第3画像処理部80は、上述した画像処理部406と同様の機能を有し、画素値補正部405が画素値を補正した画像データに対して、所定の画像処理を行い、この画像処理を行った画像データを表示部90へ出力する。
 表示部90は、撮像装置10aに関する各種情報、画像データに対応する画像を表示する。表示部90は、液晶または有機EL等の表示パネルを用いて構成される。
 このように構成された撮像装置10aは、上述した実施の形態1,2と同様の処理を第1画像処理部60および第2画像処理部70がそれぞれ実行する。具体的には、第1画像処理部60が補正係数を算出する処理を実行し、第2画像処理部70が補正量を補正する処理を実行する。
 以上説明した本発明の実施の形態3によれば、上述した実施の形態1,2と同様の効果を有する。
(その他の実施の形態)
 本発明の実施の形態1~3に係るカラーフィルタ106は、Rフィルタ、GフィルタおよびBフィルタで構成されたベイヤー配列のカラーフィルタであったが、他のカラーフィルタであっても本発明を適用することができる。図27に示すように、本発明では、上述した実施の形態1~3に係るカラーフィルタ106のRフィルタに換えて、補色のMg(マゼンタ)フィルタ、GフィルタおよびBフィルタによって構成されたカラーフィルタ106aであってもよい。また、図28に示すように、本発明では、Rフィルタ、GフィルタおよびBフィルタそれぞれが斜めに配置されたカラーフィルタ106bであってもよい。なお、図28に示す状況下では、撮像素子の各画素も斜めに配置されている。さらにまた、図29に示すように、本発明では、Cy(シアン)フィルタ、MgフィルタおよびYe(イエロー)フィルタを用いた補色フィルタのカラーフィルタであってもよい。図29に示すカラーフィルタ106cを用いる場合、周知の補色から原色に補間する補間方法によって行えばよい。
 また、本発明の実施の形態1~3では、1つの撮像素子に互いに異なる分光透過率を有する複数のカラーフィルタを設けていたが、例えば緑色の波長領域を透過するGフィルタのみを各画素の受光面または、撮像素子全面に設けた撮像素子と、赤色または青色の波長領域を透過するRフィルタおよびBフィルタを市松模様になるように互い違いに各画素の受光面に設けた撮像素子とを用いる2板式の撮像装置であっても本発明を適用することができる。この場合、一方の撮像素子におけるG画素の補正係数を算出する場合、該G画素の座標に対応する他方の撮像素子のR画素またはB画素の画素値を用いることによって本発明の補正係数および補正量を算出することができる。
 本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、本発明の説明に用いた撮像装置以外にも、携帯電話やスマートフォンにおける撮像素子を備えた携帯機器、ビデオカメラ、内視鏡、監視カメラ、顕微鏡のような光学機器を通して被写体を撮影する撮像装置等、被写体を撮像可能ないずれの機器にも適用できる。
 また、本明細書において、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」、「続いて」、「その後」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。
 また、上述した実施形態における画像処理装置による各処理の手法、即ち、各フローチャートに示す処理は、いずれもCPU等の制御部に実行させることができるプログラムとして記憶させておくこともできる。この他、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、CPU等の制御部は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。
 また、本発明は、上述した実施の形態および変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上述した実施の形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した実施の形態および変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、各実施例および変形例で説明した構成要素を適宜組み合わせてもよい。
 また、明細書または図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書または図面のいかなる箇所においても、その異なる用語に置き換えることができる。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。
 1 撮像システム
 10,10a 撮像装置
 20 光源装置
 30 第1画像処理装置
 40 第2画像処理装置
 50 表示装置
 60 第1画像処理部
 70 第2画像処理部
 80 第3画像処理部
 90 表示部
 100 筐体
 101 光学系
 102 絞り
 103 シャッタ
 104 ドライバ
 105 撮像素子
 106,106a,106b,106c カラーフィルタ
 107 アナログ処理部
 108 A/D変換部
 109 第1操作部
 110 メモリI/F部
 111 記録媒体
 112 揮発メモリ
 113 不揮発メモリ
 113a プログラム記録部
 113b 補正係数記録部
 114 バス
 115 撮像制御部
 116 第1外部I/F部
 301 第2外部I/F部
 302 光源制御部
 302a 光源制御部
 303 第2操作部
 304 第1記録部
 304a 第1プログラム記録部
 304b 第1バッファ部
 305 第1画像処理制御部
 306 第1バス
 307 補正係数算出部
 401 第3外部I/F部
 402 第2記録部
 402a 第2プログラム記録部
 402b 第2バッファ部
 403 第2バス
 404 補正量算出部
 405 画素値補正部
 406 画像処理部
 501,502 ランダムノイズ除去部

Claims (13)

  1.  互いに異なる分光透過率を有する複数色のカラーフィルタを用いて所定の配列パターンを形成し、該配列パターンを形成する個々のカラーフィルタが複数の画素のいずれかに対応する位置に配置された撮像素子によって生成された画像データに基づいて、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差に対応する画素値の差分を補正するための補正係数を前記複数の画素毎に記録する記録部と、
     前記記録部が記録する前記注目画素における前記補正係数と前記注目画素における周囲の画素の画素値とに基づいて、前記注目画素の画素値を補正するための補正量を算出する補正量算出部と、
     前記補正量算出部が算出した前記補正量を用いて前記注目画素の画素値を補正する画素値補正部と、
     を備えたことを特徴とする画像処理装置。
  2.  前記補正量算出部は、前記注目画素と異なる色の前記カラーフィルタを有する前記周囲の画素の画素値に基づいて、前記補正量を算出することを特徴とする請求項1に記載の画像処理装置。
  3.  前記補正量算出部は、前記注目画素と同色の前記カラーフィルタを有する前記周囲の画素の画素値に基づいて、前記補正量を算出することを特徴とする請求項1または2に記載の画像処理装置。
  4.  前記周囲の画素は、前記注目画素に上下左右に隣接する画素、前記注目画素の斜め方向に近接する画素および前記注目画素から所定の画素間だけ離れた上下左右の画素のいずれかであることを特徴とする請求項1~3のいずれか一つに記載の画像処理装置。
  5.  前記補正量算出部は、所定の色の前記カラーフィルタが配置された前記注目画素の前記補正量のみを算出することを特徴とする請求項1~4のいずれか一つに記載の画像処理装置。
  6.  前記記録部は、互いに異なる波長領域の光を照射する光源毎に前記補正係数を記録し、
     前記補正量算出部は、前記光源に応じて前記補正係数を選択し、該選択した前記補正係数を用いて前記補正量を算出することを特徴とする請求項1~5のいずれか一つに記載の画像処理装置。
  7.  前記画素値補正部は、前記注目画素の画素値に前記補正量算出部によって算出された前記補正量を加算または減算することを特徴とする請求項1~6のいずれか一つに記載の画像処理装置。
  8.  前記画素値補正部は、前記撮像素子が連続的に生成する動画データにおける前記注目画素の画素値を、前記補正量を用いて補正することを特徴とする請求項1~7のいずれか一つに記載の画像処理装置。
  9.  前記撮像素子によって生成された画像データに基づいて、前記注目画素において分光感度と予め設定した基準分光感度との差に対応する画素値の差分を補正するための補正係数を前記複数の画素毎に算出する補正係数算出部をさらに備えたことを特徴とする請求項1~8のいずれか一つに記載の画像処理装置。
  10.  前記カラーフィルタの色は、赤、緑および青であることを特徴とする請求項1~9のいずれか一つに記載の画像処理装置。
  11.  前記カラーフィルタの色は、シアン、マゼンタ、イエローおよび緑であることを特徴とする請求項1~9のいずれか一つに記載の画像処理装置。
  12.  画像処理装置が実行する画像処理方法であって、
     互いに異なる分光透過率を有する複数色のカラーフィルタを用いて所定の配列パターンを形成し、該配列パターンを形成する個々のカラーフィルタが複数の画素のいずれかに対応する位置に配置された撮像素子によって生成された画像データと、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差による画素値の差分を補正するための補正係数と、を取得する取得ステップと、
     前記取得ステップにおいて取得した前記注目画素の前記補正係数と前記注目画素における周囲の画素の画素値とに基づいて、前記注目画素の画素値を補正するための補正量を算出する補正量算出ステップと、
     前記補正量算出ステップにおいて算出した前記補正量を用いて前記注目画素の画素値を補正する画素値補正ステップと、
     を含むことを特徴とする画像処理方法。
  13.  互いに異なる分光透過率を有する複数色のカラーフィルタを用いて所定の配列パターンを形成し、該配列パターンを形成する個々のカラーフィルタが複数の画素のいずれかに対応する位置に配置された撮像素子によって生成された画像データと、注目画素において分光感度と予め設定した基準分光感度との所定波長域における差による画素値の差分を補正するための補正係数と、を取得する取得ステップと、
     前記取得ステップにおいて取得した前記注目画素の前記補正係数と前記注目画素における周囲の画素の画素値とに基づいて、前記注目画素の画素値を補正するための補正量を算出する補正量算出ステップと、
     前記補正量算出ステップにおいて算出した前記補正量を用いて前記注目画素の画素値を補正する画素値補正ステップと、
     を画像処理装置に実行させることを特徴とするプログラム。
PCT/JP2015/057372 2015-03-12 2015-03-12 画像処理装置、画像処理方法およびプログラム WO2016143134A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP15884621.2A EP3270586A4 (en) 2015-03-12 2015-03-12 Image processing device, image processing method, and program
JP2017504536A JP6538818B2 (ja) 2015-03-12 2015-03-12 画像処理装置、画像処理方法およびプログラム
CN201580077582.6A CN107409200B (zh) 2015-03-12 2015-03-12 图像处理装置、图像处理方法和计算机可读取的记录介质
PCT/JP2015/057372 WO2016143134A1 (ja) 2015-03-12 2015-03-12 画像処理装置、画像処理方法およびプログラム
US15/700,254 US10416026B2 (en) 2015-03-12 2017-09-11 Image processing apparatus for correcting pixel value based on difference between spectral sensitivity characteristic of pixel of interest and reference spectral sensitivity, image processing method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/057372 WO2016143134A1 (ja) 2015-03-12 2015-03-12 画像処理装置、画像処理方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/700,254 Continuation US10416026B2 (en) 2015-03-12 2017-09-11 Image processing apparatus for correcting pixel value based on difference between spectral sensitivity characteristic of pixel of interest and reference spectral sensitivity, image processing method, and computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2016143134A1 true WO2016143134A1 (ja) 2016-09-15

Family

ID=56878587

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/057372 WO2016143134A1 (ja) 2015-03-12 2015-03-12 画像処理装置、画像処理方法およびプログラム

Country Status (5)

Country Link
US (1) US10416026B2 (ja)
EP (1) EP3270586A4 (ja)
JP (1) JP6538818B2 (ja)
CN (1) CN107409200B (ja)
WO (1) WO2016143134A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116664577A (zh) * 2023-08-01 2023-08-29 山东天亚达新材料科技有限公司 基于碳纤维连接头图像处理的异常识别提取方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10514335B2 (en) * 2017-09-08 2019-12-24 Arizona Board Of Regents On Behalf Of The University Of Arizona Systems and methods for optical spectrometer calibration
CN111093459A (zh) * 2017-10-04 2020-05-01 奥林巴斯株式会社 内窥镜装置、图像处理方法以及程序
WO2020254438A1 (en) * 2019-06-18 2020-12-24 ams Sensors Germany GmbH Spectral reconstruction of detector sensitivity
WO2021131859A1 (ja) * 2019-12-27 2021-07-01 株式会社ソシオネクスト 画像処理装置および画像処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007010364A (ja) * 2005-06-28 2007-01-18 Konica Minolta Sensing Inc 分光装置の波長校正方法及び分光装置
JP2010193378A (ja) * 2009-02-20 2010-09-02 Nikon Corp 調整装置及び調整方法、並びに撮像装置
JP2010190741A (ja) * 2009-02-18 2010-09-02 Nikon Corp 測定装置、測定方法および撮像装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7301571B2 (en) * 2003-01-17 2007-11-27 Fujifilm Corporation Method and imaging apparatus for correcting defective pixel of solid-state image sensor, and method for creating pixel information
US20090147098A1 (en) * 2007-12-10 2009-06-11 Omnivision Technologies, Inc. Image sensor apparatus and method for color correction with an illuminant-dependent color correction matrix
CN102037734B (zh) * 2008-05-22 2014-10-15 惠普开发有限公司 照相机传感器校正
WO2010123499A1 (en) * 2009-04-22 2010-10-28 Hewlett-Packard Development Company, L.P. Spatially-varying spectral response calibration data
US8619163B2 (en) * 2009-09-18 2013-12-31 Canon Kabushiki Kaisha Solid state imaging using a correction parameter for correcting a cross talk between adjacent pixels
JP5672776B2 (ja) * 2010-06-02 2015-02-18 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2012209709A (ja) * 2011-03-29 2012-10-25 Sony Corp 画像処理装置および方法、記録媒体並びにプログラム
EP2733944B1 (en) * 2011-07-13 2016-08-03 FUJIFILM Corporation Image pickup apparatus and signal value correction method
US9172869B2 (en) * 2013-12-04 2015-10-27 Omnivision Technologies, Inc. Image data aggregating high dynamic range imaging systems and associated methods
KR102521043B1 (ko) * 2014-03-17 2023-04-14 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 비백색광 일반 조명기를 포함하는 수술 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007010364A (ja) * 2005-06-28 2007-01-18 Konica Minolta Sensing Inc 分光装置の波長校正方法及び分光装置
JP2010190741A (ja) * 2009-02-18 2010-09-02 Nikon Corp 測定装置、測定方法および撮像装置
JP2010193378A (ja) * 2009-02-20 2010-09-02 Nikon Corp 調整装置及び調整方法、並びに撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3270586A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116664577A (zh) * 2023-08-01 2023-08-29 山东天亚达新材料科技有限公司 基于碳纤维连接头图像处理的异常识别提取方法
CN116664577B (zh) * 2023-08-01 2023-11-14 山东天亚达新材料科技有限公司 基于碳纤维连接头图像处理的异常识别提取方法

Also Published As

Publication number Publication date
CN107409200A (zh) 2017-11-28
EP3270586A4 (en) 2018-09-26
EP3270586A1 (en) 2018-01-17
JP6538818B2 (ja) 2019-07-03
CN107409200B (zh) 2019-02-12
JPWO2016143134A1 (ja) 2017-12-28
US10416026B2 (en) 2019-09-17
US20180010966A1 (en) 2018-01-11

Similar Documents

Publication Publication Date Title
JP6538819B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6725613B2 (ja) 撮像装置および撮像処理方法
US9691134B2 (en) Image processing apparatus that performs image restoration processing and image processing method
JP5527448B2 (ja) 画像入力装置
US8805070B2 (en) Image processing apparatus and image processing method
TWI462055B (zh) 具有合成全色影像之彩色濾光器陣列影像
US10630920B2 (en) Image processing apparatus
JP6538818B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5397788B2 (ja) 画像入力装置
JP6004221B2 (ja) 画像処理装置
JP2011239252A (ja) 撮像装置
JP6758326B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5464008B2 (ja) 画像入力装置
JP5409158B2 (ja) 単板カラー2次元撮像素子を備える撮像装置
JP4724735B2 (ja) 固体撮像装置及びデジタルカメラ
JP2010098085A (ja) 固体撮像素子及びそれを備えた撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15884621

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017504536

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015884621

Country of ref document: EP