WO2013111824A1 - 画像処理装置、撮像装置及び画像処理方法 - Google Patents

画像処理装置、撮像装置及び画像処理方法 Download PDF

Info

Publication number
WO2013111824A1
WO2013111824A1 PCT/JP2013/051483 JP2013051483W WO2013111824A1 WO 2013111824 A1 WO2013111824 A1 WO 2013111824A1 JP 2013051483 W JP2013051483 W JP 2013051483W WO 2013111824 A1 WO2013111824 A1 WO 2013111824A1
Authority
WO
WIPO (PCT)
Prior art keywords
value
band
component
values
bands
Prior art date
Application number
PCT/JP2013/051483
Other languages
English (en)
French (fr)
Inventor
愼一 今出
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2013111824A1 publication Critical patent/WO2013111824A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4015Demosaicing, e.g. colour filter array [CFA], Bayer pattern
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2803Investigating the spectrum using photoelectric array detector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • G01J3/51Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors using colour filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2803Investigating the spectrum using photoelectric array detector
    • G01J2003/2806Array and filter array
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging

Definitions

  • the present invention relates to an image processing device, an imaging device, an image processing method, and the like.
  • Patent Document 1 discloses an imaging apparatus in which five or more (including values) color filters having different average wavelengths of spectral transmittance characteristics are arranged.
  • six types of filters that is, a first blue filter, a second blue filter, a first green filter, a second green filter, a first red filter, and a second red filter are imaged. It is provided corresponding to the pixel of the sensor, and it is possible to capture multiband images simultaneously.
  • Patent Document 2 discloses a technique in which a branching optical system is provided between an imaging optical system and an imaging sensor, and the branching optical system is used to separate the wavelength band into four or more bands (including values thereof). .
  • the branched images of the respective colors are formed on separated areas on the image sensor. Since each color image is generated in a grouped area, a multiband image can be taken simultaneously.
  • Non-Patent Document 1 discloses a technique for acquiring a multiband image by sequentially changing the pass wavelength range of an image to be captured using a rotary multiband filter. In this method, processing for estimating information of a wavelength band that cannot be obtained is performed using foresight information that the spectral reflectance of a subject in nature is smooth.
  • Patent Document 1 For example, in Patent Document 1 described above, six types of color filters are used as the color filters of the image sensor. For this reason, only half of the pixels can be assigned to one type of color filter as compared with the case of using a normal RGB three primary color filter. Since pixel values that are not assigned and are missing as information are obtained by interpolation processing, reduction in resolution is inevitable.
  • Patent Document 2 the images of the respective colors are formed on separated areas on the image sensor by the branching optical system. For this reason, the number of pixels assigned to each color image is reduced as compared with normal RGB three primary color photography, and the resolution is lowered.
  • Non-Patent Document 1 a rotary multiband filter is used.
  • a rotary multiband filter is used.
  • a special additional mechanism is necessary.
  • the estimation process based on the foresight information may not be established when an artificial object that is not a natural subject is photographed.
  • an image processing apparatus an imaging apparatus, an image processing method, and the like that can realize a multiband imaging system without greatly changing an existing imaging system.
  • One embodiment of the present invention is picked up by an imaging device including a first color filter having a first transmittance characteristic, a second color filter having a second transmittance characteristic, and a third color filter having a third transmittance characteristic.
  • An image acquisition unit configured to acquire an image, a first band corresponding to a non-overlapping portion of the first transmittance characteristic, and a second corresponding to an overlapping portion of the first transmittance characteristic and the second transmittance characteristic.
  • Multiband estimation for setting a fifth band corresponding to a non-overlapping portion of the rate characteristic and estimating component values of the first to fifth bands based on pixel values of the first to third colors constituting the image
  • an image processing apparatus including the unit.
  • the first to fifth bands are set corresponding to the overlapping and non-overlapping portions of the first to third transmittance characteristics of the first to third color filters of the image sensor.
  • the component values of the first to fifth bands are estimated based on the pixel values of the first to third colors. This makes it possible to realize a multiband imaging system without greatly changing the existing imaging system.
  • the multiband estimation unit may include the pixel values of the first color that are values obtained by adding the component values of the first and second bands, and the component values of the second to fourth bands.
  • the multiband estimation unit obtains the relational expression by using the component value of the first band as an unknown, and obtains the component values of the first and second bands expressed by the relational expression and the first band.
  • An error evaluation value representing an error between one added value and the pixel values of the first and second colors is obtained, the unknown number that minimizes the error evaluation value is determined, and the determined unknown number and the relational expression are determined.
  • the component values of the first and second bands and the first addition value may be determined.
  • the multiband estimation unit may include the pixel value of the second color, which is a value obtained by adding the component values of the second to fourth bands, and the component values of the fourth and fifth bands.
  • the pixel value of the third color that is a value obtained by adding the second and third band component values based on the pixel value of the third color, and the component values of the fourth band.
  • a relational expression between the component values of the fifth band is obtained, and the second addition value, the component value of the fourth band, and the component value of the fifth band are estimated based on the relational expression.
  • the third band component value may be obtained from the first addition value and the fourth band component value, or from the second addition value and the second band component value.
  • the multiband estimation unit obtains the relational expression using the component value of the first band as an unknown number, generates a plurality of candidate values as the unknown number candidates, and the plurality of candidate values.
  • the candidate value satisfying the selection condition based on the definition area of the pixel values of the first and second colors is selected based on the relational expression, and the first band is selected based on the selected candidate value.
  • a component value, a component value of the second band, and the first addition value may be obtained.
  • the selection condition includes: a component value of the first band obtained by substituting the candidate value into the relational expression; a component value of the second band; and the first addition value.
  • the multiband estimation unit may calculate a value within a range that the component value of the first band can take based on the domain of the pixel values of the first and second colors. It may be generated as a candidate value.
  • the multiband estimation unit may determine a pixel value between the first color pixel value and the previous second color pixel value based on the transmittance characteristics of the first and second color filters.
  • the relative gain ratio may be corrected, and the component values of the first to fifth bands may be estimated using the corrected pixel values of the first and second colors.
  • the multiband estimation unit may calculate a ratio between the transmittance of the second color filter in the second band and the transmittance of the first color filter in the second band.
  • the gain ratio may be corrected by multiplying the pixel value of the first color.
  • the first to third colors are blue, green, and red, respectively
  • the multiband estimation unit sets the component values of the first to fifth bands to the first blue component, respectively.
  • the multiband estimation unit transmits the other one of the fourth and fifth bands, and the multiband estimation unit performs the first to fifth based on the image obtained by imaging the transmitted light of the first pupil and the second pupil.
  • the component value of the band may be estimated.
  • the first to third color filters may be a blue filter, a green filter, and a red filter that transmit blue, green, and red wavelength bands, respectively
  • the multiband estimation unit may include the blue filter.
  • the component values of the first and second bands constituting the pixel value are obtained as first and second blue component values, respectively, and the component values of the second to fourth bands constituting the green pixel value are obtained,
  • the first to third green component values may be obtained respectively, and the fourth and fifth band component values constituting the red pixel value may be obtained as the first and second red component values, respectively.
  • the multiband estimation unit includes a first blue component value, a second blue component value, and a green component value that is an addition value of the first to third green component values;
  • the first red component value and the second red component value may constitute a 5-band component value.
  • Another aspect of the present invention relates to an imaging apparatus including the image processing apparatus described in any one of the above and the imaging element.
  • Still another aspect of the present invention relates to an imaging apparatus including the image processing apparatus according to any one of the above, the imaging element, and the imaging optical system provided with the optical filter.
  • Still another aspect of the present invention includes a first color filter having a first transmittance characteristic, a second color filter having a second transmittance characteristic, and a third color filter having a third transmittance characteristic.
  • An image captured by the image sensor is acquired, and a first band corresponding to a non-overlapping portion of the first transmittance characteristic and a first portion corresponding to an overlapping portion of the first transmittance characteristic and the second transmittance characteristic are obtained.
  • Two bands a third band corresponding to a non-overlapping portion of the second transmittance characteristic, a fourth band corresponding to an overlapping portion of the second transmittance characteristic and the third transmittance characteristic, and the third band Image processing for setting a fifth band corresponding to a non-overlapping portion of transmittance characteristics and estimating component values of the first to fifth bands based on pixel values of first to third colors constituting the image Related to the method.
  • FIG. 1 is an explanatory diagram of demosaicing processing.
  • FIG. 2 is an explanatory diagram of a band division method.
  • FIG. 3 is an explanatory diagram of an unknown number estimation process in the first multiband estimation process.
  • FIG. 4 is an explanatory diagram of unknown quantity estimation processing in the first multiband estimation processing.
  • FIG. 5 is a basic configuration example of an imaging apparatus in the second multiband estimation process.
  • FIG. 6 is an explanatory diagram of a band division method in the second multiband estimation process.
  • FIG. 7A to FIG. 7F are explanatory diagrams of gain correction processing.
  • FIG. 8 is an explanatory diagram of an unknown number estimation process in the second multiband estimation process.
  • FIGS. 9A to 9F are explanatory diagrams of gain correction processing.
  • FIG. 10 is an explanatory diagram of an unknown number estimation process in the second multiband estimation process.
  • FIG. 11 is an explanatory diagram of band component values in the third multiband estimation process.
  • FIG. 12 shows a first setting example of the lookup table.
  • FIG. 13 shows a second setting example of the lookup table.
  • FIG. 14 shows a configuration example of the imaging apparatus of the present embodiment.
  • FIG. 15 shows a configuration example of the image processing apparatus according to the present embodiment.
  • Patent Documents 1 and 2 and Non-Patent Document 1 have been proposed as multiband imaging techniques.
  • special imaging sensors (imaging devices) and spectral filters are used.
  • An exchange mechanism or the like is required, and a highly practical method has not been proposed without impairing the imaging resolution and moving image characteristics of an existing imaging system.
  • an RGB image is captured using an RGB three-primary color image sensor, and a 5-band multiband image is estimated from the RGB image using the overlap of transmittance characteristics of the RGB color filters.
  • a 5-band multiband image is estimated from the RGB image using the overlap of transmittance characteristics of the RGB color filters.
  • RGB Bayer images are captured, and demosaicing processing is performed on the Bayer images to generate three images for each RGB.
  • the red, green, and blue pixel values of each pixel obtained by the demosaicing process are R d , G d , and B d , respectively, and the pixel values R d , G d , and B d and the 5-band wavelength component b (1) , B (2) , g, r (1) , and r (2) are modeled as shown in the following equation (1).
  • B d b (1) + b (2)
  • G d r (1) + g + b (2)
  • R d r (1) + r (2) (1)
  • the wavelength components b (1) , b (2) , g, r (1) , r (2) of the five bands are transmittance characteristics F R ( ⁇ ), F G ( ⁇ ), F B ( ⁇ ), and components determined according to the spectral characteristics of the image sensor.
  • the spectral characteristics of the image sensor are included in the transmittance characteristics F R ( ⁇ ), F G ( ⁇ ), and F B ( ⁇ ) of the color filter shown in FIG. Will be described as follows.
  • the component of the band corresponding to the overlapping portion of the transmittance characteristic F B ( ⁇ ) of the blue filter and the transmittance characteristic F G ( ⁇ ) of the green filter is b (2)
  • the transmittance characteristic F of the blue filter The component of the band corresponding to the non-overlapping part of B ( ⁇ ) is b (1) .
  • the component of the band corresponding to the overlapping portion of the transmittance characteristic F R ( ⁇ ) of the red filter and the transmittance characteristic F G ( ⁇ ) of the green filter is r (1)
  • the transmittance characteristic F of the red filter is r (2)
  • the band component corresponding to the non-overlapping portion of the transmittance characteristic F G ( ⁇ ) of the green filter is g.
  • the non-overlapping portion is a portion that does not overlap with the transmittance characteristics of other color filters.
  • the five bands BD1 to BD5 may be determined according to the shape of the transmittance characteristics F R ( ⁇ ), F G ( ⁇ ), and F B ( ⁇ ), the degree of overlap, and the like. It does not have to be the partial bandwidth itself.
  • the band of the overlapping part of the transmittance characteristics F G ( ⁇ ) and F B ( ⁇ ) is about 450 nm to 550 nm, but the band BD2 only needs to correspond to the overlapping part and is 450 nm to 550 nm. There is no need.
  • FIG. 3 is a diagram showing this relationship in principle. As shown in FIG. 3, as unknowns r (2), ⁇ r ( 1), r (2), g + b (2) ⁇ and ⁇ R R, ⁇ Gr G ⁇ obtain the value of error is minimal.
  • ⁇ R and ⁇ Gr are values satisfying the following expression (5).
  • ⁇ R is an average value of ⁇ r (1) , r (2) ⁇ with respect to R
  • ⁇ Gr is an average of ⁇ r (1) , g + b (2) ⁇ with respect to G. The value is calculated. These may be determined in consideration of the component ratio of ⁇ r (1) , r (2) ⁇ and ⁇ r (1) , g + b (2) ⁇ from the color filter characteristics of the image sensor as shown in FIG. . 0 ⁇ R ⁇ 1, 0 ⁇ Gr ⁇ 1 (5)
  • FIG. 4 is a diagram showing this relationship in principle. As shown in FIG. 4, as the unknown b (1) , a value that minimizes an error between ⁇ b (1) , b (2) , g + r (1) ⁇ and ⁇ B B, ⁇ Gb G ⁇ is obtained.
  • ⁇ B and ⁇ Gb are values satisfying the following expression (10).
  • ⁇ B is an average value of ⁇ b (1) , b (2) ⁇ with respect to B
  • ⁇ Gb is an average of ⁇ b (2) , g + r (1) ⁇ with respect to G. The value is calculated. These may be determined in consideration of the component ratio of ⁇ b (1) , b (2) ⁇ and ⁇ b (2) , g + r (1) ⁇ from the color filter characteristics of the image sensor as shown in FIG. . 0 ⁇ B ⁇ 1, 0 ⁇ Gb ⁇ 1 (10)
  • a value E bg for evaluating an error between ⁇ b (1) , b (2) , g + r (1) ⁇ and ⁇ B B, ⁇ Gb G ⁇ is obtained by the following equation (11). Then, b (1) when the evaluation value E bg is minimized is obtained, and by substituting the obtained b (1) into the above equation (9), ⁇ r (1) , r (2) , g + b ( 2) Determine the three values of ⁇ .
  • e b [ ⁇ B B- b (1)] 2 + [ ⁇ B B-b (2)] 2
  • e g [ ⁇ Gb G ⁇ b (2) ] 2 + [ ⁇ Gb G ⁇ (g + r (1) )] 2
  • E bg e b + e g (11)
  • the five-band pixel values ⁇ b (1) , b (2) , g, r (1) , r (2) ⁇ can be estimated.
  • the image processing apparatus includes the image acquisition unit and the multiband estimation unit.
  • the image acquisition unit acquires an image captured by the image sensor.
  • the imaging device includes a first color filter having a first transmittance characteristic F B ( ⁇ ), a second color filter having a second transmittance characteristic F G ( ⁇ ), and a third transmittance characteristic F R ( ⁇ ). And a third color filter.
  • the multiband estimation unit performs the first to fifth bands BD1 to BD5 based on the pixel values ⁇ B, G, R ⁇ of the first to third colors constituting the image. Component values ⁇ b (1) , b (2) , g, r (1) , r (2) ⁇ are estimated.
  • the first band BD1 corresponds to a non-overlapping portion of the first transmittance characteristic F B ( ⁇ ).
  • the second band BD2 corresponds to an overlapping portion of the first transmittance characteristic F B ( ⁇ ) and the second transmittance characteristic F G ( ⁇ ).
  • the third band BD3 corresponds to a non-overlapping portion of the second transmittance characteristic F G ( ⁇ ).
  • the fourth band BD4 corresponds to an overlapping portion of the second transmittance characteristic F G ( ⁇ ) and the third transmittance characteristic F R ( ⁇ ).
  • the fifth band corresponds to a non-overlapping portion of the third transmittance characteristic F R ( ⁇ ).
  • the image processing apparatus corresponds to the image processing apparatus 25 in the imaging apparatus shown in FIG. 14 or the image processing apparatus configured separately from the imaging apparatus shown in FIG.
  • the image acquisition unit corresponds to the RGB image generation unit 30 in FIG. 14 or the selected frame storage unit 260 in FIG.
  • the multiband estimation unit corresponds to the multiband estimation unit 70 in FIG. 14 or the multiband estimation unit 270 in FIG. 15.
  • the overlapping portion of the transmittance characteristic is a region where adjacent transmittance characteristics overlap on the wavelength axis when the transmittance characteristic is expressed with respect to the wavelength axis as shown in FIG. .
  • the overlapping portion is represented by a region where the transmittance characteristics overlap or a band where the bandwidths of the transmittance characteristics overlap.
  • the non-overlapping portion of the transmittance characteristic is a portion that does not overlap with other transmittance characteristics. That is, the portion obtained by removing the overlapping portion from the transmittance characteristic.
  • the band corresponding to the overlapping portion or the non-overlapping portion is not limited to the band itself of the overlapping portion or the non-overlapping portion, and may be any band set corresponding to the overlapping portion or the non-overlapping portion.
  • the first to fifth bands may be set by dividing the band at a wavelength at which a predetermined transmittance and transmittance characteristics intersect.
  • multiband imaging can be performed without changing the RGB imaging element used in the conventional imaging apparatus to another special imaging element (for example, an imaging element having a multiband color filter).
  • multiband imaging can be performed without using a special additional mechanism (for example, a rotary multiband color filter or a branching optical system). Since a special image sensor and an additional mechanism are unnecessary, it is possible to avoid a decrease in resolution and an increase in cost.
  • the pixel value B of the first color is a value obtained by adding the component values b (1) and b (2) of the first and second bands.
  • the pixel value G of the second color is a value obtained by adding the component values b (2) , g, r (1) of the second to fourth bands.
  • the multiband estimation unit determines the component value b (1) of the first band and the second band based on the pixel values B and G of the first and second colors.
  • a relational expression between the component value b (2) and the first addition value r (1) + g that is a value obtained by adding the component values g and r (1) of the third and fourth bands is obtained.
  • the multiband estimation unit obtains the first band component value b (1) , the second band component value b (2) , and the first addition value r (1) + g. presume.
  • the state in which adjacent transmittance characteristics overlap can be expressed as an addition formula (the above formula (1)) of band component values. Then, a relational expression between band component values can be obtained from the addition expression, and the band component value can be estimated from the relational expression.
  • the multiband estimation unit obtains a relational expression using the component value b (1) of the first band as an unknown.
  • the multiband estimator includes the first and second band component values and the first added values ⁇ b (1) , b (2) , An error evaluation value E bg representing an error between g + r (1) ⁇ and the pixel values ⁇ B, G ⁇ of the first and second colors is obtained, and an unknown b (1 that minimizes the error evaluation value E bg ) And the component values of the first and second bands and the first added value ⁇ b (1) , b (2 ) based on the determined unknown b (1) and the relational expression (formula (9)). ) , G + r (1) ⁇ .
  • one unknown b (1) necessary for determining three variables ⁇ b (1) , b (2) , g + r (1) ⁇ from two pixel values ⁇ B, G ⁇ is obtained.
  • can be determined on the basis of the error evaluation value E bg, band component value by the determined unknown ⁇ b (1), b ( 2), g + r (1) ⁇ can be determined.
  • the multiband estimation unit obtains a relational expression (the above expression (4)), and based on the relational expression, component values b (2) of the second and third bands.
  • G, the second added value g + b (2) , the fourth band component value r (1) , and the fifth band component value r (2) are estimated (formula (1) (6)). Then, from the first added value g + r (1) and the component value r (1) of the fourth band, or from the second added value g + b (2) and the component value b (2) of the second band, the component value of the third band. g is determined.
  • the band component values ⁇ r (1) , r (2) , g + b (2) ⁇ are represented by relational expressions, and the band component values ⁇ r (1) , r (2) are represented using the relational expressions.
  • G + b (2) ⁇ can be estimated.
  • the first to fifth bands are used.
  • Component values ⁇ b (1) , b (2) , g, r (1) , r (2) ⁇ can be obtained.
  • the first to third colors are blue (B), green (G), and red (R), respectively.
  • the multiband estimation unit converts the first to fifth band component values ⁇ b (1) , b (2) , g, r (1) , r (2) ⁇ into the first blue component values b (1) , respectively.
  • Second blue component value b (2) green component value g, first red component value r (1) , and second red component value r (2) .
  • the first to third colors are not limited to RGB, but may be any color corresponding to three color filters having adjacent overlapping transmittance characteristics on the wavelength axis.
  • FIG. 5 shows a basic configuration example in this processing.
  • the imaging optical system includes an imaging lens LNS that forms an image of a subject on the sensor surface of the imaging device, and an optical filter FLT that separates a band between the first pupil and the second pupil.
  • the first pupil is the right pupil and the second pupil is the left pupil.
  • the present embodiment is not limited to this. That is, the separation direction of the pupil is not limited to the left and right, and it is sufficient that the first pupil and the second pupil are separated in an arbitrary direction perpendicular to the optical axis of the imaging optical system.
  • the optical filter FLT transmits the right pupil filter FL1 (first filter in a broad sense) having a characteristic of transmitting the wavelength division light ⁇ b R , g, r R ⁇ and the wavelength division light ⁇ b L , g, r L ⁇ . And a left pupil filter FL2 (second filter in a broad sense).
  • the optical filter FLT is provided at a pupil position (for example, a diaphragm installation position) of the imaging optical system, and the filters FL1 and FL2 correspond to the right pupil and the left pupil, respectively.
  • the right pupil filter FL1 is a filter that transmits the bands BD1, BD3, and BD4 corresponding to the components ⁇ b (1) , g, r (1) ⁇ described in FIG. That is, the wavelength division light ⁇ b R , g, r R ⁇ is transmitted light corresponding to the component ⁇ b (1) , g, r (1) ⁇ .
  • the left pupil filter FL2 is a filter that transmits the bands BD2, BD3, and BD5 corresponding to the components ⁇ b (2) , g, r (2) ⁇ described in FIG. That is, the wavelength division light ⁇ b L , g, r L ⁇ is transmitted light corresponding to the component ⁇ b (2) , g, r (2) ⁇ .
  • the imaging light transmitted through the imaging lens LNS and the optical filter FLT is input to an RGB Bayer array image sensor, and the light intensity of red (R), green (G), and blue (B). Is converted into a signal and acquired as data.
  • the wavelength division light ⁇ b R , g, r R ⁇ that has passed through the right pupil and the wavelength division light ⁇ b L , g, r L ⁇ that has passed through the left pupil have distinct wavelength bands. It is separated.
  • the spectral characteristics ⁇ F R , F G , F B ⁇ of the color filter of the image sensor are characteristics in which the wavelength bands of adjacent spectral characteristics overlap.
  • red, green, and blue pixel values R, G, and B in each pixel after the demosaicing process can be modeled as in the following equation (13).
  • R g R + r R R + r L R
  • G b L G + g G + r R G
  • B b R B + b L B + g B (13)
  • the component ⁇ b R B , b L B , g B ⁇ is the wavelength-division light ⁇ b R , b L , g ⁇ that has passed through the blue filter having the spectral characteristic F B.
  • the component ⁇ b L G , g G , r R G ⁇ corresponds to the wavelength-division light ⁇ b L , g, r R ⁇ that has passed through the green filter having the spectral characteristic F G. .
  • FIG. 7C the component ⁇ b R B , b L B , g B ⁇ is the wavelength-division light ⁇ b R , b L , g ⁇ that has passed through the blue filter having the spectral characteristic F B.
  • the component ⁇ b L G , g G , r R G ⁇ corresponds to the wavelength-division light ⁇ b L , g, r R ⁇ that has passed through the green filter having the spectral characteristic F G.
  • the component ⁇ g R, r R R, r L R ⁇ is the spectral characteristics F wavelength division light passed through the red filter R ⁇ g, r R, r L ⁇ in Correspond.
  • the superscript suffix for each component represents whether the right pupil “R” or the left pupil “L” has passed, and the subscript suffix represents the red filter “R”, the green filter “G”, and the blue filter It indicates which of “B” passed.
  • ⁇ F R , F G , F B ⁇ , ⁇ r R , g, b R ⁇ , and ⁇ r L , g, b L ⁇ are all functions of the wavelength ⁇ , but for ease of description.
  • the wavelength ⁇ is omitted.
  • the wavelength band ⁇ b L , g ⁇ overlapping with the pixel value ⁇ B, G ⁇ is removed based on the difference between the pixel values ⁇ B, G ⁇ , and the component b R and A process of deriving a relational expression of the components ⁇ b R , b L , (g + r R ) ⁇ by obtaining the relationship of the component [g + r R ] is performed.
  • the wavelength band b L corresponds to the component b L B of the pixel value B and the component b of the pixel value G as shown in FIGS. it is a L G, component b L B, the b L G, the spectral characteristics F B, is that the relative gain of F G is multiplied. Therefore, the components b L B and b L G are different values by the relative gain, and it is necessary to correct the components b L B and b L G to be equal.
  • the pixel value G is used as a reference (eg, “1”), the component ratio of (b L B + g B ) is k B1, and the component ratio of b L G If k B2 , the following equation (14) is established.
  • k B1 / k B2 is, for example, the gain ratio of the spectral characteristics F B and F G in the band b L.
  • b L B + g B ( k B1 / k B2) ⁇ b L G (14)
  • B 'components ⁇ b R B', b L B ', g B' ⁇ is the following equation (17).
  • b R B ' (k B2 / k B1) ⁇ b R B, b L B '+ g B ' ⁇ b L G (17)
  • FIG. 8 shows a diagram representing this relationship in principle.
  • b R B ′ a value that minimizes an error between ⁇ b R B ′, b L G , (g G + r R G ) ⁇ and ⁇ B ′ / 2, G / 2 ⁇ .
  • E BG error evaluation value
  • e B (B ′ / 2 ⁇ b R B ′) 2 + (B ′ / 2 ⁇ b L G ) 2
  • e G (G / 2 ⁇ b L G ) 2 + (G / 2 ⁇ (g G + r R G )) 2
  • E BG e B + e G (22)
  • the component ⁇ b R B ′, b L G , (g G + r R G ) ⁇ can be estimated from the 2-band pixel values ⁇ B ′, G ⁇ of each pixel.
  • the component r R G of the pixel value G and the component r R R of the pixel value R correspond to the wavelength band r R , but the component r R G , R R R are multiplied by the relative gains of the spectral characteristics F G , F R. Therefore, the components r R G and r R R have different values corresponding to the relative gain, and it is necessary to correct the components r R G and r R R to be equal.
  • the pixel value G is a reference (eg, “1”)
  • the component ratio of (g R + r R R ) is k R1
  • the component ratio of r R G If k R2 , the following equation (23) is established.
  • k R1 / k R2 is, for example, the gain ratio of the spectral characteristics F G and F R in the band r R.
  • g R + r R R ( k R2 / k R1) ⁇ r R G (23)
  • the pixel value G and the pixel value R ′ are expressed using the components ⁇ b L G , g G , r R G , r L R ′ ⁇ . It becomes like this.
  • G b L G + (g G + r R G)
  • R ′ (g R ′ + r R R ′) + r L
  • R ′ r R G + r L R ′
  • ⁇ G, R ′ ⁇ is a detected known value, if the unknown number r L R ′ is determined based on the above equation (30), ⁇ r L R ′, r R G , (b L G + g G ) ⁇ Are all determined. That is, it is possible to specify a likelihood pattern of ⁇ r L R ′, r R G , (b L G + g G ) ⁇ .
  • FIG. 10 is a diagram showing this relationship in principle.
  • the unknown r L R ′ is a value that minimizes the error between ⁇ r L R ′, r R G , (b L G + g G ) ⁇ and ⁇ G / 2, R ′ / 2 ⁇ .
  • the component ⁇ r L R ′, r R G , (b L G + g G ) ⁇ can be estimated from the 2-band pixel value ⁇ G, R ′ ⁇ of each pixel.
  • the evaluation value is calculated by multiplying the pixel values ⁇ B ′, G ⁇ , ⁇ G, R ′ ⁇ by a coefficient 1 ⁇ 2. It is not limited. As described in the first multiband estimation process (for example, the above equation (10)), the coefficient may be greater than 0 and 1 or less (including its value).
  • the method of calculating the evaluation values E BG and E GR is not limited to the above method, and various methods are conceivable.
  • the evaluation value E BG as an example, ⁇ L, G, B ⁇ obtained from ⁇ R, G, B ⁇ obtained by capturing a large number of target subjects (for example, natural subjects or medical in-vivo subjects) in advance.
  • target subjects for example, natural subjects or medical in-vivo subjects
  • a pattern showing a peak with a high occurrence probability locally or a partial probability distribution region is set.
  • a pattern ⁇ b R B ′, b L G , (g G + r R G ) ⁇ indicating the average pattern of the pattern group is defined as a representative pattern. In this manner, a plurality of predetermined representative patterns are set.
  • the ⁇ B ′, G ⁇ representative pattern may be obtained from the ⁇ B ′, G ⁇ occurrence pattern of the target subject. Then, when estimating from ⁇ B ′, G ⁇ actually photographed, the Euclidean distance between ⁇ B ′, G ⁇ obtained by photographing and the representative pattern is obtained as an evaluation value, and ⁇ B ′ having the smallest evaluation value is obtained. , G ⁇ may be performed on the representative pattern to specify the final estimated pattern ⁇ b R B ′, b L G , (g G + r R G ) ⁇ .
  • b R B and r L R are obtained by the following formula (32).
  • g G G- (b L G + r R G) (35)
  • I R and I L are shown as an example in the case where the sensor surface of the image sensor is at the defocus position PD, and h is an axis along the horizontal direction (pupil separation direction in a broad sense). is there.
  • R, G, B components of the image I R are each (r R R, g R) , (g G, r R G), (b R B, g B), the image I L R, G,
  • the B components are (r L R , g R ), (g G , r L G ), and (b L B , g B ), respectively.
  • the multiband estimation unit is based on the transmittance characteristics F B and F G of the first and second color filters.
  • the relative gain ratio k B1 / k B2 between the pixel value B of the first color and the pixel value G of the second color is corrected, and the corrected pixel values B ′, G of the first and second colors are corrected. Is used to estimate the component values of the first to fifth bands.
  • the multiband estimation unit calculates the transmittance k B2 of the second color filter (F G ) in the second band (b L ) and The gain ratio is corrected by multiplying the pixel value B of the first color by the ratio k B1 / k B2 with the transmittance k B1 of the first color filter (F B ) in the second band (b L ).
  • the transmittance characteristic generally differs depending on the color, and therefore the gain differs depending on the color.
  • the relative gain ratio k B1 / k B2 in the band can be obtained, and the gain ratio is used to change the color. Therefore, different gains can be corrected.
  • the imaging device divides the pupil of the imaging optical system into a first pupil (for example, a right pupil) and a second pupil (a left pupil).
  • the light transmitted through the optical filter FLT is imaged.
  • the first pupil first pupil filter FL1
  • the first pupil first pupil filter FL1
  • the second pupil second pupil filter FL2
  • the multiband estimator estimates component values of the first to fifth bands based on images obtained by imaging the transmitted light of the first pupil and the second pupil.
  • band component values corresponding to the first pupil and the second pupil can be obtained respectively.
  • various application processes using pupil division are possible.
  • RGB components are included in the first pupil and the second pupil, respectively, color misregistration hardly occurs even in a defocused region of the captured image.
  • b (1) and r (1) are assigned to the first pupil.
  • b (2) May be assigned to the first pupil, or any of r (1) and r (2) may be assigned to the first pupil.
  • the multiband estimator provides the component values ⁇ b R B , b L of the first and second bands constituting the blue pixel value B.
  • B ⁇ are determined as first and second blue component values, respectively, and component values ⁇ b L G , g G , r R G ⁇ of the second to fourth bands constituting the green pixel value G are respectively determined as the first and second blue component values.
  • Obtained as the third green component value, and the fourth and fifth band component values ⁇ r R R , r L R ⁇ constituting the red pixel value R are obtained as the first and second red component values, respectively.
  • the configuration method of the green component value G is not limited to the above, and for example, the green component value of each pupil may be separated and configured.
  • b R B ′ and r L R ′ are correction values of the divided band components b R B and r L R that should be detected, and the expressions (17) and (26) described in the second multiband estimation process Therefore, it is represented by the following formula (37).
  • ⁇ b R B ', b L G, (g G + r R G) ⁇ and ⁇ r L R', r R G, (b L G + g G) ⁇ is the component values of each pattern, positive Note that there is a limit to the range of values that can be taken.
  • the pixel values R, G, and B can take the range of the following formula (38). 0 ⁇ B ⁇ N, 0 ⁇ G ⁇ N, 0 ⁇ R ⁇ N (38)
  • the number of quantization steps for R, G, and B is generally set to the same N value because it is easy to handle if they are the same, but the number of quantization steps may be intentionally different for each color.
  • b R B and r L R are independent variables, and r L R and r R R are independent variables, b R B and r L R can take the range of the following formula (40). . 0 ⁇ b R B ⁇ N, 0 ⁇ r L R ⁇ N (40)
  • b R B ′ and r L R ′ can take the range of the following formula (41). 0 ⁇ b R B ′ ⁇ N ⁇ (k B2 / k B1 ), 0 ⁇ r L R ′ ⁇ N ⁇ (k R2 / k R1 ) (41)
  • b L G , g G , and r R G are independent variables
  • b L G , g G , and r R G can take the range of the following equation (43). 0 ⁇ b L G ⁇ N, 0 ⁇ g G ⁇ N, 0 ⁇ r R G ⁇ N (43)
  • each value within the range of 0 ⁇ b R B ′ ⁇ N ⁇ (k B2 / k B1 ) shown in the above equation (41) is generated as a candidate for the unknown b R B ′.
  • Each candidate is substituted into the above equation (21), and ⁇ b L G , (g G + r R G ) ⁇ is obtained using the known pixel values ⁇ B, G ⁇ .
  • ⁇ b L G , (g G + r R G) ⁇ is obtained using the known pixel values ⁇ B, G ⁇ .
  • candidates are also generated for the above formula (30), and only ⁇ r L R ′, r R G , (b L G + g G ) ⁇ that satisfies the condition is left. There may be a plurality of candidates that satisfy the condition. When a plurality of candidates remain, for example, an average value thereof may be determined as a final value.
  • the pixel values ⁇ R, G, B ⁇ of the captured image are searched from the table and estimated patterns ⁇ b R B ′, b L G , (g G + r R G ) ⁇ , ⁇ r L R ', r R G, determines the (b L G + g G) ⁇ . Then, from the estimated pattern, the value of the component ⁇ b R B , b L B ⁇ constituting the pixel value B, the value of the component ⁇ b L G , g G , r R G ⁇ constituting the pixel value G, and the pixel value The values of the components ⁇ r R R , r L R ⁇ constituting R are finally calculated.
  • the estimated patterns obtained from the same combination pattern of ⁇ R, G, B ⁇ are not necessarily single, and a plurality of estimated patterns may be obtained.
  • an average of these estimated patterns may be taken as a likelihood pattern, and a table may be created in advance.
  • the table is created using the restriction condition based on the domain, but the table creation method of the present embodiment is not limited to this.
  • an image to be imaged for example, a natural image in the case of a digital camera, an in-vivo image in the case of an endoscope, etc.
  • the pixel value ⁇ R, G, B ⁇ generated most probable likelihood patterns for ⁇ b R B ', b L G, r R G, r L R ', (g G + r R G), a correspondence table (b L G + g G) ⁇ , may be a reference table created in advance.
  • the multiband estimation unit obtains a relational expression (the above expression (21)) with the component value b R B ′ of the first band as an unknown, A plurality of candidate values are generated as candidates for the unknown b R B ′.
  • the multiband estimator calculates candidate values satisfying the selection condition based on the domain of the first and second color pixel values B and G (the above equation (38)) from among the plurality of candidate values. Selection is made based on the above equation (21)). Then, based on the selected candidate value, the multiband estimation unit, the first band component value, the second band component value, the first addition value, and ⁇ b R B ′, b L G , (g G + R RG ) ⁇ .
  • the selection conditions include the first band component value, the second band component value, the first addition value, and ⁇ b obtained by substituting the candidate value into the relational expression (the above formula (21)).
  • R B ′, b L G , (g G + r R G ) ⁇ does not contradict the domain of the first and second color pixel values B and G (formula (38)) (formula (41 ), (43), (44)).
  • the multiband estimation unit can take the component value b R B ′ of the first band based on the domain of the first and second color pixel values B and G (the above equation (38)). Values within the range (the above formula (41)) are generated as a plurality of candidate values.
  • the candidate value is excluded, and the pixel A final estimate can be determined based on candidate values consistent with the value domain.
  • FIG. 14 shows a configuration example of an imaging device that performs multiband estimation processing of the present embodiment.
  • the imaging apparatus of FIG. 14 includes an imaging lens LNS, an optical filter FLT, an imaging element 10, an imaging processing unit 20, an image processing device 25 (image processing unit), and a monitor display unit 40.
  • the image processing device 25 includes an RGB image generation unit 30, an RGB filter characteristic data recording unit 50, a region selection unit 60, a multiband estimation unit 70, a multiband data recording unit 80, a data compression unit 90, and an RGB data recording unit 100. .
  • the imaging device 10 images a subject imaged by the imaging lens LNS and the optical filter FLT. As described with reference to FIG. 5, the optical filter FLT has different transmission bands for the right pupil and the left pupil.
  • the imaging processing unit 20 performs control of imaging operation by the imaging element 10, processing for A / D conversion of analog pixel signals, and the like.
  • the RGB image generation unit 30 performs a demosaicing process, an image quality improvement process, and the like of the RGB Bayer image obtained by imaging, and performs RGB3 plate image (pixel values R (i, j), G (i, j), B). (I, j)) is output.
  • i and j are natural numbers representing the position (coordinates) of the image in the horizontal scanning direction and the vertical scanning direction, respectively.
  • the monitor display unit 40 displays the RGB3 plate image on a monitor (display device).
  • the RGB filter characteristic data recording unit 50 stores data of transmittance characteristics (spectral characteristics) F R ( ⁇ ), F G ( ⁇ ), and F B ( ⁇ ) of the color filter of the image sensor 10. Data is output to the multiband estimation unit 70.
  • the RGB components to be imaged are determined not only by the color filter but also by the spectral sensitivity characteristics of the imaging device 10 and the spectral characteristics of the imaging lens LNS.
  • the transmittance characteristic of the color filter is described as being an RGB filter characteristic.
  • characteristic data including spectral characteristics of the image sensor 10 and the imaging lens LNS is defined as RGB filter characteristic data. is doing.
  • the region selection unit 60 extracts an image of a region selected by the user via a user interface (not shown) from the RGB3 plate image, and outputs the extracted image to the multiband estimation unit 70.
  • the multiband estimation unit 70 performs the multiband estimation process of the present embodiment on the image of the region selected by the user, and performs a 5-band multiband image (component values R 1 (i, j), R 2 (i, j), G (i, j), B 1 (i, j), B 2 (i, j), and (i, j) are omitted for simplicity in FIG. Note that multiband estimation processing may be performed on the entire RGB3 plate image without performing region selection.
  • the multiband data recording unit 80 records multiband image data.
  • the data compression unit 90 performs compression processing on the RGB3 plate image data.
  • the RGB data recording unit 100 records compressed RGB 3 plate image data and color filter transmittance characteristic data. These recorded data can be used for multiband estimation processing in post processing after shooting.
  • the post processing may be performed by the image processing device 25 in the imaging device, or may be performed by an image processing device configured separately from the imaging device.
  • FIG. 15 shows a configuration example of an image processing apparatus configured separately from the imaging apparatus.
  • 15 includes a data recording unit 200, a data decompression unit 210, a decompression data storage unit 220, a monitor image generation unit 230, a monitor image display unit 240, an image data selection unit 250, a selected frame storage unit 260, a multiband.
  • An estimation unit 270 and a multiband processing unit 280 are included.
  • this image processing apparatus for example, an information processing apparatus such as a PC is assumed.
  • the data recording unit 200 is configured by, for example, an external storage device (for example, a memory card), and stores RGB3 plate image data and transmittance characteristic data recorded by the imaging device.
  • the data decompression unit 210 performs a process of decompressing the RGB3 plate image data compressed by the imaging apparatus.
  • the decompressed data storage unit 220 stores decompressed RGB3 plate image data.
  • the monitor image generation unit 230 generates an image for monitor display from the RGB3 plate image data.
  • the monitor display unit 240 displays the monitor display image on the monitor.
  • the image data selection unit 250 outputs the ID of the frame selected by the user (operator) to the decompressed data storage unit 220 via a user interface (not shown).
  • the decompression data storage unit 220 outputs an image of a selected frame from among a plurality of RGB3 plate images (a plurality of still images or moving images).
  • the selected frame storage unit 260 stores an image of the selected frame.
  • the multiband estimator 270 selects the image of the selected frame (pixel values R (i, j), G (i, j), B (i, j)) and color filter transmittance characteristics F R ( ⁇ ), F Based on G ( ⁇ ) and F B ( ⁇ ), multiband images I R (i, j) and I L (i, j) are estimated.
  • I R (i, j) and I L (i, j) correspond to subject images that have passed through the right pupil and the left pupil, respectively.
  • the multiband processing unit 280 performs various application processes using the multiband images I R (i, j) and I L (i, j).
  • the multiband processing unit 280 can implement various processes using multidimensional information such as pupil separation and multiband color components.

Abstract

 画像処理装置は、第1~第3色フィルタを含む撮像素子に依って撮像された画像を取得する画像取得部と、第1透過率特性Fの非重なり部分に対応する第1バンドBD1と、第1、第2透過率特性F、Fの重なり部分に対応する第2バンドBD2と、第2透過率特性Fの非重なり部分に対応する第3バンドBD3と、第2、第3透過率特性F、Fの重なり部分に対応する第4バンドBD4と、第3透過率特性Fの非重なり部分に対応する第5バンドBD5とを設定し、第1~第3色の画素値に基づいて第1~第5バンドBD1~BD5の成分値b(1)、b(2)、g、r(1)、r(2)を推定するマルチバンド推定部と、を含む。

Description

画像処理装置、撮像装置及び画像処理方法
 本発明は、画像処理装置、撮像装置及び画像処理方法等に関する。
 カメラや顕微鏡、内視鏡などの撮影装置のデジタル化により、各種撮像機能の向上・拡張には目覚しいものがある。色空間の拡張もその一つであり、一般的な3原色のRGBカラー撮影に加え、多くの分割波長帯域による撮影を可能にする。例えば、色空間の拡張により、きめ細かい色の違いを取得し表現する技術の開発が取り組まれている。
 特許文献1には、分光透過率特性の平均波長が異なる5種類以上(その値を含む)の色フィルタを配置した撮像装置が開示されている。特許文献1では、6種類のフィルタ、即ち第1の青色フィルタ、第2の青色フィルタ、第1の緑色フィルタ、第2の緑色フィルタ、第1の赤色フィルタ、及び第2の赤色フィルタが、撮像センサの画素に対応して設けられており、マルチバンドの画像を同時に撮像することが可能である。
 特許文献2には、結像光学系と撮像センサの間に分岐光学系を設け、その分岐光学系を用いて4バンド以上(その値を含む)の波長帯域に分離する手法が開示されている。この手法では、分岐された各色の画像は、撮像センサ上の分離された領域に結像される。各色の画像は、まとまった領域に像が生成されるため、マルチバンドの画像を同時に撮像することが可能である。
 非特許文献1には、回転式のマルチバンドフィルタを用いて、撮像する画像の通過波長域を順次入れ替えて撮像することにより、マルチバンドの画像を取得する手法が開示されている。この手法では、取得できない波長帯域の情報を、自然界の被写体の分光反射率が滑らかであるとの先見情報を用いて推定する処理が行われている。
特開2005-286649号公報 特開2005-260480号公報
電子情報通信学会誌Vol.88,No.6,2005,東京工業大学
 さて、既存の撮像システムを大きく変更することなくマルチバンドの撮像システムを実現することが望ましいという課題がある。
 例えば、上述の特許文献1では、撮像素子のカラーフィルタに6種類のカラーフィルタを用いる。そのため、通常のRGB3原色のカラーフィルタを用いた場合に比べて、1種類のカラーフィルタに対して半分の画素しか割当てることができない。割り当てられず情報として欠落している画素値は、補間処理により求めることになるため、解像度の低下は免れない。
 また、特許文献2では、分岐光学系により、各色の画像が撮像センサ上の分離された領域に結像される。そのため、各色の画像に割当てられる画素数は、通常のRGB3原色撮影に比べて少なくなり、解像度が低下してしまう。
 また、非特許文献1では、回転式のマルチバンドフィルタを用いている。動きのある被写体の場合、フィルタの高速回転とそれに同期した高速撮影が必要となるので、特殊な追加機構が必要である。また、先見情報に基づく推定処理は、自然界の被写体ではない人工的なものを撮影する場合、成立しない可能性がある。
 本発明の幾つかの態様によれば、既存の撮像システムを大きく変更することなくマルチバンドの撮像システムを実現可能な画像処理装置、撮像装置及び画像処理方法等を提供できる。
 本発明の一態様は、第1透過率特性を有する第1色フィルタと第2透過率特性を有する第2色フィルタと第3透過率特性を有する第3色フィルタとを含む撮像素子によって撮像された画像を取得する画像取得部と、前記第1透過率特性の非重なり部分に対応する第1バンドと、前記第1透過率特性と前記第2透過率特性との重なり部分に対応する第2バンドと、前記第2透過率特性の非重なり部分に対応する第3バンドと、前記第2透過率特性と前記第3透過率特性との重なり部分に対応する第4バンドと、前記第3透過率特性の非重なり部分に対応する第5バンドとを設定し、前記画像を構成する第1~第3色の画素値に基づいて前記第1~第5バンドの成分値を推定するマルチバンド推定部と、を含む画像処理装置に関係する。
 本発明の一態様によれば、撮像素子の第1~第3色フィルタが有する第1~第3透過率特性の重なり部分、非重なり部分に対応して、第1~第5バンドが設定され、その第1~第5バンドの成分値が第1~第3色の画素値に基づいて推定される。これにより、既存の撮像システムを大きく変更することなくマルチバンドの撮像システムを実現することが可能になる。
 また本発明の一態様では、前記マルチバンド推定部は、前記第1、第2バンドの成分値を加算した値である前記第1色の画素値と、前記第2~第4バンドの成分値を加算した値である前記第2色の画素値とに基づいて、前記第1バンドの成分値と、前記第2バンドの成分値と、前記第3、第4バンドの成分値を加算した値である第1加算値との間の関係式を求め、前記関係式に基づいて、前記第1バンドの成分値と、前記第2バンドの成分値と、前記第1加算値とを推定してもよい。
 また本発明の一態様では、前記マルチバンド推定部は、前記第1バンドの成分値を未知数として前記関係式を求め、前記関係式で表した前記第1、第2バンドの成分値及び前記第1加算値と、前記第1、第2色の画素値との間の誤差を表す誤差評価値を求め、前記誤差評価値を最小にする前記未知数を決定し、決定した前記未知数及び前記関係式に基づいて、前記第1、第2バンドの成分値及び前記第1加算値を決定してもよい。
 また本発明の一態様では、前記マルチバンド推定部は、前記第2~第4バンドの成分値を加算した値である前記第2色の画素値と、前記第4、第5バンドの成分値を加算した値である前記第3色の画素値とに基づいて、前記第2、第3バンドの成分値を加算した値である前記第2加算値と、前記第4バンドの成分値と、前記第5バンドの成分値との間の関係式を求め、前記関係式に基づいて、前記第2加算値と、前記第4バンドの成分値と、前記第5バンドの成分値とを推定し、前記第1加算値と前記第4バンドの成分値から、又は前記第2加算値と前記第2バンドの成分値から前記第3バンドの成分値を求めてもよい。
 また本発明の一態様では、前記マルチバンド推定部は、前記第1バンドの成分値を未知数として前記関係式を求め、前記未知数の候補として、複数の候補値を生成し、前記複数の候補値の中から、前記第1、第2色の画素値の定義域に基づく選択条件を満たす候補値を、前記関係式に基づいて選択し、選択した前記候補値に基づいて、前記第1バンドの成分値と、前記第2バンドの成分値と、前記第1加算値とを求めてもよい。
 また本発明の一態様では、前記選択条件は、前記関係式に前記候補値を代入して求めた前記第1バンドの成分値と、前記第2バンドの成分値と、前記第1加算値とが、前記第1、第2色の画素値の定義域に矛盾しないという条件であってもよい。
 また本発明の一態様では、前記マルチバンド推定部は、前記第1、第2色の画素値の前記定義域に基づいて前記第1バンドの成分値が取り得る範囲内の値を、前記複数の候補値として生成してもよい。
 また本発明の一態様では、前記マルチバンド推定部は、前記第1、第2色フィルタの透過率特性に基づいて、前記第1色の画素値と前第2色の画素値との間の相対的なゲイン比を補正し、補正後の前記第1、第2色の画素値を用いて前記第1~第5バンドの成分値を推定してもよい。
 また本発明の一態様では、前記マルチバンド推定部は、前記第2バンドでの前記第2色フィルタの透過率と、前記第2バンドでの前記第1色フィルタの透過率との比を、前記第1色の画素値に乗じて、前記ゲイン比を補正してもよい。
 また本発明の一態様では、前記第1~第3色は、それぞれ青色、緑色、赤色であり、前記マルチバンド推定部は、前記第1~第5バンドの成分値を、それぞれ第1青色成分値、第2青色成分値、緑色成分値、第1赤色成分値、第2赤色成分値として求めてもよい。
 また本発明の一態様では、前記撮像素子には、撮像光学系の瞳を第1瞳と第2瞳に分割する光学フィルタを透過した光が結像され、前記第1瞳は、前記第1、第2バンドの一方と、前記第3バンドと、前記第4、第5バンドの一方とを透過し、前記第2瞳は、前記第1、第2バンドの他方と、前記第3バンドと、前記第4、第5バンドの他方とを透過し、前記マルチバンド推定部は、前記第1瞳及び前記第2瞳の透過光が撮像された前記画像に基づいて、前記第1~第5バンドの成分値を推定してもよい。
 また本発明の一態様では、前記第1~第3色フィルタは、それぞれ青色、緑色、赤色の波長帯域を透過する青色フィルタ、緑色フィルタ、赤色フィルタであり、前記マルチバンド推定部は、前記青色の画素値を構成する前記第1、第2バンドの成分値を、それぞれ第1、第2青色成分値として求め、前記緑色の画素値を構成する前記第2~第4バンドの成分値を、それぞれ第1~第3緑色成分値として求め、前記赤色の画素値を構成する前記第4、第5バンドの成分値を、それぞれ第1、第2赤色成分値として求めてもよい。
 また本発明の一態様では、前記マルチバンド推定部は、前記第1青色成分値と、前記第2青色成分値と、前記第1~第3緑色成分値の加算値である緑色成分値と、前記第1赤色成分値と、前記第2赤色成分値とで、5バンドの成分値を構成してもよい。
 また本発明の他の態様は、上記のいずれかに記載された画像処理装置と、前記撮像素子と、を含む撮像装置に関係する。
 また本発明の更に他の態様は、上記のいずれかに記載された画像処理装置と、前記撮像素子と、前記光学フィルタが設けられた前記撮像光学系と、を含む撮像装置に関係する。
 また本発明の更に他の態様は、第1透過率特性を有する第1色フィルタと、第2透過率特性を有する第2色フィルタと、第3透過率特性を有する第3色フィルタとを含む撮像素子によって撮像された画像を取得し、前記第1透過率特性の非重なり部分に対応する第1バンドと、前記第1透過率特性と前記第2透過率特性との重なり部分に対応する第2バンドと、前記第2透過率特性の非重なり部分に対応する第3バンドと、前記第2透過率特性と前記第3透過率特性との重なり部分に対応する第4バンドと、前記第3透過率特性の非重なり部分に対応する第5バンドとを設定し、前記画像を構成する第1~第3色の画素値に基づいて前記第1~第5バンドの成分値を推定する画像処理方法に関係する。
図1は、デモザイキング処理についての説明図。 図2は、バンド分割手法についての説明図。 図3は、第1のマルチバンド推定処理における未知数推定処理についての説明図。 図4は、第1のマルチバンド推定処理における未知数推定処理についての説明図。 図5は、第2のマルチバンド推定処理における撮像装置の基本構成例。 図6は、第2のマルチバンド推定処理におけるバンド分割手法についての説明図。 図7(A)~図7(F)は、ゲイン補正処理についての説明図。 図8は、第2のマルチバンド推定処理における未知数推定処理についての説明図。 図9(A)~図9(F)は、ゲイン補正処理についての説明図。 図10は第2のマルチバンド推定処理における未知数推定処理についての説明図。 図11は第3のマルチバンド推定処理におけるバンド成分値についての説明図。 図12はルックアップテーブルの第1設定例。 図13はルックアップテーブルの第2設定例。 図14は本実施形態の撮像装置の構成例。 図15は本実施形態の画像処理装置の構成例。
 以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。
 1.第1のマルチバンド推定処理
 1.1.概要
 高付加価値のマルチバンド撮影を実用性の高い撮像システムとして提供するためには、既存性能を踏襲でき且つ撮像システムを大きく変更することなく機能実現できることが望ましい。
 従来から、マルチバンド撮影の手法として種々の手法(例えば特許文献1、2、非特許文献1)が提案されているが、これら従来の手法では、特殊な撮像センサ(撮像素子)や分光フィルタの交換機構などを必要とし、既存の撮像システムの撮像解像度や動画特性を損なわずに実用性の高い手法の提案には至っていない。
 そこで、本実施形態では、RGB3原色の撮像素子を用いてRGB画像を撮影し、RGBカラーフィルタの透過率特性の重なりを利用してRGB画像から5バンドのマルチバンド画像を推定する。これにより、従来のRGB3原色の撮像素子による撮像方式を変更せずにマルチバンド撮影を行うことができる。また、特殊な撮像センサや分光フィルタの交換機構などが不要となるため、解像度を犠牲にすることなく、動く被写体にも十分対応できるマルチバンド同時撮影が可能となる。
 1.2.バンド分割手法
 以下に、RGB画像から5バンドのマルチバンド画像を推定する処理について詳細に説明する。なお、以下ではRGBベイヤ配列の撮像素子を例に説明するが、本実施形態はこれに限定されず、カラーフィルタの透過率特性に重なり部分がある撮像素子でさえあればよい。
 図1に示すように、RGBのベイヤ画像を撮像し、ベイヤ画像に対してデモザイキング処理を行ってRGB毎の3画像を生成する。デモザイキング処理により得られた各画素の赤色、緑色、青色の画素値をそれぞれR、G、Bとし、画素値R、G、Bと5バンドの波長成分b(1)、b(2)、g、r(1)、r(2)との関係を下式(1)に示すようにモデル化して考える。
=b(1)+b(2)
=r(1)+g+b(2)
=r(1)+r(2)   (1)
 図2に示すように、5バンドの波長成分b(1)、b(2)、g、r(1)、r(2)は、カラーフィルタの透過率特性F(λ)、F(λ)、F(λ)および撮像センサの分光特性に応じて定まる成分である。なお本実施形態では説明を簡単にするため、撮像センサの分光特性が、図2に示すカラーフィルタの透過率特性F(λ)、F(λ)、F(λ)に含まれるものとして説明することにする。即ち、青色フィルタの透過率特性F(λ)と緑色フィルタの透過率特性F(λ)との重なり部分に対応するバンドの成分がb(2)であり、青色フィルタの透過率特性F(λ)の非重なり部分に対応するバンドの成分がb(1)である。また、赤色フィルタの透過率特性F(λ)と緑色フィルタの透過率特性F(λ)との重なり部分に対応するバンドの成分がr(1)であり、赤色フィルタの透過率特性F(λ)の非重なり部分に対応するバンドの成分がr(2)である。また、緑色フィルタの透過率特性F(λ)の非重なり部分に対応するバンドの成分がgである。ここで、非重なり部分とは、他の色フィルタの透過率特性と重なっていない部分のことである。
 5バンドの帯域BD1~BD5は、透過率特性F(λ)、F(λ)、F(λ)の形状や重なり具合などに応じて決定すればよく、透過率特性の帯域や重なり部分の帯域そのものである必要はない。例えば、透過率特性F(λ)、F(λ)の重なり部分の帯域は、およそ450nm~550nmであるが、帯域BD2は重なり部分に対応するものであればよく、450nm~550nmである必要はない。
 1.3.{r(1),r(2),g+b(2)}の推定処理
 次に、上式(1)を用いて、{R,G}から{r(1),r(2),g+b(2)}の関係式を下式(2)のように求める。また、上式(1)より下式(3)が成り立つ。なお以下では、R、G、BをR、G、Bと省略して表記する。
R-G=[r(1)+r(2)]-[r(1)+g+b(2)
   =r(2)-[g+b(2)]         (2)
(1)=R-r(2)              (3)
 r(2)を未知数(支配変数)とすると、上式(1)~(3)より{r(1),r(2),g+b(2)}の関係式を下式(4)のように求められる。
(2)=未知数(支配変数),
(1)=R-r(2)
g+b(2)=r(2)-[R-G]  (4)
 {R,G}は検出された既知の値であるので、上式(4)に基づき未知数r(2)が決まれば、{r(1),r(2),g+b(2)}が全て決まることになる。即ち、{r(1),r(2),g+b(2)}の尤度パターンを特定することができる。
 図3に、この関係を原理的に表した図を示す。図3に示すように、未知数r(2)として、{r(1),r(2),g+b(2)}と{αR,αGrG}の誤差が最小になる値を求める。
 ここで、α,αGrは、下式(5)を満たす値である。αは、Rに対する{r(1),r(2)}の平均的な値を算出したものであり、αGrは、Gに対する{r(1),g+b(2)}の平均的な値を算出したものである。これらは、図2に示すように撮像素子のカラーフィルタ特性から{r(1),r(2)}及び{r(1),g+b(2)}の成分比を考慮して決定すればよい。
0<α≦1,0<αGr≦1 (5)
 {r(1),r(2),g+b(2)}と{αR,αGrG}の誤差を評価する値Ergは、下式(6)により求める。そして、評価値Ergが最小になる場合のr(2)を求め、求めたr(2)を上式(4)に代入することにより、{r(1),r(2),g+b(2)}の3つの値を決定する。
=[αR-r(1)+[αR-r(2)
=[αGrG-r(1)+[αGrG-(g+b(2))]
rg=e+e                      (6)
 1.4.{b(1),b(2),g+r(1)}の推定処理
 同様にして、上式(1)を用いて、{B,G}から{b(1),b(2),g+r(1)}の関係式を下式(7)のように求める。また、上式(1)より下式(8)が成り立つ。
B-G=[b(1)+b(2)]-[r(1)+g+b(2)
   =b(1)-[g+r(1)]         (7)
(2)=B-b(1)              (8)
 b(1)を未知数(支配変数)とすると、上式(1)、(7)、(8)より{b(1),b(2),g+r(1)}の関係式を下式(9)のように求められる。
(1)=未知数(支配変数)
(2)=B-b(1)
g+r(1)=b(1)-[B-G]  (9)
 {B,G}は検出された既知の値であるので、上式(9)に基づき未知数b(1)が決まれば、{b(1),b(2),g+r(1)}が全て決まることになる。即ち、{b(1),b(2),g+r(1)}の尤度パターンを特定することができる。
 図4に、この関係を原理的に表した図を示す。図4に示すように、未知数b(1)として、{b(1),b(2),g+r(1)}と{αB,αGbG}の誤差が最小になる値を求める。
 ここで、α,αGbは、下式(10)を満たす値である。αは、Bに対する{b(1),b(2)}の平均的な値を算出したものであり、αGbは、Gに対する{b(2),g+r(1)}の平均的な値を算出したものである。これらは、図2に示すように撮像素子のカラーフィルタ特性から{b(1),b(2)}及び{b(2),g+r(1)}の成分比を考慮して決定すればよい。
0<α≦1,0<αGb≦1 (10)
 {b(1),b(2),g+r(1)}と{αB,αGbG}の誤差を評価する値Ebgは、下式(11)により求める。そして、評価値Ebgが最小になる場合のb(1)を求め、求めたb(1)を上式(9)に代入することにより、{r(1),r(2),g+b(2)}の3つの値を決定する。
=[αB-b(1)+[αB-b(2)
=[αGbG-b(2)+[αGbG-(g+r(1))]
bg=e+e                     (11)
 次に、上式(1)より下式(12)が成り立つから、上式(4)、(9)で求めたr(1)、b(2)を下式(12)に代入し、gを算出する。
g=G-(r(1)+b(2))  (12)
 以上のようにして、デモザイキング処理により得られた各画素の3バンド画素値{R,G,B}から、図2に示すような5バンド画素値{b(1),b(2),g,r(1),r(2)}を推定することができる。
 以上の実施形態によれば、画像処理装置は画像取得部とマルチバンド推定部を含む。図2で説明したように、画像取得部は、撮像素子によって撮像された画像を取得する。撮像素子は、第1透過率特性F(λ)を有する第1色フィルタと、第2透過率特性F(λ)を有する第2色フィルタと、第3透過率特性F(λ)を有する第3色フィルタとを有する。図2~図4で説明したように、マルチバンド推定部は、画像を構成する第1~第3色の画素値{B,G,R}に基づいて、第1~第5バンドBD1~BD5の成分値{b(1),b(2),g,r(1),r(2)}を推定する。図2で説明したように、第1バンドBD1は第1透過率特性F(λ)の非重なり部分に対応する。第2バンドBD2は、第1透過率特性F(λ)と第2透過率特性F(λ)との重なり部分に対応する。第3バンドBD3は、第2透過率特性F(λ)の非重なり部分に対応する。第4バンドBD4は、第2透過率特性F(λ)と第3透過率特性F(λ)との重なり部分に対応する。第5バンドは、第3透過率特性F(λ)の非重なり部分に対応する。
 本実施形態では、画像処理装置は、図14に示す撮像装置の中の画像処理装置25、あるいは、図15に示す、撮像装置とは別体に構成された画像処理装置に対応する。また、画像取得部は、図14のRGB画像生成部30、あるいは図15の選択フレーム記憶部260に対応する。マルチバンド推定部は、図14のマルチバンド推定部70、あるいは図15のマルチバンド推定部270に対応する。
 ここで、透過率特性の重なり部分とは、図2に示すように波長軸に対して透過率特性を表した場合に、波長軸上で隣り合う透過率特性が重なっている領域のことである。重なり部分は、透過率特性が重なっている領域そのもの、あるいは透過率特性の帯域が重なっている帯域で表される。また、透過率特性の非重なり部分とは、他の透過率特性と重なっていない部分のことである。即ち、透過率特性から重なり部分を除いた部分のことである。なお、重なり部分又は非重なり部分に対応するバンドは、重なり部分又は非重なり部分の帯域そのものに限定されず、重なり部分又は非重なり部分に対応して設定されたバンドであればよい。例えば、所定の透過率と透過率特性が交わる波長でバンドを分割し、第1~第5バンドを設定してもよい。
 このようにすれば、既存の撮像システムを大きく変更することなくマルチバンドの撮像システムを実現することが可能となる。即ち、従来の撮像装置に用いられてきたRGB撮像素子を他の特殊な撮像素子(例えばマルチバンドカラーフィルタを備えた撮像素子)に変更することなく、マルチバンド撮影を行うことができる。また、特殊な追加機構(例えば回転式のマルチバンドカラーフィルタ、分岐光学系)を用いることなく、マルチバンド撮影を行うことができる。特殊な撮像素子や追加機構が不要なため、解像度の低下や、コスト増大を避けることが可能である。
 また本実施形態では、上式(1)で説明したように、第1色の画素値Bは、第1、第2バンドの成分値b(1)、b(2)を加算した値であり、第2色の画素値Gは、第2~第4バンドの成分値b(2)、g、r(1)を加算した値である。上式(9)で説明したように、マルチバンド推定部は、この第1、第2色の画素値B、Gに基づいて、第1バンドの成分値b(1)と、第2バンドの成分値b(2)と、第3、第4バンドの成分値g、r(1)を加算した値である第1加算値r(1)+gとの間の関係式を求める。そして、マルチバンド推定部は、その関係式に基づいて、第1バンドの成分値b(1)と、第2バンドの成分値b(2)と、第1加算値r(1)+gとを推定する。
 このようにすれば、隣り合った透過率特性が重なっている状態を、バンド成分値の加算式(上式(1))として表すことができる。そして、その加算式からバンド成分値間の関係式を求め、その関係式からバンド成分値を推定することが可能となる。
 また本実施形態では、上式(9)で説明したように、マルチバンド推定部は、第1バンドの成分値b(1)を未知数として関係式を求める。図4及び上式(11)で説明したように、マルチバンド推定部は、関係式で表した第1、第2バンドの成分値及び第1加算値{b(1),b(2),g+r(1)}と、第1、第2色の画素値{B,G}との間の誤差を表す誤差評価値Ebgを求め、その誤差評価値Ebgを最小にする未知数b(1)を決定し、その決定した未知数b(1)及び関係式(上式(9))に基づいて、第1、第2バンドの成分値及び第1加算値{b(1),b(2),g+r(1)}を決定する。
 このようにすれば、2つの画素値{B,G}から3つの変数{b(1),b(2),g+r(1)}を決定する際に必要な1つの未知数b(1)を、誤差評価値Ebgに基づいて決定でき、決定した未知数によりバンド成分値{b(1),b(2),g+r(1)}を決定できる。
 また本実施形態では、上記と同様にして、マルチバンド推定部は、関係式(上式(4))を求め、その関係式に基づいて、第2、第3バンドの成分値b(2)、gを加算した値である第2加算値g+b(2)と、第4バンドの成分値r(1)と、第5バンドの成分値r(2)とを推定する(上式(1)~(6))。そして、第1加算値g+r(1)と第4バンドの成分値r(1)から、又は第2加算値g+b(2)と第2バンドの成分値b(2)から第3バンドの成分値gを求める。
 このようにすれば、バンド成分値{r(1),r(2),g+b(2)}を関係式で表し、その関係式を用いてバンド成分値{r(1),r(2),g+b(2)}を推定できる。そして、求めたバンド成分値{b(1),b(2),g+r(1)}及び{r(1),r(2),g+b(2)}を用いて、第1~第5バンドの成分値{b(1),b(2),g,r(1),r(2)}を求めることができる。
 また本実施形態では、第1~第3色は、それぞれ青色(B)、緑色(G)、赤色(R)である。マルチバンド推定部は、第1~第5バンドの成分値{b(1),b(2),g,r(1),r(2)}を、それぞれ第1青色成分値b(1)、第2青色成分値b(2)、緑色成分値g、第1赤色成分値r(1)、第2赤色成分値r(2)として求める。
 このようにすれば、例えばベイヤ配列等の既存のカメラシステムに搭載されたRGB撮像素子をそのまま利用して、5バンドのマルチバンド撮影を行うことが可能となる。なお、本実施形態では、第1~第3色はRGBに限定されず、波長軸上において隣り合う透過率特性が重なり部分を有する3つのカラーフィルタに対応した色であればよい。
 2.第2のマルチバンド推定処理
 2.1.基本構成例
 次に、第2のマルチバンド推定処理について説明する。図5に、本処理における基本構成例を示す。図5に示すように、撮像光学系は、撮像素子のセンサ面に被写体を結像させる結像レンズLNSと、第1瞳と第2瞳で帯域を分離する光学フィルタFLTと、を含む。
 なお以下では、第1瞳を右瞳とし、第2瞳を左瞳として説明するが、本実施形態ではこれに限定されない。即ち、瞳の分離方向は左右に限定されず、撮像光学系の光軸に対して垂直な任意の方向に第1瞳と第2瞳が分離されていればよい。
 光学フィルタFLTは、波長分割光{b,g,r}を透過する特性の右瞳フィルタFL1(広義には第1フィルタ)と、波長分割光{b,g,r}を透過する特性の左瞳フィルタFL2(広義には第2フィルタ)とを有する。光学フィルタFLTは、撮像光学系の瞳位置(例えば絞りの設置位置)に設けられ、フィルタFL1、FL2がそれぞれ右瞳、左瞳に相当する。
 図6に示すように、右瞳フィルタFL1は、図2で説明した成分{b(1),g,r(1)}に対応する帯域BD1、BD3、BD4を透過するフィルタである。即ち、波長分割光{b,g,r}は、成分{b(1),g,r(1)}に対応する透過光である。また、左瞳フィルタFL2は、図2で説明した成分{b(2),g,r(2)}に対応する帯域BD2、BD3、BD5を透過するフィルタである。即ち、波長分割光{b,g,r}は、成分{b(2),g,r(2)}に対応する透過光である。
 図5に示すように、結像レンズLNS及び光学フィルタFLTを透過した結像光は、RGBベイヤ配列の撮像素子に入力され、赤色(R)、緑色(G)、青色(B)の光強度として信号に変換されデータとして取得される。図6に示すように、右瞳を通過した波長分割光{b,g,r}と、左瞳を通過した波長分割光{b,g,r}は、波長帯域が明確に分離されている。一方、撮像素子のカラーフィルタの分光特性{F,F,F}は、隣接する分光特性の波長帯域が重複した特性となっている。この重複状態を考慮すると、デモザイキング処理後の各画素における赤色、緑色、青色の画素値R、G、Bを、下式(13)のようにモデル化することができる。
R=g+r +r
G=b +g+r
B=b +b +g (13)
 ここで、図7(C)に示すように、成分{b ,b ,g}は、分光特性Fの青色フィルタを通過した波長分割光{b,b,g}に対応する。図7(D)に示すように、成分{b ,g,r }は、分光特性Fの緑色フィルタを通過した波長分割光{b,g,r}に対応する。また、図9(D)に示すように、成分{g,r ,r }は、分光特性Fの赤色フィルタを通過した波長分割光{g,r,r}に対応する。各成分を表す符号の上付きサフィックスは、右瞳「R」及び左瞳「L」のいずれを通過したかを表し、下付サフィックスは、赤色フィルタ「R」、緑色フィルタ「G」、青色フィルタ「B」のいずれを通過したかを表している。
 なお、{F,F,F}、{r,g,b}、{r,g,b}は、いずれも波長λの関数であるが、表記を簡単にするために波長λを省略した。
 2.2.{b,b,(g+r)}の推定処理
 次に、図7(A)~図10を用いて、画素値{R,G,B}から成分{b ,b ,g}、{b ,g,r }、{g,r ,r }を推定する処理について説明する。なお以下では、波長分割光{b,b,g,r,r}に対応する帯域や成分を、適宜、同一の符号{b,b,g,r,r}で表す。
 まず上式(13)を用いて、画素値{B,G}で重複している波長帯域{b,g}を、画素値{B,G}の差分に基づいて取り除き、成分bと成分[g+r]の関係を求めることにより成分{b,b,(g+r)}の関係式を導き出す処理を行う。
 ここで注意しなければならないのは、図7(A)~図7(D)に示すように、波長帯域bに対応するのは画素値Bの成分b 及び画素値Gの成分b であるが、成分b 、b には、分光特性F、Fの相対ゲインが乗じられていることである。そのため、成分b 、b は、相対ゲインの分だけ異なる値であり、成分b 、b が等しくなるように補正する必要がある。
 図7(C)、図7(D)に示すように、画素値Gを基準(例えば「1」)として、(b +g)の成分比をkB1とし、b の成分比をkB2とすると、下式(14)が成り立つ。kB1/kB2は、例えば帯域bにおける分光特性F、Fのゲイン比である。
+g=(kB1/kB2)×b  (14)
 帯域b、gにおける分光特性Fのゲインを考慮すると、成分gは成分b よりも十分小さいと考えられるため、成分b 、b を等しくするためには、成分(b +g)と成分b がほぼ等しくなればよい。成分(b +g)を補正した値を(b ’+g’)とすると、上式(14)を用いて下式(15)に示す補正を行えばよい。
’+g’≒b =(kB2/kB1)×(b +g) (15)
 成分(b +g)は画素値Bに含まれるため、成分(b +g)を補正するためには、結局、画素値Bを補正することになる。この補正後のBをB’とすると、下式(16)の関係が得られる。
B’=(kB2/kB1)B (16)
 上式(16)より、B’の成分{b ’,b ’,g’}は下式(17)となる。
’=(kB2/kB1)×b
’+g’≒b      (17)
 上式(13)、(17)より、画素値B’と画素値Gを成分{b ’,b ,g,r }を用いて表すと、下式(18)のようになる。
B’=b ’+(b ’+g’)=b ’+b
G =b +(g+r )           (18)
 次に、下式(19)に示すように、補正後の画素値B’と画素値Gの差分を取ることにより、重複した成分bを取り除く。また上式(18)より下式(20)が成り立つ。
B’-G=[b ’+b ]-[b +g+r
    =b ’-(g+r )       (19)
=B’-b ’             (20)
 b ’を未知数(支配変数)とすると、上式(19)、(20)より{b ’,b ,(g+r )}の関係式を下式(21)のように求められる。
’=未知数(支配変数)
=B’-b
+r =b ’-(B’-G) (21)
 {B’,G}は検出された既知の値であるので、上式(21)に基づき未知数b ’が決まれば、{b ’,b ,(g+r )}が全て決まることになる。即ち、{b ’,b ,(g+r )}の尤度パターンを特定することができる。
 図8に、この関係を原理的に表した図を示す。図8に示すように、未知数b ’として、{b ’,b ,(g+r )}と{B’/2,G/2}の誤差が最小になる値を求める。即ち、下式(22)に示す誤差の評価値EBGが最小になる場合のb ’を求め、求めたb ’を上式(21)に代入することにより、{b ’,b ,(g+r )}の値を決定する。
=(B’/2-b ’)+(B’/2-b
=(G/2-b +(G/2-(g+r ))
BG=e+e                 (22)
 以上のようにして、各画素の2バンド画素値{B’,G}から成分{b ’,b ,(g+r )}を推定することができる。
 2.3.{(b+g),r,r}の推定処理
 次に、画素値{G,R}から成分{(b+g),r,r}を推定する。具体的には、上式(13)を用いて、画素値{G,R}で重複している波長帯域{g,r}を、画素値{G,R}の差分に基づいて取り除き、成分[b+g]と成分rの関係を求めることにより成分{(b+g),r,r}の関係式を導き出す処理を行う。
 図9(A)~図9(D)に示すように、波長帯域rに対応するのは画素値Gの成分r 及び画素値Rの成分r であるが、成分r 、r には、分光特性F、Fの相対ゲインが乗じられている。そのため、成分r 、r は、相対ゲインの分だけ異なる値であり、成分r 、r が等しくなるように補正する必要がある。
 図9(C)、図9(D)に示すように、画素値Gを基準(例えば「1」)として、(g+r )の成分比をkR1とし、r の成分比をkR2とすると、下式(23)が成り立つ。kR1/kR2は、例えば帯域rにおける分光特性F、Fのゲイン比である。
+r =(kR2/kR1)×r  (23)
 帯域g、rにおける分光特性Fのゲインを考慮すると、成分gは成分r よりも十分小さいと考えられるため、成分r 、r を等しくするためには、成分(g+r )と成分r がほぼ等しくなればよい。成分(g+r )を補正した値を(g’+r ’)とすると、上式(23)を用いて下式(24)に示す補正を行えばよい。
’+r ’≒r =(kR2/kR1)×(g+r ) (24)
 成分(g+r )は画素値Rに含まれるため、成分(g+r )を補正するためには、結局、画素値Rを補正することになる。この補正後のRをR’とすると、下式(25)の関係が得られる。
R’=(kR2/kR1)R (25)
 上式(25)より、R’の成分{g’,r ’,r ’}は下式(26)となる。
’+r ’≒r
’=(kR2/kR1)×r  (26)
 上式(13)、(26)より、画素値Gと画素値R’を成分{b ,g,r ,r ’}を用いて表すと、下式(27)のようになる。
G =b +(g+r ),
R’=(g’+r ’)+r ’=r +r ’ (27)
 次に、下式(28)に示すように、画素値Gと補正後の画素値R’の差分を取ることにより、重複した成分rを取り除く。また上式(27)より下式(29)が成り立つ。
G-R’=[b +g+r )]-[r +r ’]
    =(b +g)-r ’         (28)
=R’-r ’               (29)
 r ’を未知数(支配変数)とすると、上式(28)、(29)より{r ’,r ,(b +g)}の関係式を下式(30)のように求められる。
’=未知数(支配変数),
=R’-r ’ ,
+g=r ’+(G-R’) (30)
 {G,R’}は検出された既知の値であるので、上式(30)に基づき未知数r ’が決まれば、{r ’,r ,(b +g)}が全て決まることになる。即ち、{r ’,r ,(b +g)}の尤度パターンを特定することができる。
 図10に、この関係を原理的に表した図を示す。図10に示すように、未知数r ’として、{r ’,r ,(b +g)}と{G/2,R’/2}の誤差が最小になる値を未知数r ’として求める。即ち、下式(31)に示す誤差の評価値EGRが最小になる場合のr ’を求め、求めたr ’を上式(30)に代入することにより、{r ’,r ,(b +g)}の値を決定する。
=(G/2-(b +g))+(G/2-r
=(R’/2-r +(R’/2-(r ’))
GR=e+e                  (31)
 以上のようにして、各画素の2バンド画素値{G,R’}から成分{r ’,r ,(b +g)}を推定することができる。
 なお、上式(22)、(31)では画素値{B’,G}、{G,R’}に対して係数1/2を掛けて評価値を算出したが、係数は1/2に限定されない。第1のマルチバンド推定処理で説明(例えば上式(10))したように、係数は0より大きく1以下(その値を含む)であればよい。
 また、評価値EBG、EGRの算出手法は上記手法に限定されず、種々の方法が考えられることは言うまでもない。例えば、評価値EBGを例にとれば、予め対象とする被写体(例えば、自然被写体あるいは医療用の生体内被写体など)を多数撮像し、取得された{R,G,B}により得られる{B’,G}から、{b ’,b ,(g+r )}の値の生起パターンを上記のようにして求める。そして、{b ’,b ,(g+r )}の生起パターンの確率分布において、局所的に生起確率が高いピークを示すパターンか、または部分的な確率分布領域を設定し、その中のパターン群の平均パターンを示すパターン{b ’,b ,(g+r )}を代表パターンとして定める。このようにして、予め定めた複数の代表パターンを設定しておく。そして、改めて(実際の撮影で)取得された{B,G}から推定を行う際には、取得された{B,G}から上記のように{b ’,b ,(g+r )}を計算し、その計算により求めた{b ’,b ,(g+r )}と、予め設定した代表パターンとのユークリッド距離を評価値として求める。予め設定された代表パターンのうち最もユークリッド距離が小さい、即ち最も類似する代表パターンを推定パターンとし、{b ’,b ,(g+r )}の値として特定してもよい。なお、予め代表パターンを設定する際に、対象被写体の{B’,G}の生起パターンから{B’,G}の代表パターンを求めてもよい。そして、実際に撮影した{B’,G}から推定する際に、撮影で取得した{B’,G}と、代表パターンとのユークリッド距離を評価値として求め、評価値の最も小さい{B’,G}の代表パターンに対して上記の推定処理を行い、最終的な推定パターン{b ’,b ,(g+r )}を特定してもよい。
 2.4.成分値の算出処理
 次に、上記で求めた値{b ’,b ,(g+r )}、{r ’,r ,(b +g)}を用いて、画素値Bを構成する成分{b ,b }の値、画素値Gを構成する成分{b ,g,r }の値、画素値Rを構成する成分{r ,r }の値を算出する。
 上式(17)、(26)より、b ,r は、下式(32)により求められる。
=(kB1/kB2)×b ’ ,
=(kR1/kR2)×r ’  (32)
 g≪b ,g≪r であることを用いて、上式(13)より、b ,r は、下式(33)により求められる。
=B-(b +g)≒B-b
=R-(r +g)≒R-r  (33)
 上式(13)より、b ,r は、下式(34)により求められる。
=G-(g+r ),
=G-(g+b ) (34)
 上式(13)、(34)より、gは、下式(35)により求められる。
=G-(b +r ) (35)
 2.5.マルチバンド画像の取得処理
 図5に示すように、光学フィルタFLTの透過光を撮像することで、右瞳を通過した被写体像Iと、左瞳を通過した被写体像Iが得られる。図5では、撮像素子のセンサ面がデフォーカス位置PDにある場合を例に、I、Iを図示しており、hは水平方向(広義には瞳の分離方向)に沿った軸である。像IのR、G、B成分は、それぞれ(r ,g)、(g,r )、(b ,g)であり、像IのR、G、B成分は、それぞれ(r ,g)、(g,r )、(b ,g)である。
 撮像素子のセンサ面がフォーカス位置PFにあるフォーカス時では、像I、Iのずれは無くなる。即ち、同一画素におけるr とr 、r とb 、b とb 、gは、全て被写体の同一微小領域からの反射光の色光を表している。即ち、結像時の撮像素子の任意の画素のR、G、B値から、下式(36)に示す5バンド{R,R,G,B,B}の色画像(マルチバンド画像)を得ることができる。
=r ,R=r ,G=r +g+b ,B=b ,B=b
 (36)
 以上の実施形態によれば、図7(A)~図7(F)で説明したように、マルチバンド推定部は、第1、第2色フィルタの透過率特性F、Fに基づいて、第1色の画素値Bと第2色の画素値Gとの間の相対的なゲイン比kB1/kB2を補正し、補正後の第1、第2色の画素値B’、Gを用いて第1~第5バンドの成分値を推定する。
 より具体的には、上式(14)~(17)で説明したように、マルチバンド推定部は、第2バンド(b)での第2色フィルタ(F)の透過率kB2と、第2バンド(b)での第1色フィルタ(F)の透過率kB1との比kB1/kB2を、第1色の画素値Bに乗じて、ゲイン比を補正する。
 撮像素子のカラーフィルタでは、一般的に色に依って透過率特性が異なるため、色に依ってゲインが異なっている。本実施形態によれば、透過率特性の重なり部分に対応するバンドが存在するため、そのバンドにおける相対的なゲイン比kB1/kB2を求めることができ、そのゲイン比を用いて、色に依って異なるゲインを補正できる。
 また本実施形態では、図5で説明したように、撮像素子(撮像素子のセンサ面)には、撮像光学系の瞳を第1瞳(例えば右瞳)と第2瞳(左瞳)に分割する光学フィルタFLTを透過した光が結像される。図6で説明したように、第1瞳(第1瞳フィルタFL1)は、第1、第2バンドの一方b=b(1)と、第3バンドgと、第4、第5バンドの一方r=r(1)とを透過する。第2瞳(第2瞳フィルタFL2)は、第1、第2バンドの他方b=b(2)と、第3バンドgと、第4、第5バンドの他方r=r(2)とを透過する。マルチバンド推定部は、第1瞳及び第2瞳の透過光が撮像された画像に基づいて、第1~第5バンドの成分値を推定する。
 このようにすれば、第1瞳、第2瞳に対応するバンド成分値を、それぞれ求めることができる。これにより、瞳分割を利用した種々の応用処理が可能となる。また、第1瞳、第2瞳にそれぞれRGB成分が含まれるため、撮像画像のピンぼけ領域においても色ずれが生じにくい。なお、上記の実施形態では、b(1)、r(1)が第1瞳に割り当てられる場合を例に説明したが、本実施形態ではこれに限定されず、b(1)、b(2)のいずれが第1瞳に割り当てられてもよいし、r(1)、r(2)のいずれが第1瞳に割り当てられてもよい。
 また本実施形態では、上式(32)~(35)に示すように、マルチバンド推定部は、青色の画素値Bを構成する第1、第2バンドの成分値{b ,b }を、それぞれ第1、第2青色成分値として求め、緑色の画素値Gを構成する第2~第4バンドの成分値{b ,g,r }を、それぞれ第1~第3緑色成分値として求め、赤色の画素値Rを構成する第4、第5バンドの成分値{r ,r }を、それぞれ第1、第2赤色成分値として求める。
 より具体的には、上式(36)で説明したように、マルチバンド推定部は、第1、第2青色成分値B=b 、B=b と、第1~第3緑色成分値{b ,g,r }の加算値である緑色成分値Gと、第1、第2赤色成分値R=r 、R=r とで、5バンドの成分値を構成する。
 このようにすれば、第1~第5バンドの成分値を、第1瞳の通過光に対応する成分値B=b 、G、R=r と、第2瞳の通過光に対応する成分値B=b 、G、R=r とに分離して求めることができる。なお、緑色成分値Gの構成手法は、上記に限定されず、例えば各瞳の緑色成分値を分離して構成してもよい。
 3.第3のマルチバンド推定処理
 3.1.候補発生による推定処理
 次に、第3のマルチバンド推定処理について説明する。
 図11に示すように、ゲイン補正を行った5バンドの成分の関係式を第2のマルチバンド推定処理と同様にして求める。下記に、第2のマルチバンド推定処理で説明した式(21)、(30)を再掲する。
’=未知数(支配変数),
=B’-b ’ ,
+r =b ’-(B’-G) (21)
’=未知数(支配変数),
=R’-r ’ ,
+g=r ’+(G-R’) (30)
 b ’、r ’は、検出されるはずの分割帯域成分b 、r の補正値であり、第2のマルチバンド推定処理で説明した式(17)、(26)より、下式(37)で表される。
’=(kB2/kB1)×b
’=(kR2/kR1)×r  (37)
 さて、{b ’,b ,(g+r )}及び{r ’,r ,(b +g)}のそれぞれのパターンの成分値は、正の値であってかつ取り得る値の範囲に制限があることに注目する。
 具体的には、撮像画像として取得する補正前の3原色画素値を、B(青)、G(緑)、R(赤)とし、センサ飽和値以下に設定される最大値の量子化ステップ数をN(Nは自然数)とする。例えば、8ビット画像として扱うときは、N=256である。このとき、画素値R、G、Bは下式(38)の範囲を取り得る。
0≦B<N,0≦G<N,0≦R<N (38)
 なお、R、G、Bの量子化ステップ数は一般的に同一とすると扱いやすいので共通のN値としているが、意図的に各色ごとに量子化ステップ数を異ならせても構わない。
 B及びRの補正前の検出成分は{b ,b }、{r ,r }であり、それぞれ2成分を加算した値が、B及びRになると定義しているので、下式(39)が成り立つ。
0≦B(=b +b )<N,0≦R(=r +r )<N (39)
 b とb が独立した変数であり、r とr が独立した変数であると仮定すれば、b 、r は下式(40)の範囲を取り得る。
0≦b <N,0≦r <N (40)
 上式(37)、(40)より、b ’、r ’は下式(41)の範囲を取り得る。
0≦b ’<N×(kB2/kB1),
0≦r ’<N×(kR2/kR1) (41)
 また、Gの検出成分は{b ,g,r }であり、これら3成分を加算した値が、Gになると定義しているので、下式(42)が成り立つ。
0≦G(=b +g+r )<N (42)
 b 、g、r が独立した変数であると仮定すれば、b 、g、r は下式(43)の範囲を取り得る。
0≦b <N,0≦g<N,0≦r <N (43)
 上式(43)より、(g+r )及び(b +g)は、下式(44)の範囲を取り得る。
0≦(g+r )<2N,0≦(b +g)<2N (44)
 上式(41)、(43)、(44)の制限条件を、上式(21)、(30)の関係式に適用すると、{b ’,b ,(g+r )}及び{r ’,r ,(b +g)}のパターンの推定候補は限定されることになる。
 即ち、上式(41)に示す0≦b ’<N×(kB2/kB1)の範囲内の各値を、未知数b ’の候補として発生する。各候補を上式(21)に代入し、既知の画素値{B,G}を用いて{b ,(g+r )}を求める。各候補から求めた{b ’,b ,(g+r )}のうち、上式(43)、(44)の条件を満たすもののみを残す。同様に、上式(30)についても候補の発生を行い、条件を満たす{r ’,r ,(b +g)}のみを残す。条件を満たす候補は、複数存在する可能性がある。候補が複数残った場合には、例えばそれらの平均値を最終的な値として決定すればよい。
 3.2.ルックアップテーブルを用いた推定処理
 次に、第3のマルチバンド推定処理の変形例について説明する。
 図12に示すように、上式(38)の定義域を満たす{R,G,B}の全ての組み合わせを発生させる。{R,G,B}の各組み合わせについて、上式(41)の定義域を満たす未知数b ’、r ’の候補を発生させる。そして、上式(43)、(44)の制限条件を満たす推定値{b ,(g+r )}及び{r ,(b +g)}を残す。このようにして得られる推定パターン{b ’,b ,(g+r )}及び{r ’,r ,(b +g)}をテーブル化し、図12に示すような尤度パターン決定テーブルを予め作成しておく。
 マルチバンド推定を行う際には、撮像画像の画素値{R,G,B}をテーブルから検索して推定パターン{b ’,b ,(g+r )}、{r ’,r ,(b +g)}を決定する。そして、その推定パターンから、画素値Bを構成する成分{b ,b }の値、画素値Gを構成する成分{b ,g,r }の値、画素値Rを構成する成分{r ,r }の値を、最終的に算出する。
 なお、図13に示すように、制限条件を満たす推定パターンのうち、{R,G,B}の同一組み合わせパターンから得られる推定パターンは単一とは限らず、複数得られる場合がある。この場合、それら推定パターンの平均をとって尤度パターンとし、予めテーブルを作成しておけばよい。
 ここで、上記では定義域に基づく制限条件を用いてテーブルを作成したが、本実施形態のテーブル作成手法はこれに限定されない。例えば、撮像対象となる画像(例えばデジタルカメラの場合は自然画像、内視鏡の場合は生体内画像など)を母集団とする。そして、母集団の統計的な関係に基づいて、画素値{R,G,B}に対して最も発生確率が高い尤度パターン{b ’,b ,r ,r ’,(g+r ),(b +g)}の対応テーブルを、予め作成しておいて参照テーブルとしてもよい。
 以上の実施形態によれば、図12又は図13で説明したように、マルチバンド推定部は、第1バンドの成分値b ’を未知数として関係式(上式(21))を求め、未知数b ’の候補として、複数の候補値を生成する。マルチバンド推定部は、その複数の候補値の中から、第1、第2色の画素値B、Gの定義域(上式(38))に基づく選択条件を満たす候補値を、関係式(上式(21))に基づいて選択する。そして、マルチバンド推定部は、選択した候補値に基づいて、第1バンドの成分値と、第2バンドの成分値と、第1加算値と{b ’,b ,(g+r )}を求める。
 具体的には、選択条件は、関係式(上式(21))に候補値を代入して求めた第1バンドの成分値と、第2バンドの成分値と、第1加算値と{b ’,b ,(g+r )}が、第1、第2色の画素値B、Gの定義域(上式(38))に矛盾しないという条件(上式(41)、(43)、(44))である。
 より具体的には、マルチバンド推定部は、第1、第2色の画素値B、Gの定義域(上式(38))に基づいて第1バンドの成分値b ’が取り得る範囲内の値(上式(41))を、複数の候補値として生成する。
 このようにすれば、候補値を関係式に代入して求めたバンドの成分値が、画素値の定義域に基づいて存在し得ないと判断された場合に、その候補値を除外し、画素値の定義域に矛盾しない候補値に基づいて最終的な推定値を決定できる。
 4.撮像装置、画像処理装置
 図14に、本実施形態のマルチバンド推定処理を行う撮像装置の構成例を示す。図14の撮像装置は、結像レンズLNS、光学フィルタFLT、撮像素子10、撮像処理部20、画像処理装置25(画像処理部)、モニタ表示部40を含む。画像処理装置25は、RGB画像生成部30、RGBフィルタ特性データ記録部50、領域選択部60、マルチバンド推定部70、マルチバンドデータ記録部80、データ圧縮部90、RGBデータ記録部100を含む。
 撮像素子10は、結像レンズLNS及び光学フィルタFLTによって結像された被写体を撮像する。光学フィルタFLTは、図5で説明したように右瞳と左瞳の透過帯域が異なる。撮像処理部20は、撮像素子10による撮像動作の制御や、アナログの画素信号をA/D変換する処理などを行う。
 RGB画像生成部30は、撮像により得られたRGBベイヤ画像のデモザイキング処理や、高画質化処理などを行い、RGB3板画像(画素値R(i,j)、G(i,j)、B(i,j))を出力する。i,jは、自然数であり、それぞれ画像の水平走査方向、垂直走査方向における位置(座標)を表す。モニタ表示部40は、RGB3板画像をモニタ(表示装置)に表示する。
 RGBフィルタ特性データ記録部50は、撮像素子10がもつカラーフィルタの透過率特性(分光特性)F(λ)、F(λ)、F(λ)のデータを記憶しており、そのデータをマルチバンド推定部70に出力する。但し、撮像されるRGB成分は、厳密にはカラーフィルタのみならず撮像素子10の分光感度特性や、結像レンズLNSの分光特性によって決まるものである。上記ではカラーフィルタの透過率特性がRGBフィルタ特性であるものとして説明したが、本実施形態では、当然、撮像素子10や結像レンズLNSの分光特性を含んだ特性データをRGBフィルタ特性データとして定義している。領域選択部60は、図示しないユーザインターフェースを介してユーザが選択した領域の画像を、RGB3板画像から抽出し、その抽出した画像をマルチバンド推定部70に出力する。
 マルチバンド推定部70は、ユーザが選択した領域の画像に対して本実施形態のマルチバンド推定処理を行い、5バンドのマルチバンド画像(成分値R(i,j)、R(i,j)、G(i,j)、B(i,j)、B(i,j)、図14では簡単のため(i,j)を省略する)を出力する。なお、領域選択を行わず、RGB3板画像の全体に対してマルチバンド推定処理を行ってもよい。マルチバンドデータ記録部80は、マルチバンド画像のデータを記録する。
 データ圧縮部90は、RGB3板画像のデータに対して圧縮処理を行う。RGBデータ記録部100は、圧縮されたRGB3板画像データと、カラーフィルタの透過率特性データとを記録する。これらの記録データは、撮影後の事後処理においてマルチバンド推定処理に用いることが可能である。事後処理は、撮像装置の中の画像処理装置25で行ってもよいし、撮像装置と別体に構成された画像処理装置で行ってもよい。
 図15に、撮像装置と別体に構成された画像処理装置の構成例を示す。図15の画像処理装置は、データ記録部200、データ伸張部210、伸張データ記憶部220、モニタ画像生成部230、モニタ画像表示部240、画像データ選択部250、選択フレーム記憶部260、マルチバンド推定部270、マルチバンド処理部280を含む。この画像処理装置としては、例えばPC等の情報処理装置が想定される。
 データ記録部200は、例えば外部記憶装置(例えばメモリカード)により構成され、撮像装置により記録されたRGB3板画像データ及び透過率特性データを記憶している。データ伸張部210は、撮像装置により圧縮されたRGB3板画像データを伸張する処理を行う。伸張データ記憶部220は、伸張されたRGB3板画像データを記憶する。
 モニタ画像生成部230は、RGB3板画像データからモニタ表示用の画像を生成する。モニタ表示部240は、そのモニタ表示用の画像をモニタに表示する。画像データ選択部250は、図示しないユーザインターフェースを介してユーザ(操作者)が選択したフレームのIDを、伸張データ記憶部220に出力する。伸張データ記憶部220は、複数のRGB3板画像(複数の静止画像、又は動画像)の中から、選択フレームの画像を出力する。選択フレーム記憶部260は、選択フレームの画像を記憶する。
 マルチバンド推定部270は、選択フレームの画像(画素値R(i,j)、G(i,j)、B(i,j))と、カラーフィルタの透過率特性F(λ)、F(λ)、F(λ)とに基づいて、マルチバンド画像I(i,j)、I(i,j)を推定する処理を行う。I(i,j)、I(i,j)は、それぞれ右瞳、左瞳を通過した被写体像に対応する。マルチバンド処理部280は、マルチバンド画像I(i,j)、I(i,j)を用いて種々の応用処理を行う。マルチバンド処理部280では、瞳の分離やマルチバンドの色成分などの多次元の情報を利用して、多様な処理を実現可能である。
 なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またマルチバンド推定部、画像処理装置、撮像光学系、撮像装置等の構成、動作も本実施形態で説明したものに限定に限定されず、種々の変形実施が可能である。
10 撮像素子、20 撮像処理部、25 画像処理装置、
30 RGB画像生成部、40 モニタ表示部、
50 RGBフィルタ特性データ記録部、60 領域選択部、
70 マルチバンド推定部、80 マルチバンドデータ記録部、
90 データ圧縮部、100 RGBデータ記録部、
200 データ記録部、210 データ伸張部、
220 伸張データ記憶部、230 モニタ画像生成部、
240 モニタ画像表示部、250 画像データ選択部、
260 選択フレーム記憶部、270 マルチバンド推定部、
280 マルチバンド処理部、
B,G,R 画素値、BD1~BD5 第1~第5バンド、
,F,F 第1~第3透過率特性、FL1 右瞳フィルタ、
FL2 左瞳フィルタ、FLT 光学フィルタ、
,I 被写体像、LNS 結像レンズ、
PD デフォーカス位置、PF フォーカス位置、
(1),b(2) 第1、第2青色成分値、
g 緑色成分値、r(1),r(2) 第1、第2赤色成分値、
B1/kB2 ゲイン比、λ 波長

Claims (16)

  1.  第1透過率特性を有する第1色フィルタと第2透過率特性を有する第2色フィルタと第3透過率特性を有する第3色フィルタとを含む撮像素子によって撮像された画像を取得する画像取得部と、
     前記第1透過率特性の非重なり部分に対応する第1バンドと、前記第1透過率特性と前記第2透過率特性との重なり部分に対応する第2バンドと、前記第2透過率特性の非重なり部分に対応する第3バンドと、前記第2透過率特性と前記第3透過率特性との重なり部分に対応する第4バンドと、前記第3透過率特性の非重なり部分に対応する第5バンドとを設定し、前記画像を構成する第1~第3色の画素値に基づいて前記第1~第5バンドの成分値を推定するマルチバンド推定部と、
     を含むことを特徴とする画像処理装置。
  2.  請求項1において、
     前記マルチバンド推定部は、
     前記第1、第2バンドの成分値を加算した値である前記第1色の画素値と、前記第2~第4バンドの成分値を加算した値である前記第2色の画素値とに基づいて、前記第1バンドの成分値と、前記第2バンドの成分値と、前記第3、第4バンドの成分値を加算した値である第1加算値との間の関係式を求め、
     前記関係式に基づいて、前記第1バンドの成分値と、前記第2バンドの成分値と、前記第1加算値とを推定することを特徴とする画像処理装置。
  3.  請求項2において、
     前記マルチバンド推定部は、
     前記第1バンドの成分値を未知数として前記関係式を求め、
     前記関係式で表した前記第1、第2バンドの成分値及び前記第1加算値と、前記第1、第2色の画素値との間の誤差を表す誤差評価値を求め、
     前記誤差評価値を最小にする前記未知数を決定し、
     決定した前記未知数及び前記関係式に基づいて、前記第1、第2バンドの成分値及び前記第1加算値を決定することを特徴とする画像処理装置。
  4.  請求項2において、
     前記マルチバンド推定部は、
     前記第2~第4バンドの成分値を加算した値である前記第2色の画素値と、前記第4、第5バンドの成分値を加算した値である前記第3色の画素値とに基づいて、前記第2、第3バンドの成分値を加算した値である前記第2加算値と、前記第4バンドの成分値と、前記第5バンドの成分値との間の関係式を求め、
     前記関係式に基づいて、前記第2加算値と、前記第4バンドの成分値と、前記第5バンドの成分値とを推定し、
     前記第1加算値と前記第4バンドの成分値から、又は前記第2加算値と前記第2バンドの成分値から前記第3バンドの成分値を求めることを特徴とする画像処理装置。
  5.  請求項2において、
     前記マルチバンド推定部は、
     前記第1バンドの成分値を未知数として前記関係式を求め、
     前記未知数の候補として、複数の候補値を生成し、
     前記複数の候補値の中から、前記第1、第2色の画素値の定義域に基づく選択条件を満たす候補値を、前記関係式に基づいて選択し、
     選択した前記候補値に基づいて、前記第1バンドの成分値と、前記第2バンドの成分値と、前記第1加算値とを求めることを特徴とする画像処理装置。
  6.  請求項5において、
     前記選択条件は、
     前記関係式に前記候補値を代入して求めた前記第1バンドの成分値と、前記第2バンドの成分値と、前記第1加算値とが、前記第1、第2色の画素値の定義域に矛盾しないという条件であることを特徴とする画像処理装置。
  7.  請求項5において、
     前記マルチバンド推定部は、
     前記第1、第2色の画素値の前記定義域に基づいて前記第1バンドの成分値が取り得る範囲内の値を、前記複数の候補値として生成することを特徴とする画像処理装置。
  8.  請求項1において、
     前記マルチバンド推定部は、
     前記第1、第2色フィルタの透過率特性に基づいて、前記第1色の画素値と前第2色の画素値との間の相対的なゲイン比を補正し、補正後の前記第1、第2色の画素値を用いて前記第1~第5バンドの成分値を推定することを特徴とする画像処理装置。
  9.  請求項8において、
     前記マルチバンド推定部は、
     前記第2バンドでの前記第2色フィルタの透過率と、前記第2バンドでの前記第1色フィルタの透過率との比を、前記第1色の画素値に乗じて、前記ゲイン比を補正することを特徴とする画像処理装置。
  10.  請求項1において、
     前記第1~第3色は、それぞれ青色、緑色、赤色であり、
     前記マルチバンド推定部は、
     前記第1~第5バンドの成分値を、それぞれ第1青色成分値、第2青色成分値、緑色成分値、第1赤色成分値、第2赤色成分値として求めることを特徴とする画像処理装置。
  11.  請求項1において、
     前記撮像素子には、撮像光学系の瞳を第1瞳と第2瞳に分割する光学フィルタを透過した光が結像され、
     前記第1瞳は、前記第1、第2バンドの一方と、前記第3バンドと、前記第4、第5バンドの一方とを透過し、
     前記第2瞳は、前記第1、第2バンドの他方と、前記第3バンドと、前記第4、第5バンドの他方とを透過し、
     前記マルチバンド推定部は、
     前記第1瞳及び前記第2瞳の透過光が撮像された前記画像に基づいて、前記第1~第5バンドの成分値を推定することを特徴とする画像処理装置。
  12.  請求項11において、
     前記第1~第3色フィルタは、それぞれ青色、緑色、赤色の波長帯域を透過する青色フィルタ、緑色フィルタ、赤色フィルタであり、
     前記マルチバンド推定部は、
     前記青色の画素値を構成する前記第1、第2バンドの成分値を、それぞれ第1、第2青色成分値として求め、前記緑色の画素値を構成する前記第2~第4バンドの成分値を、それぞれ第1~第3緑色成分値として求め、前記赤色の画素値を構成する前記第4、第5バンドの成分値を、それぞれ第1、第2赤色成分値として求めることを特徴とする画像処理装置。
  13.  請求項12において、
     前記マルチバンド推定部は、
     前記第1青色成分値と、前記第2青色成分値と、前記第1~第3緑色成分値の加算値である緑色成分値と、前記第1赤色成分値と、前記第2赤色成分値とで、5バンドの成分値を構成することを特徴とする画像処理装置。
  14.  請求項1乃至13のいずれかに記載された画像処理装置と、
     前記撮像素子と、
     を含むことを特徴とする撮像装置。
  15.  請求項11乃至13のいずれかに記載された画像処理装置と、
     前記撮像素子と、
     前記光学フィルタが設けられた前記撮像光学系と、
     を含むことを特徴とする撮像装置。
  16.  第1透過率特性を有する第1色フィルタと、第2透過率特性を有する第2色フィルタと、第3透過率特性を有する第3色フィルタとを含む撮像素子によって撮像された画像を取得し、
     前記第1透過率特性の非重なり部分に対応する第1バンドと、前記第1透過率特性と前記第2透過率特性との重なり部分に対応する第2バンドと、前記第2透過率特性の非重なり部分に対応する第3バンドと、前記第2透過率特性と前記第3透過率特性との重なり部分に対応する第4バンドと、前記第3透過率特性の非重なり部分に対応する第5バンドとを設定し、
     前記画像を構成する第1~第3色の画素値に基づいて前記第1~第5バンドの成分値を推定することを特徴とする画像処理方法。
PCT/JP2013/051483 2012-01-27 2013-01-24 画像処理装置、撮像装置及び画像処理方法 WO2013111824A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-015512 2012-01-27
JP2012015512A JP2013157729A (ja) 2012-01-27 2012-01-27 画像処理装置、撮像装置及び画像処理方法

Publications (1)

Publication Number Publication Date
WO2013111824A1 true WO2013111824A1 (ja) 2013-08-01

Family

ID=48873536

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/051483 WO2013111824A1 (ja) 2012-01-27 2013-01-24 画像処理装置、撮像装置及び画像処理方法

Country Status (2)

Country Link
JP (1) JP2013157729A (ja)
WO (1) WO2013111824A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018098641A (ja) * 2016-12-13 2018-06-21 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、プログラム、および電子機器
KR102350164B1 (ko) * 2021-07-15 2022-01-17 이규동 멀티스펙트럴 이미징 변환 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281513A (ja) * 2001-03-19 2002-09-27 Fuji Photo Film Co Ltd 画像撮影方法およびスペクトル画像取得装置およびプログラム
JP2008042482A (ja) * 2006-08-04 2008-02-21 Sony Corp カラーフィルタ、画像処理装置および画像処理方法、撮像装置および撮像方法、プログラム、並びに、記録媒体
JP2010010958A (ja) * 2008-06-25 2010-01-14 Olympus Corp マルチバンド画像撮像方法および装置
JP2010021791A (ja) * 2008-07-10 2010-01-28 Canon Inc 撮像装置、その画像処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281513A (ja) * 2001-03-19 2002-09-27 Fuji Photo Film Co Ltd 画像撮影方法およびスペクトル画像取得装置およびプログラム
JP2008042482A (ja) * 2006-08-04 2008-02-21 Sony Corp カラーフィルタ、画像処理装置および画像処理方法、撮像装置および撮像方法、プログラム、並びに、記録媒体
JP2010010958A (ja) * 2008-06-25 2010-01-14 Olympus Corp マルチバンド画像撮像方法および装置
JP2010021791A (ja) * 2008-07-10 2010-01-28 Canon Inc 撮像装置、その画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2013157729A (ja) 2013-08-15

Similar Documents

Publication Publication Date Title
JP5527448B2 (ja) 画像入力装置
US9542759B2 (en) Image processing device, method of processing image, and image processing program including false color correction
JP5687676B2 (ja) 撮像装置及び画像生成方法
JP4730082B2 (ja) 画像信号処理装置、撮像装置、および画像信号処理方法、並びにコンピュータ・プログラム
JP4983093B2 (ja) 撮像装置および方法
CN104756488B (zh) 信号处理设备以及信号处理方法
KR20070011429A (ko) 디지털 이미징 시스템을 이용하여 오브젝트로부터 광의대안적 형태의 재생
US8174585B2 (en) Color conversion coefficient calculation apparatus, computer readable recording medium for recording color conversion coefficient calculation program, and color conversion coefficient calculation method
JP6173065B2 (ja) 撮像装置、画像処理装置、撮像方法及び画像処理方法
JP5052286B2 (ja) 分光特性補正装置、分光特性補正方法
JP2009153074A (ja) 画像撮影装置
JP5108013B2 (ja) カラー撮像素子及びこれを用いた撮像装置及びフィルタ
WO2013111824A1 (ja) 画像処理装置、撮像装置及び画像処理方法
JP6692749B2 (ja) マルチスペクトルカメラ
JP2013187711A (ja) 画像処理装置、撮像装置及び画像処理方法
WO2013125398A1 (ja) 撮像装置及びフォーカス制御方法
JP5054659B2 (ja) 撮像装置
JP5028119B2 (ja) 画像処理装置,画像処理方法及び撮像装置
WO2022198436A1 (zh) 图像传感器、图像数据获取方法、成像设备
JP6815628B2 (ja) マルチスペクトル撮像装置
WO2022185345A2 (en) Optimal color filter array and a demosaicing method thereof
WO2018179378A1 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム記録媒体
JP2021043722A (ja) 映像処理装置、および、映像処理方法
CN115039402A (zh) 用于图像处理的色彩滤波阵列和流水线
JP2014175731A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13740660

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13740660

Country of ref document: EP

Kind code of ref document: A1