WO2020213418A1 - 撮像装置、信号処理装置、信号処理方法及び信号処理プログラム - Google Patents

撮像装置、信号処理装置、信号処理方法及び信号処理プログラム Download PDF

Info

Publication number
WO2020213418A1
WO2020213418A1 PCT/JP2020/015199 JP2020015199W WO2020213418A1 WO 2020213418 A1 WO2020213418 A1 WO 2020213418A1 JP 2020015199 W JP2020015199 W JP 2020015199W WO 2020213418 A1 WO2020213418 A1 WO 2020213418A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
light
wavelength
wavelength band
bandpass filter
Prior art date
Application number
PCT/JP2020/015199
Other languages
English (en)
French (fr)
Inventor
小野 修司
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2020213418A1 publication Critical patent/WO2020213418A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/22Absorbing filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Definitions

  • the present invention relates to an imaging device, a signal processing device, a signal processing method, and a signal processing program, and more particularly to an imaging device, a signal processing device, a signal processing method, and a signal processing program that acquire images in a plurality of wavelength bands.
  • a multi-spectral camera (also referred to as a multi-spectral camera, a multi-band camera, etc.) is known as a device for capturing images in a plurality of wavelength bands.
  • the image obtained by the multispectral camera is called a multispectral image.
  • Patent Document 1 the pupil portion of the optical system is divided and optical filters having different spectral transmittances are arranged in each region, and a microlens array having a light ray separation function is arranged in front of the image sensor.
  • a device for capturing a multispectral image with one image sensor has been proposed.
  • the ray separation by the microlens array is not always perfect. Therefore, the device of Patent Document 1 has a problem that light leaks to adjacent pixels and so-called crosstalk occurs.
  • Patent Document 2 proposes that a signal (pixel signal) obtained from each pixel is subjected to predetermined signal processing to eliminate the influence of interference.
  • Patent Document 3 in imaging with an endoscope, the subject is irradiated with three narrow band lights corresponding to each wavelength band of R pixel, G pixel and B pixel provided in the image sensor.
  • a technique has been proposed in which a signal is processed to obtain three narrow-band signals.
  • Patent Document 3 can be used only in a special environment that is not affected by ambient light, such as when imaging the inside of a body cavity, and cannot be used in normal imaging that is affected by ambient light. There is a drawback. In addition, it is necessary to prepare a special light source separately, which has a drawback that the system becomes large-scale.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide an imaging device, a signal processing device, a signal processing method, and a signal processing program capable of acquiring a high-quality multispectral image.
  • the means for solving the above problems are as follows.
  • an image sensor including a plurality of pixel blocks composed of n pixels equipped with optical filters having different spectral transmittances and m is 2 ⁇ m.
  • an optical system having a multi-bandpass filter having m wavelength bands of transmitted light i is an integer satisfying 1 ⁇ i ⁇ m, and j is 1 ⁇ j ⁇ n.
  • a storage unit that stores a coefficient group composed of a matrix A of m rows and n columns in which each element is represented by aij, and a coefficient group are acquired from the storage unit, and each pixel block of the image sensor is obtained.
  • n pixel signals x1, x2, ..., Xn obtained from the above, m pixel signals X1, X2, ..., Xm corresponding to the wavelength band of the light transmitted through the multi-bandpass filter are calculated by the following equation.
  • the matrix A is obtained by calculating the inverse matrix of the matrix whose element is the ratio of light in each wavelength band transmitted through the multi-bandpass filter received by each pixel of each pixel block of the image sensor. , The image pickup apparatus of (1) above.
  • the multi-bandpass filter is an imaging device according to any one of (1) to (3) above, wherein the bandwidth of each wavelength band to be transmitted is 40 nm or less.
  • each wavelength band transmitted by the multi-bandpass filter is set in a region where the amount of change in the spectral sensitivity curve of the optical filter is equal to or less than the threshold value. ..
  • Each wavelength band transmitted by the multi-bandpass filter is set in a region where the inflection point of the spectral sensitivity curve of the optical filter is 1 or less, and the imaging of any one of (1) to (5) above is performed. apparatus.
  • the multi-bandpass filter is interchangeable, the storage unit stores a coefficient group for each interchangeable multi-bandpass filter, and the arithmetic unit stores the coefficient corresponding to the multi-bandpass filter mounted on the optical system.
  • the storage unit stores a coefficient group for each interchangeable multi-bandpass filter
  • the arithmetic unit stores the coefficient corresponding to the multi-bandpass filter mounted on the optical system.
  • an image sensor including a plurality of pixel blocks composed of n pixels equipped with optical filters having different spectral transmittances and m is 2 ⁇ m.
  • An optical system provided with a multi-bandpass filter having m wavelength bands of transmitted light when an integer satisfying ⁇ n is used, and a signal processing device for processing a signal obtained from an image sensor of an imaging device provided with the same. Therefore, when i is an integer satisfying 1 ⁇ i ⁇ m and j is an integer satisfying 1 ⁇ j ⁇ n, a coefficient group composed of a matrix A of m rows and n columns in which each element is represented by aij.
  • a multi-bandpass filter is transmitted from the storage unit that stores the above and the n pixel signals x1, x2, ..., Xn obtained from each pixel block of the image sensor by acquiring the coefficient group from the storage unit by the following formula.
  • An arithmetic unit that calculates m pixel signals X1, X2, ..., Xm corresponding to the wavelength band of light, and
  • an image sensor including a plurality of pixel blocks composed of n pixels equipped with optical filters having different spectral transmittances and m is 2 ⁇ m.
  • a signal processing method for processing a signal obtained from an image sensor of an image pickup apparatus equipped with an optical system having a multi-bandpass filter having a wavelength band of m transmitted light when an integer satisfying ⁇ n is used. Therefore, the step of acquiring n pixel signals x1, x2, ..., Xn obtained from each pixel block of the image sensor, i is an integer satisfying 1 ⁇ i ⁇ m, and j is satisfied with 1 ⁇ j ⁇ n.
  • m pixel signals X1 and X2 corresponding to the wavelength band of the light transmitted through the multi-bandpass filter are used by the following equation using the m-by-n matrix A in which each element is represented by aij. , ..., the step to calculate Xm,
  • an image sensor including a plurality of pixel blocks composed of n pixels equipped with optical filters having different spectral transmittances and m is 2 ⁇ m.
  • a signal processing program that processes a signal obtained from an image sensor of an imaging device equipped with an optical system provided with a multi-bandpass filter having a wavelength band of m transmitted light when an integer satisfying ⁇ n is used. Therefore, the function of acquiring n pixel signals x1, x2, ..., Xn obtained from each pixel block of the image sensor, i is an integer satisfying 1 ⁇ i ⁇ m, and j is satisfied with 1 ⁇ j ⁇ n.
  • m pixel signals X1 and X2 corresponding to the wavelength band of the light transmitted through the multi-bandpass filter are used by the following equation using the m-by-n matrix A in which each element is represented by aij. , ..., the function to calculate Xm, and
  • a signal processing program that makes a computer realize.
  • a high quality multispectral image can be acquired.
  • the figure which shows the schematic structure of the image pickup apparatus of this embodiment A graph showing an example of the spectral characteristics of the multi-bandpass filter used in the image pickup apparatus of this embodiment.
  • Block diagram showing a schematic configuration of a signal processing device A graph for obtaining the sensitivity of each pixel when light having a wavelength of 550 [nm] is incident on the optical system.
  • a graph for obtaining the sensitivity of each pixel when light having a wavelength of 660 [nm] is incident on the optical system.
  • a table showing the rate at which light in each wavelength band is received by each pixel Conceptual diagram of operation of the image pickup apparatus of this embodiment
  • FIG. 1 is a diagram showing a schematic configuration of an imaging device according to the present embodiment.
  • the image pickup apparatus 1 includes an optical system 10, an image sensor 100, and a signal processing apparatus 200.
  • the optical system 10 has a lens configuration according to the application of the image pickup apparatus 1. Therefore, a reflector, a prism, and the like are combined with the lens as needed.
  • the lenses and the like constituting the optical system 10 are simplified and shown by one lens 12.
  • the optical system 10 is focused by moving the entire or a part of the lens group back and forth along the optical axis L. Further, the amount of light incident on the image sensor 100 is adjusted by a diaphragm (not shown) provided in the optical path.
  • the optical system 10 further has a multi-bandpass filter 14.
  • the multi-bandpass filter 14 is an optical filter having a function of selectively transmitting light having a plurality of wavelength bands (light having a plurality of central wavelengths). Since the multi-bandpass filter itself is known, the details thereof will be omitted.
  • FIG. 2 is a graph showing an example of the spectral characteristics of the multi-bandpass filter used in the image pickup apparatus of this embodiment.
  • the horizontal axis represents the wavelength (nm) and the vertical axis represents the transmittance (%).
  • the multi-bandpass filter used in the image pickup apparatus of this embodiment selectively transmits light in four wavelength bands.
  • the bandwidth (half width) of each wavelength band to be transmitted is 40 [nm] or less, which is a so-called narrow band.
  • the light in the first wavelength band ⁇ 1 is light having a center wavelength of 550 [nm].
  • the light in the second wavelength band ⁇ 2 is light having a center wavelength of 660 [nm].
  • the light in the third wavelength band ⁇ 3 is light having a central wavelength of 735 [nm].
  • the light in the fourth wavelength band ⁇ 4 is light having a central wavelength of 790 [nm].
  • the wavelength band transmitted by the multi-bandpass filter 14 is the wavelength band of each image acquired as a multispectral image. Therefore, the spectral characteristics shown in FIG. 2 include an image of the first wavelength band ⁇ 1 having a center wavelength of 550 [nm] and an image of the second wavelength band ⁇ 2 having a center wavelength of 660 [nm] as a multispectral image. This is an example of acquiring an image of a third wavelength band ⁇ 3 having a center wavelength of 735 [nm] and an image of a fourth wavelength band ⁇ 4 having a center wavelength of 790 [nm].
  • the light incident on the optical system 10 passes through the multi-band pass filter 14 to allow light in the first wavelength band ⁇ 1 having a center wavelength of 550 [nm] and a second wavelength having a center wavelength of 660 [nm].
  • the light in the band ⁇ 2, the light in the third wavelength band ⁇ 3 having a center wavelength of 735 [nm], and the light in the fourth wavelength band ⁇ 4 having a center wavelength of 790 [nm] are separated into the image sensor 100. Incident.
  • the image sensor 100 is composed of, for example, a solid-state image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • a CCD Charge-Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • FIG. 3 is a diagram showing a schematic configuration of the pixel arrangement of the image sensor.
  • the image sensor 100 has a plurality of pixels on its light receiving surface.
  • the pixels are regularly arranged at a constant pitch along the horizontal direction (x direction) and the vertical direction (y direction).
  • Each pixel includes a photodiode, an optical filter, and a condenser lens, which are light receiving elements.
  • the condensing lens (so-called microlens) condenses the light from the optical system 10 on the photodiode.
  • the optical filter selectively transmits light in a predetermined wavelength band.
  • Each pixel is provided with any one of four optical filters having different spectral transmittances.
  • the four optical filters are an R filter that transmits light in the red (R; red) wavelength band, a G filter that transmits light in the green (G; green) wavelength band, and a blue (B;). It is composed of a B filter that transmits light in the wavelength band of blue) and a NIR filter that transmits light in the near-infrared (NIR) wavelength band.
  • the pixel represented by the reference numeral R is a pixel provided with an R filter.
  • the pixel represented by the reference numeral G is a pixel provided with a G filter.
  • the pixel represented by the reference numeral B is a pixel provided with a B filter.
  • the pixel represented by the reference numeral NIR is a pixel provided with a NIR filter.
  • a pixel equipped with an R filter is an R pixel
  • a pixel equipped with a G filter is a G pixel
  • a pixel provided with a B filter is a B pixel
  • a pixel provided with an NIR filter is a NIR pixel.
  • R pixels, G pixels, B pixels and NIR pixels are regularly arranged.
  • one pixel block PB (x, y) is composed of R pixel, G pixel, B pixel and NIR pixel, and the pixel block is along the horizontal direction (x direction) and the vertical direction (y direction).
  • PB (x, y) is arranged regularly. Therefore, one image sensor 100 is provided with a plurality of pixel blocks PB (x, y).
  • FIG. 3 shows an example in which one pixel block is configured by a 2 ⁇ 2 arrangement (2 pixels in the horizontal direction and 2 pixels in the vertical direction). Further, FIG.
  • FIG. 3 shows an example in which one pixel block is formed by arranging a B pixel in the upper left, a G pixel in the upper right, an R pixel in the lower left, and an NIR pixel in the lower right.
  • (x, y) in the reference numeral PB (x, y) represents the position of the pixel block on the xy plane.
  • FIG. 4 is a diagram showing an example of the spectral sensitivity characteristics of the R pixel, G pixel, B pixel, and NIR pixel.
  • the horizontal axis represents the wavelength (nm) and the vertical axis represents the spectral sensitivity.
  • reference numeral Cr indicates a spectral sensitivity curve of R pixel
  • reference numeral Cg indicates a spectral sensitivity curve of G pixel
  • reference numeral Cb indicates a spectral sensitivity curve of B pixel
  • reference numeral Cnir indicates a spectral sensitivity curve of NIR pixel.
  • the R pixel has a characteristic of receiving light in the red (R) wavelength band with high sensitivity.
  • the G pixel has a characteristic of receiving light in the green (G) wavelength band with high sensitivity.
  • the B pixel has a characteristic of receiving light in the blue (B) wavelength band with high sensitivity.
  • NIR pixels have the property of receiving light in the near infrared (NIR) wavelength band with high sensitivity.
  • the signal processing device 200 processes the signal output from the image sensor 100 to generate a multispectral image.
  • images (image data) of four wavelength bands are generated. Specifically, an image of the first wavelength band ⁇ 1 having a center wavelength of 550 [nm], an image of a second wavelength band ⁇ 2 having a center wavelength of 660 [nm], and a third image having a center wavelength of 735 [nm]. An image of the wavelength band ⁇ 3 and an image of the fourth wavelength band ⁇ 4 having a center wavelength of 790 [nm] are generated.
  • FIG. 5 is a block diagram showing a schematic configuration of a signal processing device.
  • the signal processing device 200 includes an analog signal processing unit 200A, a multispectral image generation unit 200B, a coefficient storage unit 200C, and an output unit 200D.
  • the analog signal processing unit 200A takes in the analog pixel signal output from each pixel of the image sensor 100, performs predetermined signal processing (for example, correlation double sampling processing, amplification processing, etc.), and finally becomes a digital signal. Convert and output.
  • predetermined signal processing for example, correlation double sampling processing, amplification processing, etc.
  • the multispectral image generation unit 200B takes in the digital pixel signal output from the analog signal processing unit 200A and performs predetermined signal processing to generate a multispectral image.
  • This image is an image of four wavelength bands corresponding to the four wavelength bands ⁇ 1 to ⁇ 4 separated by the multi-bandpass filter 14.
  • the image of each wavelength band is generated by obtaining the signal value (pixel signal) of each pixel constituting each image by the following equation (1) using the matrix A.
  • X1 is a pixel signal at the pixel position p (x, y) of the image in the first wavelength band ⁇ 1
  • X2 is a pixel signal at the pixel position p (x, y) of the image in the second wavelength band ⁇ 2.
  • X3 is a pixel signal at the pixel position p (x, y) of the image in the third wavelength band ⁇ 3
  • X4 is a pixel signal at the pixel position p (x, y) of the image in the fourth wavelength band ⁇ 4. ..
  • xb is a pixel signal obtained by the B pixel of the pixel block PB (x, y).
  • xg is a pixel signal obtained by the G pixel of the pixel block PB (x, y).
  • xr is a pixel signal obtained by the R pixel of the pixel block PB (x, y).
  • xnir is a pixel signal obtained by NIR pixels of the pixel block PB (x, y).
  • the pixel position p (x, y) corresponds one-to-one with the position of the pixel block PB (x, y). Therefore, for example, the pixel position p (1,1) corresponds to the position of the pixel block PB (1,1).
  • the optical system 10 of the image pickup apparatus 1 of the present embodiment is provided with a multi-bandpass filter 14. Therefore, light in each wavelength band separated by the multi-bandpass filter 14 is incident on each pixel of the image sensor 100.
  • the multi-bandpass filter 14 separates the light into four wavelength bands, so that the light in the four wavelength bands is incident.
  • the ratio of light in each wavelength band separated by the multi-bandpass filter 14 received by each pixel of the image sensor 100 is uniquely determined in relation to the optical filter provided in each pixel.
  • the ratio of receiving light in the first wavelength band ⁇ 1 is b11
  • the ratio of receiving light in the second wavelength band ⁇ 2 is b12
  • the ratio of receiving light in the third wavelength band ⁇ 3 is received.
  • the ratio is b13
  • the ratio at which light in the fourth wavelength band ⁇ 4 is received is b14
  • the relationship of the following equation (2) holds between and (the symbol "*" in the equation is the symbol of integration).
  • the ratio of receiving light in the first wavelength band ⁇ 1 is b21
  • the ratio of receiving light in the second wavelength band ⁇ 2 is b22
  • the ratio of receiving light in the third wavelength band ⁇ 3 is received.
  • the pixel signal xg output from the G pixel and the pixel signals X1, X2, X3 of the corresponding pixels of the image in each wavelength band are taken. The following equation holds with X4.
  • the ratio of receiving the light of the first wavelength band ⁇ 1 is b31
  • the ratio of receiving the light of the second wavelength band ⁇ 2 is b32
  • the ratio of receiving the light of the third wavelength band ⁇ 3 is received.
  • the ratio at which light in the fourth wavelength band ⁇ 4 is received is b34
  • the pixel signal xr output from the R pixel and the pixel signals X1, X2, X3, X4 of the corresponding pixels of the image in each wavelength band The following equation holds between the two.
  • the ratio of receiving light in the first wavelength band ⁇ 1 is b41
  • the ratio of receiving light in the second wavelength band ⁇ 2 is b42
  • the ratio of receiving light in the third wavelength band ⁇ 3 is received.
  • the ratio is b43
  • the ratio at which light in the fourth wavelength band ⁇ 4 is received is b44
  • the pixel signal xnir output from the NIR pixel and the pixel signals X1, X2, X3, X4 of the corresponding pixels of the image in each wavelength band The following equation holds between the two.
  • X1 to X4 which are solutions of simultaneous equations composed of the above equations (2) to (5), are calculated by multiplying both sides of the above equation (6) by the inverse matrix B -1 of the matrix B. That is, it is calculated by the following formula (7).
  • the pixel signals X1 to X4 of each pixel constituting the image in each wavelength region can be calculated from the four pixel signals xb, xg, xr, and xnir of each pixel block.
  • the ratio of light received in each wavelength band in each of the B pixel, G pixel, R pixel, and NIR pixel is determined as follows.
  • FIG. 6 is a graph for obtaining the sensitivity of each pixel when light having a wavelength of 550 [nm] is incident on the optical system.
  • the sensitivity of each pixel when light having a wavelength of 550 [nm] (light having the center wavelength of the first wavelength band ⁇ 1) is incident on the optical system 10 is 7.00 for B pixel and G.
  • the pixel is 32.00, the R pixel is 6.00, and the NIR pixel is 1.70.
  • FIG. 7 is a graph for obtaining the sensitivity of each pixel when light having a wavelength of 660 [nm] is incident on the optical system.
  • the sensitivity of each pixel when light having a wavelength of 660 [nm] (light having the central wavelength of the second wavelength band ⁇ 2) is incident on the optical system 10 is 1.00 for the B pixel and G.
  • the pixel is 2.50
  • the R pixel is 19.50
  • the NIR pixel is 5.00.
  • FIG. 8 is a graph for obtaining the sensitivity of each pixel when light having a wavelength of 735 [nm] is incident on the optical system.
  • the sensitivity of each pixel when light having a wavelength of 735 [nm] (light having the center wavelength of the third wavelength band ⁇ 3) is incident on the optical system 10 is 3.00 for the B pixel and G.
  • the pixel is 6.00
  • the R pixel is 14.50
  • the NIR pixel is 9.00.
  • FIG. 9 is a graph for obtaining the sensitivity of each pixel when light having a wavelength of 790 [nm] is incident on the optical system.
  • the sensitivity of each pixel when light having a wavelength of 790 [nm] (light having a central wavelength of the fourth wavelength band ⁇ 4) is incident on the optical system 10 is 8.00 for B pixel and G.
  • the pixel is 12.00, the R pixel is 16.00, and the NIR pixel is 27.00.
  • the incident light amount of the light of each wavelength can be regarded as a pixel signal when the light of each wavelength is received.
  • the pixel signal when light with a wavelength of 550 [nm] is received is X1
  • the pixel signal when light with a wavelength of 660 [nm] is received is X2
  • the pixel signal when light with a wavelength of 735 [nm] is received is X3.
  • the pixel signal when receiving light having a wavelength of 790 [nm] is X4.
  • the product of the pixel signal and sensitivity when light with a wavelength of 550 [nm] is received is 7.00 * X1
  • the product of the pixel signal and sensitivity when light with a wavelength of 660 [nm] is received.
  • a certain 1.00 * X2 a pixel signal when receiving light having a wavelength of 735 [nm] and a sensitivity, which is 3.00 * X3, and a pixel signal when receiving light having a wavelength of 790 [nm].
  • the sum of 8.00 * X4 which is the product of sensitivities, is output as a pixel signal.
  • the product of the pixel signal and sensitivity when light with a wavelength of 550 [nm] is received is 32.00 * X1
  • the product of the pixel signal and sensitivity when light with a wavelength of 660 [nm] is received.
  • a certain 2.50 * X2 a pixel signal when receiving light having a wavelength of 735 [nm] and a sensitivity, which is the product of 6.00 * X3, and a pixel signal when receiving light having a wavelength of 790 [nm].
  • the sum of 12.00 * X4 which is the product of sensitivities, is output as a pixel signal.
  • xg 32.00 * X1 + 2.50 * X2 + 6.00 * X3 + 12.00 * X4. Since the light in each wavelength band transmitted by the multi-band pass filter 14 is narrow band light, this relationship is related to the light in the first wavelength band ⁇ 1 having a center wavelength of 550 [nm] and the light having a center wavelength of 660 [nm].
  • the light in each wavelength band is a G pixel. It can be regarded as the relationship of the ratio of light reception.
  • the product of 6.00 * X1 which is the product of the pixel signal and sensitivity when light with a wavelength of 550 [nm] is received, and the product of the pixel signal and sensitivity when light with a wavelength of 660 [nm] is received.
  • a certain 19.50 * X2 a pixel signal when receiving light having a wavelength of 735 [nm] and a sensitivity product of 14.50 * X3, and a pixel signal when receiving light having a wavelength of 790 [nm].
  • the sum of 16.00 * X4 which is the product of sensitivities, is output as a pixel signal.
  • xr 6.00 * X1 + 19.50 * X2 + 14.50 * X3 + 16.00 * X4. Since the light in each wavelength band transmitted by the multi-band pass filter 14 is narrow band light, this relationship is related to the light in the first wavelength band ⁇ 1 having a center wavelength of 550 [nm] and the light having a center wavelength of 660 [nm].
  • the light in each wavelength band is an R pixel. It can be regarded as the relationship of the ratio of light reception.
  • the product of 1.70 * X1 which is the product of the pixel signal and sensitivity when light with a wavelength of 550 [nm] is received, and the product of the pixel signal and sensitivity when light with a wavelength of 660 [nm] is received.
  • a certain 5.00 * X2 a pixel signal when receiving light having a wavelength of 735 [nm] and a sensitivity, which is the product of 9.00 * X3, and a pixel signal when receiving light having a wavelength of 790 [nm].
  • the sum of 27.00 * X4 which is the product of sensitivities, is output as a pixel signal.
  • xnir 1.70 * X1 + 5.00 * X2 + 9.00 * X3 + 27.00 * X4. Since the light in each wavelength band transmitted by the multi-band pass filter 14 is narrow band light, this relationship is related to the light in the first wavelength band ⁇ 1 having a center wavelength of 550 [nm] and the light having a center wavelength of 660 [nm].
  • the light of each wavelength band is the NIR pixel. It can be regarded as the relationship of the ratio of light reception.
  • FIG. 10 is a table showing the ratio of light in each wavelength band received by each pixel.
  • the light in the first wavelength band ⁇ 1 (center wavelength 550 [nm]) is 7.00
  • the light in the second wavelength band ⁇ 2 (center wavelength 660 [nm]) is 1.
  • light in the third wavelength band ⁇ 3 (center wavelength 735 [nm]) is incident at a rate of 3.00
  • light in the fourth wavelength band ⁇ 4 (center wavelength 790 [nm]) is incident at a rate of 8.00.
  • the light in the first wavelength band ⁇ 1 (center wavelength 550 [nm]) is 32.00
  • the light in the second wavelength band ⁇ 2 (center wavelength 660 [nm]) is 2.50
  • the third Light in the wavelength band ⁇ 3 (center wavelength 735 [nm]) is incident at a rate of 6.00
  • light in the fourth wavelength band ⁇ 4 (center wavelength 790 [nm]) is incident at a rate of 12.00.
  • the light in the first wavelength band ⁇ 1 (center wavelength 550 [nm]) is 6.00
  • the light in the second wavelength band ⁇ 2 (center wavelength 660 [nm]) is 19.50
  • the third Light in the wavelength band ⁇ 3 (center wavelength 735 [nm]) is incident at a rate of 14.50
  • light in the fourth wavelength band ⁇ 4 (center wavelength 790 [nm]) is incident at a ratio of 16.00.
  • the light in the first wavelength band ⁇ 1 (center wavelength 550 [nm]) is 1.70
  • the light in the second wavelength band ⁇ 2 (center wavelength 660 [nm]) is 5.00
  • the third Light in the wavelength band ⁇ 3 (center wavelength 735 [nm]) is incident at a rate of 9.00
  • light in the fourth wavelength band ⁇ 4 (center wavelength 790 [nm]) is incident at a rate of 27.00.
  • the inverse matrix B -1 of the matrix B is as follows.
  • the formula for calculating X4 is as shown in the following formula (8).
  • the coefficient storage unit 200C stores each element aij of the matrix A of 4 rows and 4 columns as a coefficient group.
  • the coefficient storage unit 200C is an example of a storage unit.
  • the multispectral image generation unit 200B acquires a coefficient group from the coefficient storage unit 200C and sets an arithmetic expression. Then, based on the set arithmetic expression, the pixel signals X1, X2, X3, and X4 of each wavelength band are calculated, and an image of each wavelength band is generated. That is, from the pixel signals xb, xg, xr, xnir of each pixel (B pixel, G pixel, R pixel and NIR pixel) obtained from each pixel block PB (x, y), based on the above equation (8). The pixel signals X1 to X4 of the corresponding pixels of the image of each wavelength band are calculated, and the image of each wavelength band is generated.
  • the multispectral image generation unit 200B is an example of a calculation unit.
  • the image of each wavelength band generated by the multispectral image generation unit 200B is output from the output unit 200D to the outside.
  • the image output from the output unit 200D is stored in a storage device (not shown) as needed. In addition, it is displayed on a display (not shown) as needed.
  • FIG. 11 is a conceptual diagram of the operation (signal processing method) of the image pickup apparatus of the present embodiment.
  • the light from the subject O incident on the optical system 10 is separated into light in four wavelength bands by the multi-bandpass filter 14 provided in the optical system 10, and each pixel (B pixel, G pixel) of the image sensor 100 is separated. , R pixel and NIR pixel).
  • the light in the first wavelength band ⁇ 1 having a center wavelength of 550 [nm] the light in the second wavelength band ⁇ 2 having a center wavelength of 660 [nm]
  • the light in the third wavelength band ⁇ 3 and the light in the fourth wavelength band ⁇ 4 having a center wavelength of 790 [nm] are separated and incident on each pixel of the image sensor 100.
  • Each pixel (B pixel, G pixel, R pixel, and NIR pixel) of the image sensor 100 outputs signals (pixel signals) xb, xg, xr, and xnir according to the amount of light received to the signal processing device 200.
  • the signal processing device 200 acquires the pixel signals of each pixel output from the image sensor 100 (steps of acquiring n pixel signals x1, x2, ..., Xn obtained from each pixel block of the image sensor).
  • the signal processing device 200 generates an image (image data) of each wavelength band from the acquired pixel signals xb, xg, xr, and xnir. Specifically, using the equation (8), the pixel signals X1, X2, X3, and X4 of each pixel constituting the image of each wavelength band are converted into the pixel signals xb, xg, xr of the pixel block of the corresponding pixel position. , Xnir (step of calculating m pixel signals X1, X2, ..., Xm corresponding to the wavelength band of the light transmitted through the multi-bandpass filter), and an image of each wavelength band is generated.
  • the equation (8) is set by reading out the coefficient (each element aij of the matrix A) from the coefficient storage unit 200C.
  • one optical system 10 and one image sensor 100 can acquire images in four wavelength bands at a time.
  • High quality images are obtained. That is, as long as the light can be correctly separated in the optical system, the image of each wavelength band can be reproduced by signal processing, so that a high-quality multispectral image can be obtained. Since the multi-bandpass filter can separate light in a desired wavelength band with high accuracy, the light separation itself can be easily performed. Therefore, even an image having an extremely narrow band having a bandwidth of 10 to 20 [nm] can be acquired with high quality.
  • the image pickup apparatus of the present embodiment does not need to divide the pupil portion of the optical system or provide the image sensor with a light ray separation function, so that the configuration can be extremely simplified. Moreover, since the pupil portion is not divided, there is no difference in the pupil position. As a result, it is possible to generate an image without parallax between the images. Moreover, since the central part of the optical system can be used, a high-quality image without aberration can be obtained.
  • the multi-bandpass filter also has the effect of having a high degree of freedom in installation.
  • the optical system is configured to separate the incident light into light having m wavelength bands and incident the incident light on the image sensor.
  • the optical system is provided with a multi-bandpass filter having m wavelength bands of transmitted light.
  • the wavelength band transmitted by the multi-bandpass filter is the wavelength band of the image to be acquired.
  • one pixel block is composed of m or more pixels, and each pixel is provided with an optical filter having different spectral transmittances. Assuming that the number of pixels constituting one pixel block is n, n is an integer satisfying 2 ⁇ m ⁇ n.
  • the pixels constituting one pixel block may have at least m or more pixels of different optical filters. That is, as long as the number of pixels of different optical filters is m or more, one pixel block may include pixels of the same optical filter.
  • n pixel signals obtained from each pixel block of the image sensor are x1, x2, ..., Xn, m wavelength bands (light transmitted through a multi-bandpass filter)
  • aij Each element of the pixel signals X1, X2, ..., Xm in the wavelength band of
  • i is an integer satisfying 1 ⁇ i ⁇ m
  • j is an integer satisfying 1 ⁇ j ⁇ n. It is calculated by the following equation (9) using the matrix A of m rows and n columns.
  • the matrix A is an inverse matrix (inverse matrix) of a matrix (matrix B) whose element is the ratio of light in each wavelength band transmitted through the multi-band pass filter received by each pixel of each pixel block of the image sensor.
  • B -1 is calculated and obtained.
  • the ratio at which each element of the matrix B, that is, the light of each wavelength band transmitted through the multi-bandpass filter is received by each pixel of each pixel block of the image sensor is as described in the above embodiment.
  • the above equation (9) holds when the matrix B is an invertible matrix. That is, there is an inverse matrix in the matrix B. Therefore, it is necessary to set the matrix B to be an invertible matrix for the wavelength band selected by the multi-bandpass filter and the optical filter provided in the image sensor. If the matrix B is not a square matrix (n ⁇ m, m ⁇ n), the multi-bandpass filter and the optical filter are set so that the generalized inverse matrix (pseudo-inverse matrix) exists in the matrix B. ..
  • the configuration can be simplified by making the number n of the pixels constituting one pixel block and the number m of the wavelength band of the light transmitted through the multi-bandpass filter the same number.
  • arithmetic processing can be speeded up.
  • the bandwidth of each wavelength band transmitted by the multi-bandpass filter is set according to the application of the imaging device, but is preferably 40 [nm] or less. For example, when it is used in an environment where a sufficient amount of light can be obtained, it can be set to 20 [nm] or 10 [nm]. By narrowing the band, the separation of light rays can be improved and a higher quality multispectral image can be generated.
  • the combination of optical filters provided in each pixel of the image sensor is not limited to the example of the above embodiment.
  • An optical filter that transmits light to another wavelength band can also be used in combination.
  • the optical filter provided in each pixel of the image sensor and the light in each wavelength band transmitted by the multi-bandpass filter are required to satisfy the following conditions. That is, it is possible to set a matrix (matrix B) whose element is the ratio of light in each wavelength band transmitted through the multi-band pass filter received by each pixel of each pixel block of the image sensor, and the matrix (matrix B). ), The condition is that the inverse matrix (inverse matrix B -1 ) can be calculated. As a result, the above equation (1) can be set, and an image of each wavelength band can be generated from the output of the image sensor.
  • each wavelength band transmitted by the multi-bandpass filter while avoiding a region where the spectral sensitivity curve of the optical filter changes significantly (a region where the change is steep). That is, it is preferable to set in a region where the amount of change in the spectral sensitivity curve of the optical filter is equal to or less than the threshold value (the amount of change in the spectral sensitivity curve of the optical filter within the wavelength band transmitted by the multi-bandpass filter is equal to or less than the threshold value. It is preferable to do so).
  • each wavelength band transmitted by the multi-bandpass filter in a region where the fluctuation of the spectral sensitivity curve is small. Therefore, it is preferable to set the inflection point in a region where the inflection point is 1 or less (preferably, the inflection point in the wavelength band transmitted by the multi-bandpass filter is 1 or less).
  • the multi-bandpass filter also has the effect of having a high degree of freedom in installation.
  • various multispectral images can be acquired.
  • the multi-bandpass filter can be interchangeably configured by, for example, being detachably attached to the tip of the lens barrel. Alternatively, it can be interchangeably configured by using a turret mechanism or the like installed in the optical path.
  • a multi-bandpass filter unique to each optical system may be provided, and the multi-bandpass filter may be exchanged at the same time by exchanging the optical system.
  • the optical system can be detachably attached via a mount.
  • the matrix A is obtained for each interchangeable multi-bandpass filter, and the coefficient group is stored in the coefficient storage unit 200C which is a storage unit.
  • the multi-spectral image generation unit 200B which is a calculation unit, acquires a coefficient group corresponding to the multi-bandpass filter mounted on the optical system from the coefficient storage unit 200C and generates an image of each wavelength band.
  • the information (type) of the multi-bandpass filter mounted on the optical system may be manually input by the user, or may be automatically acquired by communicating with the signal processing device 200 and the optical system 10. May be.
  • the function of the multispectral image generation unit 200B (calculation unit) in the signal processing device 200 can be realized by using various processors.
  • the various processors include, for example, a CPU (Central Processing Unit), which is a general-purpose processor that executes software (a program (signal processing program in the present invention)) to realize various functions.
  • the above-mentioned various processors include programmable logic devices (Programmable) which are processors whose circuit configurations can be changed after manufacturing such as GPU (Graphics Processing Unit) and FPGA (Field Programmable Gate Array) which are processors specialized in image processing.
  • Logic Device PLD
  • the above-mentioned various processors also include a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing a specific process such as an ASIC (Application Specific Integrated Circuit).
  • each part may be realized by one processor, or may be realized by a plurality of processors of the same type or different types (for example, a plurality of FPGAs, or a combination of a CPU and an FPGA, or a combination of a CPU and a GPU). Further, a plurality of functions may be realized by one processor. As an example of configuring a plurality of functions with one processor, first, as represented by a computer such as a server, one processor is configured by a combination of one or more CPUs and software, and there are a plurality of these processors. There is a form realized as a function of.
  • SoC System On Chip
  • various functions are configured by using one or more of the above-mentioned various processors as a hardware structure.
  • the hardware structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
  • These electric circuits may be electric circuits that realize the above functions by using logical sum, logical product, logical denial, exclusive OR, and logical operations combining these.
  • the processor (computer) readable code of the software to be executed is stored in a non-temporary recording medium such as ROM (Read Only Memory), and the processor Refers to the software.
  • the software stored in the non-temporary recording medium includes a program for executing image input, analysis, display control, and the like.
  • the code may be recorded on a non-temporary recording medium such as various optical magnetic recording devices or semiconductor memories instead of the ROM.
  • RAM Random Access Memory
  • EEPROM Electrical Erasable and Programmable Read Only Memory
  • the coefficient storage unit 200C of the signal processing device 200 can be realized by, for example, a memory such as a ROM (Read-only Memory) or an EEPROM (Electrically Erasable Programmable Read-only Memory).
  • a memory such as a ROM (Read-only Memory) or an EEPROM (Electrically Erasable Programmable Read-only Memory).
  • the image pickup device can also be configured as an interchangeable lens type image pickup device in which the optical system can be exchanged.
  • the matrix A is uniquely determined for each lens (optical system)
  • a matrix A is prepared for each lens, and the coefficient group thereof is stored in the coefficient storage unit.
  • the coefficient group of the matrix A corresponding to the exchanged lens is read out from the coefficient storage unit, arithmetic processing is executed, and an image of each optical region is generated.
  • Imaging device 10 Optical system 12 Lens 14 Multi-band pass filter 100 Image sensor 200
  • Signal processing device 200A Analog signal processing unit 200B
  • Multispectral image generation unit 200C Coefficient storage unit 200D
  • Output unit Cb Pixel spectral sensitivity curve Cg G pixel spectroscopy Sensitivity curve Cr R R pixel spectral sensitivity curve Cnir NIR pixel spectral sensitivity curve BB Pixel provided with a filter (B pixel) Pixel with GG filter (G pixel) Pixel with RR filter (R pixel) NIR Pixel with NIR filter (NIR pixel) L

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

高品質なマルチスペクトル画像を取得できる撮像装置、信号処理装置、信号処理方法及び信号処理プログラムを提供する。撮像装置(1)は、nを2≦nを満たす整数とした場合に、互いに分光透過率の異なる光学フィルタを備えたn個の画素で構成される画素ブロックを複数備えたイメージセンサ(100)と、mを2≦m≦nを満たす整数とした場合に、透過する光の波長帯域がm個のマルチバンドパスフィルタを備えた光学系(10)と、イメージセンサ(100)の各画素ブロックから得られるn個の画素信号(x1、x2、…、xn)から、マルチバンドパスフィルタを透過する光の波長帯域に対応したm個の画素信号(X1、X2、…、Xm)を算出して、各波長帯域の画像(マルチスペクトル画像)を生成する信号処理装置(200)と、を備える。

Description

撮像装置、信号処理装置、信号処理方法及び信号処理プログラム
 本発明は、撮像装置、信号処理装置、信号処理方法及び信号処理プログラムに係り、特に、複数の波長帯域の画像を取得する撮像装置、信号処理装置、信号処理方法及び信号処理プログラムに関する。
 複数の波長帯域の画像を撮像する装置として、マルチスペクトルカメラ(マルチ分光カメラ、マルチバンドカメラなどともいう)が知られている。マルチスペクトルカメラで得られる画像は、マルチスペクトル画像と称される。
 特許文献1には、光学系の瞳部分を分割して各領域に分光透過率の異なる光学フィルタを配置し、かつ、イメージセンサの前方に光線分離機能を有するマイクロレンズアレイを配置することにより、1つのイメージセンサでマルチスペクトル画像を撮像する装置が提案されている。しかし、マイクロレンズアレイによる光線分離は必ずしも完全ではない。このため、特許文献1の装置では、隣接する画素に光が漏れ、いわゆる混信(クロストーク)が発生するという問題がある。この問題を解決するため、特許文献2では、各画素から得られる信号(画素信号)に所定の信号処理を施して、混信の影響を除去することが提案されている。
 また、特許文献3には、内視鏡での撮像において、撮像素子に備えられたR画素、G画素及びB画素の各波長帯域に対応した3つの狭帯域光を被写体に照射し、得られた信号を処理して、3つの狭帯域の信号を取得する技術が提案されている。
国際公開第2012/143983号 国際公開第2015/004886号 国際公開第2017/085793号
 しかしながら、マイクロレンズアレイを用いて光線を分離した場合に各画素で生じる混信の量は、画素の位置によって異なる。したがって、特許文献2の手法で、より高品質な画像を得るには、画素ごとに混信の発生量を正確に求める必要がある。しかし、これには多大な労力を要する。
 一方、特許文献3に記載の技術は、体腔内を撮像する場合のように、環境光の影響を受けない特殊な環境下でのみ使用でき、環境光の影響を受ける通常の撮像では、使用できないという欠点がある。また、特殊な光源を別途用意する必要があり、システムが大掛かりになるという欠点もある。
 本発明は、このような事情に鑑みてなされたもので、高品質なマルチスペクトル画像を取得できる撮像装置、信号処理装置、信号処理方法及び信号処理プログラムを提供することを目的とする。
 上記課題を解決するための手段は、次のとおりである。
 (1)nを2≦nを満たす整数とした場合に、互いに分光透過率の異なる光学フィルタを備えたn個の画素で構成される画素ブロックを複数備えたイメージセンサと、mを2≦m≦nを満たす整数とした場合に、透過する光の波長帯域がm個のマルチバンドパスフィルタを備えた光学系と、iを1≦i≦mを満たす整数、jを1≦j≦nを満たす整数とした場合に、各要素がaijで表されるm行n列の行列Aで構成される係数群を記憶する記憶部と、記憶部から係数群を取得し、イメージセンサの各画素ブロックから得られるn個の画素信号x1、x2、…、xnから、下記式によって、マルチバンドパスフィルタを透過する光の波長帯域に対応したm個の画素信号X1、X2、…、Xmを算出する演算部と、
Figure JPOXMLDOC01-appb-M000005
 を備える撮像装置。
 (2)行列Aは、マルチバンドパスフィルタを透過した各波長帯域の光が、イメージセンサの各画素ブロックの各画素で受光される割合を要素とする行列の逆行列を算出して取得される、上記(1)の撮像装置。
 (3)イメージセンサの1つの画素ブロックを構成する画素の数nと、マルチバンドパスフィルタが透過する光の波長帯域の数mとが同数である、上記(1)又は(2)の撮像装置。
 (4)マルチバンドパスフィルタは、透過させる各波長帯域の帯域幅が40nm以下である、上記(1)から(3)のいずれか一の撮像装置。
 (5)マルチバンドパスフィルタで透過させる各波長帯域は、光学フィルタの分光感度曲線の変化量が閾値以下となる領域で設定される、上記(1)から(4)のいずれか一の撮像装置。
 (6)マルチバンドパスフィルタで透過させる各波長帯域は、光学フィルタの分光感度曲線の変曲点が1以下となる領域で設定される、上記(1)から(5)のいずれか一の撮像装置。
 (7)マルチバンドパスフィルタが交換可能であり、記憶部は、交換可能なマルチバンドパスフィルタごとに係数群を記憶し、演算部は、光学系に装着されたマルチバンドパスフィルタに対応する係数群を記憶部から取得して、マルチバンドパスフィルタを透過する光の波長帯域に対応したm個の画素信号X1、X2、…、Xmを算出する、上記(1)から(6)のいずれか一の撮像装置。
 (8)nを2≦nを満たす整数とした場合に、互いに分光透過率の異なる光学フィルタを備えたn個の画素で構成される画素ブロックを複数備えたイメージセンサと、mを2≦m≦nを満たす整数とした場合に、透過する光の波長帯域がm個のマルチバンドパスフィルタを備えた光学系と、を備えた撮像装置のイメージセンサから得られる信号を処理する信号処理装置であって、iを1≦i≦mを満たす整数、jを1≦j≦nを満たす整数とした場合に、各要素がaijで表されるm行n列の行列Aで構成される係数群を記憶する記憶部と、記憶部から係数群を取得し、イメージセンサの各画素ブロックから得られるn個の画素信号x1、x2、…、xnから、下記式によって、マルチバンドパスフィルタを透過する光の波長帯域に対応したm個の画素信号X1、X2、…、Xmを算出する演算部と、
Figure JPOXMLDOC01-appb-M000006
 を備える信号処理装置。
 (9)nを2≦nを満たす整数とした場合に、互いに分光透過率の異なる光学フィルタを備えたn個の画素で構成される画素ブロックを複数備えたイメージセンサと、mを2≦m≦nを満たす整数とした場合に、透過する光の波長帯域がm個のマルチバンドパスフィルタを備えた光学系と、を備えた撮像装置のイメージセンサから得られる信号を処理する信号処理方法であって、イメージセンサの各画素ブロックから得られるn個の画素信号x1、x2、…、xnを取得するステップと、iを1≦i≦mを満たす整数、jを1≦j≦nを満たす整数とした場合に、各要素がaijで表されるm行n列の行列Aを用いた下記式によって、マルチバンドパスフィルタを透過する光の波長帯域に対応したm個の画素信号X1、X2、…、Xmを算出するステップと、
Figure JPOXMLDOC01-appb-M000007
 を含む信号処理方法。
 (10)nを2≦nを満たす整数とした場合に、互いに分光透過率の異なる光学フィルタを備えたn個の画素で構成される画素ブロックを複数備えたイメージセンサと、mを2≦m≦nを満たす整数とした場合に、透過する光の波長帯域がm個のマルチバンドパスフィルタを備えた光学系と、を備えた撮像装置のイメージセンサから得られる信号を処理する信号処理プログラムであって、イメージセンサの各画素ブロックから得られるn個の画素信号x1、x2、…、xnを取得する機能と、iを1≦i≦mを満たす整数、jを1≦j≦nを満たす整数とした場合に、各要素がaijで表されるm行n列の行列Aを用いた下記式によって、マルチバンドパスフィルタを透過する光の波長帯域に対応したm個の画素信号X1、X2、…、Xmを算出する機能と、
Figure JPOXMLDOC01-appb-M000008
 をコンピュータに実現させる信号処理プログラム。
 本発明によれば、高品質なマルチスペクトル画像を取得できる。
本実施の形態の撮像装置の概略構成を示す図 本実施の形態の撮像装置に用いられるマルチバンドパスフィルタの分光特性の一例を示すグラフ イメージセンサの画素の配列の概略構成を示す図 R画素、G画素、B画素及びNIR画素の分光感度特性の一例を示す図 信号処理装置の概略構成を示すブロック図 光学系に波長550[nm]の光を入射した場合の各画素の感度を求めるグラフ 光学系に波長660[nm]の光を入射した場合の各画素の感度を求めるグラフ 光学系に波長735[nm]の光を入射した場合の各画素の感度を求めるグラフ 光学系に波長790[nm]の光を入射した場合の各画素の感度を求めるグラフ 各波長帯域の光が各画素で受光される割合を示す表 本実施の形態の撮像装置の動作の概念図
 以下、添付図面に従って本発明の好ましい実施の形態について詳説する。
 [装置構成]
 ここでは、マルチスペクトル画像として、4つの波長帯域の画像を取得(撮像)する場合を例に説明する。
 図1は、本実施の形態の撮像装置の概略構成を示す図である。
 同図に示すように、撮像装置1は、光学系10、イメージセンサ100及び信号処理装置200を備えて構成される。
 〈光学系〉
 光学系10は、撮像装置1の用途に応じたレンズ構成を有する。したがって、必要に応じてレンズに反射鏡及びプリズム等が組み合わされる。なお、図1では、光学系10を構成するレンズ等を1枚のレンズ12で簡略化して示している。光学系10は、全体又は一部のレンズ群が光軸Lに沿って前後移動することにより、焦点調節される。また、その光路中に備えられた絞り(不図示)によって、イメージセンサ100への入射光量が調節される。
 光学系10は、更にマルチバンドパスフィルタ14を有する。マルチバンドパスフィルタ14は、複数の波長帯域の光(複数の中心波長の光)を選択的に透過させる機能を備えた光学フィルタである。マルチバンドパスフィルタ自体は公知であるため、その詳細についての説明は省略する。
 図2は、本実施の形態の撮像装置に用いられるマルチバンドパスフィルタの分光特性の一例を示すグラフである。同図において、横軸は波長(nm)、縦軸は透過率(%)を表わしている。
 図2に示すように、本実施の形態の撮像装置に用いられるマルチバンドパスフィルタは、4つの波長帯域の光を選択的に透過させる。透過させる各波長帯域の帯域幅(半値幅)は、いずれも40[nm]以下であり、いわゆる狭帯域である。
 第1の波長帯域Λ1の光は、中心波長が550[nm]の光である。第2の波長帯域Λ2の光は、中心波長が660[nm]の光である。第3の波長帯域Λ3の光は、中心波長が735[nm]の光である。第4の波長帯域Λ4の光は、中心波長が790[nm]の光である。
 マルチバンドパスフィルタ14で透過させる波長帯域は、マルチスペクトル画像として取得する各画像の波長帯域である。したがって、図2に示す分光特性は、マルチスペクトル画像として、中心波長が550[nm]の第1の波長帯域Λ1の画像と、中心波長が660[nm]の第2の波長帯域Λ2の画像と、中心波長が735[nm]の第3の波長帯域Λ3の画像と、中心波長が790[nm]の第4の波長帯域Λ4の画像とを取得する場合の例である。
 光学系10に入射した光は、マルチバンドパスフィルタ14を通過することにより、中心波長が550[nm]の第1の波長帯域Λ1の光と、中心波長が660[nm]の第2の波長帯域Λ2の光と、中心波長が735[nm]の第3の波長帯域Λ3の光と、中心波長が790[nm]の第4の波長帯域Λ4の光とに分離されて、イメージセンサ100に入射する。
 〈イメージセンサ〉
 イメージセンサ100は、たとえば、CCD(Charge-Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子で構成される。
 図3は、イメージセンサの画素の配列の概略構成を示す図である。
 イメージセンサ100は、その受光面に複数の画素を有する。画素は、水平方向(x方向)及び垂直方向(y方向)に沿って一定ピッチで規則的に配列される。
 各画素は、受光素子であるフォトダイオード、光学フィルタ及び集光レンズを備える。集光レンズ(いわゆるマイクロレンズ)は、光学系10からの光をフォトダイオードに集光する。光学フィルタは、所定の波長帯域の光を選択的に透過させる。各画素には、互いに分光透過率の異なる4つの光学フィルタのいずれか1つが備えられる。本実施の形態において、4つの光学フィルタは、赤色(R;red)の波長帯域の光を透過するRフィルタ、緑色(G;green)の波長帯域の光を透過するGフィルタ、青色(B;blue)の波長帯域の光を透過するBフィルタ、及び、近赤外(NIR;near-infrared)の波長帯域の光を透過するNIRフィルタで構成される。
 図3において、符号Rで示す画素は、Rフィルタが備えられた画素である。符号Gで示す画素は、Gフィルタが備えられた画素である。符号Bで示す画素は、Bフィルタが備えられた画素である。符号NIRで示す画素は、NIRフィルタが備えられた画素である。以下、必要に応じて、Rフィルタが備えられた画素をR画素、Gフィルタが備えられた画素をG画素、Bフィルタが備えられた画素をB画素、NIRフィルタが備えられた画素をNIR画素と称して、他の画素と区別する。
 図3に示すように、R画素、G画素、B画素及びNIR画素は規則的に配置される。具体的には、R画素、G画素、B画素及びNIR画素で1つの画素ブロックPB(x,y)が構成され、その画素ブロックが水平方向(x方向)及び垂直方向(y方向)に沿って規則的に配置される。したがって、1つのイメージセンサ100には、画素ブロックPB(x,y)が複数備えられる。図3は、2×2の配置(水平方向に2画素、垂直方向に2画素の配置)で1つの画素ブロックが構成される場合の例を示している。また、図3は、左上にB画素、右上にG画素、左下にR画素、右下にNIR画素が配置されて、1つの画素ブロックが構成される場合の例を示している。なお、符号PB(x,y)における(x,y)は、xy平面上での画素ブロックの位置を表わしている。
 図4は、R画素、G画素、B画素及びNIR画素の分光感度特性の一例を示す図である。同図において、横軸は波長(nm)、縦軸は分光感度を表わしている。また、同図において、符号CrはR画素の分光感度曲線、符号CgはG画素の分光感度曲線、符号CbはB画素の分光感度曲線、及び、符号CnirはNIR画素の分光感度曲線を示している。
 同図に示すように、R画素は、赤色(R)の波長帯域の光を高い感度で受光する特性を有する。G画素は、緑色(G)の波長帯域の光を高い感度で受光する特性を有する。B画素は、青色(B)の波長帯域の光を高い感度で受光する特性を有する。NIR画素は、近赤外(NIR)の波長帯域の光を高い感度で受光する特性を有する。
 〈信号処理装置〉
 信号処理装置200は、イメージセンサ100から出力される信号を処理して、マルチスペクトル画像を生成する。本実施の形態では、4つの波長帯域の画像(画像データ)を生成する。具体的には、中心波長が550[nm]の第1の波長帯域Λ1の画像、中心波長が660[nm]の第2の波長帯域Λ2の画像、中心波長が735[nm]の第3の波長帯域Λ3の画像、及び、中心波長が790[nm]の第4の波長帯域Λ4の画像を生成する。
 図5は、信号処理装置の概略構成を示すブロック図である。
 同図に示すように、信号処理装置200は、アナログ信号処理部200A、マルチスペクトル画像生成部200B、係数記憶部200C及び出力部200Dを備えて構成される。
 アナログ信号処理部200Aは、イメージセンサ100の各画素から出力されるアナログの画素信号を取り込み、所定の信号処理(たとえば、相関二重サンプリング処理、増幅処理等)を施し、最終的にデジタル信号に変換して出力する。
 マルチスペクトル画像生成部200Bは、アナログ信号処理部200Aから出力されたデジタルの画素信号を取り込み、所定の信号処理を施してマルチスペクトル画像を生成する。この画像は、マルチバンドパスフィルタ14で分離した4つの波長帯域Λ1~Λ4に対応した4つの波長帯域の画像である。
 各波長帯域の画像は、各画像を構成する各画素の信号値(画素信号)を、行列Aを用いた下記式(1)により求めて生成される。
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000010
 ここで、X1は、第1の波長帯域Λ1の画像の画素位置p(x,y)の画素信号、X2は、第2の波長帯域Λ2の画像の画素位置p(x,y)の画素信号、X3は、第3の波長帯域Λ3の画像の画素位置p(x,y)の画素信号、X4は、第4の波長帯域Λ4の画像の画素位置p(x,y)の画素信号である。
 また、xbは、画素ブロックPB(x,y)のB画素で得られた画素信号である。xgは、画素ブロックPB(x,y)のG画素で得られた画素信号である。xrは、画素ブロックPB(x,y)のR画素で得られた画素信号である。xnirは、画素ブロックPB(x,y)のNIR画素で得られた画素信号である。
 また、画素位置p(x,y)は、画素ブロックPB(x,y)の位置と一対一で対応する。したがって、たとえば、画素位置p(1,1)は、画素ブロックPB(1,1)の位置に対応する。
 以下、上記式(1)によって、各波長帯域の画像を構成する各画素の画素信号を算出できる理由について説明する。
 イメージセンサ100の各画素には、光学系10を通過した光が入射する。本実施の形態の撮像装置1の光学系10には、マルチバンドパスフィルタ14が備えられている。このため、イメージセンサ100の各画素には、マルチバンドパスフィルタ14で分離された各波長帯域の光が入射する。本実施の形態では、マルチバンドパスフィルタ14によって4つの波長帯域の光に分離されるので、4つの波長帯域の光が入射する。
 マルチバンドパスフィルタ14で分離された各波長帯域の光がイメージセンサ100の各画素で受光される割合は、各画素に備えられた光学フィルタとの関係で一意に定まる。
 いま、B画素について、第1の波長帯域Λ1の光が受光される割合をb11、第2の波長帯域Λ2の光が受光される割合をb12、第3の波長帯域Λ3の光が受光される割合をb13、第4の波長帯域Λ4の光が受光される割合をb14とすると、B画素から出力される画素信号xbと各波長帯域の画像の対応画素の画素信号X1、X2、X3,X4との間には、次式(2)の関係が成り立つ(式中の記号「*」は、積算の記号)。
 b11*X1+b12*X2+b13*X3+b14*X4=xb…(2)
 同様に、G画素について、第1の波長帯域Λ1の光が受光される割合をb21、第2の波長帯域Λ2の光が受光される割合をb22、第3の波長帯域Λ3の光が受光される割合をb23、第4の波長帯域Λ4の光が受光される割合をb24とすると、G画素から出力される画素信号xgと各波長帯域の画像の対応画素の画素信号X1、X2、X3,X4との間には、次式の関係が成り立つ。
 b21*X1+b22*X2+b23*X3+b24*X4=xg…(3)
 また、R画素について、第1の波長帯域Λ1の光が受光される割合をb31、第2の波長帯域Λ2の光が受光される割合をb32、第3の波長帯域Λ3の光が受光される割合をb33、第4の波長帯域Λ4の光が受光される割合をb34とすると、R画素から出力される画素信号xrと各波長帯域の画像の対応画素の画素信号X1、X2、X3,X4との間には、次式の関係が成り立つ。
 b31*X1+b32*X2+b33*X3+b34*X4=xr…(4)
 また、NIR画素について、第1の波長帯域Λ1の光が受光される割合をb41、第2の波長帯域Λ2の光が受光される割合をb42、第3の波長帯域Λ3の光が受光される割合をb43、第4の波長帯域Λ4の光が受光される割合をb44とすると、NIR画素から出力される画素信号xnirと各波長帯域の画像の対応画素の画素信号X1、X2、X3,X4との間には、次式の関係が成り立つ。
 b41*X1+b42*X2+b43*X3+b44*X4=xnir…(5)
 ここで、上記式(2)~(5)からなる連立方程式は、行列Bを用いた下記式(6)で表わすことができる。
Figure JPOXMLDOC01-appb-M000011
Figure JPOXMLDOC01-appb-M000012
 上記式(2)~(5)からなる連立方程式の解であるX1~X4は、上記式(6)の両辺に行列Bの逆行列B-1をかけることで算出される。すなわち、下記の式(7)により算出される。
Figure JPOXMLDOC01-appb-M000013
 このように、各波長領域の画像を構成する各画素の画素信号X1~X4は、各画素ブロックの4つの画素信号xb、xg、xr、xnirから算出できる。
 式(1)は、式(7)の逆行列B-1を行列Aとしたものである。すなわち、行列Aの各要素は、逆行列B-1の各要素で構成される。したがって、行列Aの各要素aij(i=1~4、j=1~4)は、行列Bの逆行列B-1を求めることで取得できる。
 行列Bの各要素bij(i=1~4、j=1~4)は、B画素、G画素、R画素及びNIR画素の各画素において、各波長帯域の光が受光される割合である。B画素、G画素、R画素及びNIR画素の各画素において、各波長帯域の光が受光される割合は、次のように求められる。
 図6は、光学系に波長550[nm]の光を入射した場合の各画素の感度を求めるグラフである。
 同図に示すように、光学系10に波長550[nm]の光(第1の波長帯域Λ1の中心波長の光)を入射した場合の各画素の感度は、B画素が7.00、G画素が32.00、R画素が6.00、NIR画素が1.70である。
 図7は、光学系に波長660[nm]の光を入射した場合の各画素の感度を求めるグラフである。
 同図に示すように、光学系10に波長660[nm]の光(第2の波長帯域Λ2の中心波長の光)を入射した場合の各画素の感度は、B画素が1.00、G画素が2.50、R画素が19.50、NIR画素が5.00である。
 図8は、光学系に波長735[nm]の光を入射した場合の各画素の感度を求めるグラフである。
 同図に示すように、光学系10に波長735[nm]の光(第3の波長帯域Λ3の中心波長の光)を入射した場合の各画素の感度は、B画素が3.00、G画素が6.00、R画素が14.50、NIR画素が9.00である。
 図9は、光学系に波長790[nm]の光を入射した場合の各画素の感度を求めるグラフである。
 同図に示すように、光学系10に波長790[nm]の光(第4の波長帯域Λ4の中心波長の光)を入射した場合の各画素の感度は、B画素が8.00、G画素が12.00、R画素が16.00、NIR画素が27.00である。
 光学系10に波長550[nm]の光、波長660[nm]の光、波長735[nm]の光及び波長790[nm]の光を入射した場合、各画素からは、各波長の光の入射光量と各画素の感度との積の和が出力される。各波長の光の入射光量は、各波長の光を受光した場合の画素信号とみなすことができる。波長550[nm]の光を受光した場合の画素信号をX1、波長660[nm]の光を受光した場合の画素信号をX2、波長735[nm]の光を受光した場合の画素信号をX3、及び、波長790[nm]の光を受光した場合の画素信号をX4とする。
 B画素からは、波長550[nm]の光を受光した場合の画素信号と感度の積である7.00*X1、波長660[nm]の光を受光した場合の画素信号と感度の積である1.00*X2、波長735[nm]の光を受光した場合の画素信号と感度の積である3.00*X3、及び、波長790[nm]の光を受光した場合の画素信号と感度の積である8.00*X4の和が画素信号として出力される。この出力をxbとすると、xb=7.00*X1+1.00*X2+3.00*X3+8.00*X4となる。マルチバンドパスフィルタ14で透過させる各波長帯域の光は、いずれも狭帯域光なので、この関係は、中心波長550[nm]の第1の波長帯域Λ1の光、中心波長660[nm]の第2の波長帯域Λ2の光、中心波長735[nm]の波長帯域Λ3の光、及び、中心波長790[nm]の波長帯域Λ4の光を入射した場合に、各波長帯域の光がB画素で受光される割合の関係とみなすことができる。
 G画素からは、波長550[nm]の光を受光した場合の画素信号と感度の積である32.00*X1、波長660[nm]の光を受光した場合の画素信号と感度の積である2.50*X2、波長735[nm]の光を受光した場合の画素信号と感度の積である6.00*X3、及び、波長790[nm]の光を受光した場合の画素信号と感度の積である12.00*X4の和が画素信号として出力される。この出力をxgとすると、xg=32.00*X1+2.50*X2+6.00*X3+12.00*X4となる。マルチバンドパスフィルタ14で透過させる各波長帯域の光は、いずれも狭帯域光なので、この関係は、中心波長550[nm]の第1の波長帯域Λ1の光、中心波長660[nm]の第2の波長帯域Λ2の光、中心波長735[nm]の波長帯域Λ3の光、及び、中心波長790[nm]の波長帯域Λ4の光を入射した場合に、各波長帯域の光がG画素で受光される割合の関係とみなすことができる。
 R画素からは、波長550[nm]の光を受光した場合の画素信号と感度の積である6.00*X1、波長660[nm]の光を受光した場合の画素信号と感度の積である19.50*X2、波長735[nm]の光を受光した場合の画素信号と感度の積である14.50*X3、及び、波長790[nm]の光を受光した場合の画素信号と感度の積である16.00*X4の和が画素信号として出力される。この出力をxrとすると、xr=6.00*X1+19.50*X2+14.50*X3+16.00*X4となる。マルチバンドパスフィルタ14で透過させる各波長帯域の光は、いずれも狭帯域光なので、この関係は、中心波長550[nm]の第1の波長帯域Λ1の光、中心波長660[nm]の第2の波長帯域Λ2の光、中心波長735[nm]の波長帯域Λ3の光、及び、中心波長790[nm]の波長帯域Λ4の光を入射した場合に、各波長帯域の光がR画素で受光される割合の関係とみなすことができる。
 NIR画素からは、波長550[nm]の光を受光した場合の画素信号と感度の積である1.70*X1、波長660[nm]の光を受光した場合の画素信号と感度の積である5.00*X2、波長735[nm]の光を受光した場合の画素信号と感度の積である9.00*X3、及び、波長790[nm]の光を受光した場合の画素信号と感度の積である27.00*X4の和が画素信号として出力される。この出力をxnirとすると、xnir=1.70*X1+5.00*X2+9.00*X3+27.00*X4となる。マルチバンドパスフィルタ14で透過させる各波長帯域の光は、いずれも狭帯域光なので、この関係は、中心波長550[nm]の第1の波長帯域Λ1の光、中心波長660[nm]の第2の波長帯域Λ2の光、中心波長735[nm]の波長帯域Λ3の光、及び、中心波長790[nm]の波長帯域Λ4の光を入射した場合に、各波長帯域の光がNIR画素で受光される割合の関係とみなすことができる。
 図10は、各波長帯域の光が各画素で受光される割合を示す表である。
 上記のように、B画素については、第1の波長帯域Λ1(中心波長550[nm])の光が7.00、第2の波長帯域Λ2(中心波長660[nm])の光が1.00、第3の波長帯域Λ3(中心波長735[nm])の光が3.00、第4の波長帯域Λ4(中心波長790[nm])の光が8.00の割合で入射する。
 G画素については、第1の波長帯域Λ1(中心波長550[nm])の光が32.00、第2の波長帯域Λ2(中心波長660[nm])の光が2.50、第3の波長帯域Λ3(中心波長735[nm])の光が6.00、第4の波長帯域Λ4(中心波長790[nm])の光が12.00の割合で入射する。
 R画素については、第1の波長帯域Λ1(中心波長550[nm])の光が6.00、第2の波長帯域Λ2(中心波長660[nm])の光が19.50、第3の波長帯域Λ3(中心波長735[nm])の光が14.50、第4の波長帯域Λ4(中心波長790[nm])の光が16.00の割合で入射する。
 NIR画素については、第1の波長帯域Λ1(中心波長550[nm])の光が1.70、第2の波長帯域Λ2(中心波長660[nm])の光が5.00、第3の波長帯域Λ3(中心波長735[nm])の光が9.00、第4の波長帯域Λ4(中心波長790[nm])の光が27.00の割合で入射する。
 図10に示す表の値は、行列Bの各要素である。すなわち、b11=7.00、b12=1.00、b12=3.00、b14=8.00である。また、b21=32.00、b22=2.50、b23=6.00、b224=12.00である。また、b31=6.00、b32=19.50、b33=14.50、b34=16.00である。また、b41=1.70、b42=5.00、b43=9.00、b44=27.00である。したがって、行列Bは、次のとおりである。
Figure JPOXMLDOC01-appb-M000014
 この行列Bには逆行列が存在する。行列Bの逆行列B-1は、次のとおりである。
Figure JPOXMLDOC01-appb-M000015
 上記のように、各波長帯域の画像の画素信号X1、X2、X3、X4を算出する式(1)の行列Aは、行列Bの逆行列B-1である(A=B-1)。したがって、本実施の形態の撮像装置1において、各画素(B画素、G画素、R画素及びNIR画素)の画素信号xb、xg、xr、xnirから各波長帯域の画素信号X1、X2、X3、X4を算出する式は、下記の式(8)のようになる。
Figure JPOXMLDOC01-appb-M000016
 係数記憶部200Cは、この4行4列の行列Aの各要素aijを係数群として記憶する。係数記憶部200Cは、記憶部の一例である。
 マルチスペクトル画像生成部200Bは、係数記憶部200Cから係数群を取得して演算式を設定する。そして、設定した演算式に基づいて、各波長帯域の画素信号X1、X2、X3、X4を算出し、各波長帯域の画像を生成する。すなわち、各画素ブロックPB(x,y)から得られる各画素(B画素、G画素、R画素及びNIR画素)の画素信号xb、xg、xr,xnirから、上記式(8)に基づいて、各波長帯域の画像の対応画素の画素信号X1~X4を算出し、各波長帯域の画像を生成する。マルチスペクトル画像生成部200Bは、演算部の一例である。
 マルチスペクトル画像生成部200Bで生成された各波長帯域の画像は、出力部200Dから外部に出力される。出力部200Dから出力された画像は、必要に応じて、記憶装置(不図示)に記憶される。また、必要に応じてディスプレイ(不図示)に表示される。
 [作用]
 図11は、本実施の形態の撮像装置の動作(信号処理方法)の概念図である。
 光学系10に入射した被写体Oからの光は、光学系10に備えられたマルチバンドパスフィルタ14によって、4つの波長帯域の光に分離されて、イメージセンサ100の各画素(B画素、G画素、R画素及びNIR画素)に入射する。本実施の形態の撮像装置1では、中心波長が550[nm]の第1の波長帯域Λ1の光、中心波長が660[nm]の第2の波長帯域Λ2の光、中心波長が735[nm]の第3の波長帯域Λ3の光、及び、中心波長が790[nm]の第4の波長帯域Λ4の光に分離されて、イメージセンサ100の各画素に入射する。
 イメージセンサ100の各画素(B画素、G画素、R画素及びNIR画素)は、その受光量に応じた信号(画素信号)xb、xg、xr、xnirを信号処理装置200に出力する。信号処理装置200は、イメージセンサ100から出力された各画素の画素信号を取得する(イメージセンサの各画素ブロックから得られるn個の画素信号x1、x2、…、xnを取得するステップ)。
 信号処理装置200は、取得した画素信号xb、xg、xr、xnirから各波長帯域の画像(画像データ)を生成する。具体的には、式(8)を用いて、各波長帯域の画像を構成する各画素の画素信号X1、X2、X3、X4を、対応する画素位置の画素ブロックの画素信号xb、xg、xr、xnirから算出し(マルチバンドパスフィルタを透過する光の波長帯域に対応したm個の画素信号X1、X2、…、Xmを算出するステップ)、各波長帯域の画像を生成する。式(8)は、係数記憶部200Cから係数(行列Aの各要素aij)を読み出して設定する。
 このように、本実施の形態の撮像装置1によれば、1つの光学系10及び1つのイメージセンサ100によって、一度に4つの波長帯域の画像を取得できる。各画像は高品質なものが得られる。すなわち、光学系において正しく光を分離さえできれば、あとは信号処理で各波長帯域の画像を再現できるので、高品質なマルチスペクトル画像を取得できる。マルチバンドパスフィルタは、所望の波長帯域の光を高精度に分離できるので、光の分離自体も容易に行うことができる。したがって、帯域幅が10~20[nm]のような極狭帯域の画像であっても高い品質で取得できる。
 また、本実施の形態の撮像装置は、光学系の瞳部分を分割したり、イメージセンサに光線分離機能を備えたりする必要がないので、構成を極めて簡素化できる。また、瞳部分を分割していないので、瞳位置に差が生じることがない。これにより、各画像間で視差のない画像を生成できる。また、光学系の中央部分を使えるので、収差のない高品質な画像を取得できる。また、マルチバンドパスフィルタは、設置の自由度が高いという効果も備えている。
 [変形例]
 〈取得する画像の数〉
 上記実施の形態では、マルチスペクトル画像として、互いに異なる波長帯域の4つの画像を取得する場合を例に説明したが、本発明で取得できる画像の数は、これに限定されるものではない。互いに異なる波長帯域の2以上の画像を取得できる。
 マルチスペクトル画像として、互いに異なる波長帯域のm個の画像を取得する場合を考える(mは、2≦mを満たす整数)。この場合、光学系は、入射した光をm個の波長帯域の光に分離して、イメージセンサに入射させる構成にする。本構成を実現するため、光学系には、透過する光の波長帯域がm個のマルチバンドパスフィルタを備える。マルチバンドパスフィルタが透過させる波長帯域は、取得しようとする画像の波長帯域である。
 一方、イメージセンサは、1つの画素ブロックをm個以上の画素で構成し、各画素に互いに分光透過率の異なる光学フィルタを備える。1つの画素ブロックを構成する画素の数をn個とした場合、nは、2≦m≦nを満たす整数となる。なお、1つの画素ブロックを構成する画素は、少なくとも異なる光学フィルタの画素の数がm個以上であればよい。すなわち、異なる光学フィルタの画素の数がm個以上含まれていれば、1つの画素ブロックに同じ光学フィルタの画素が含まれていてもよい。
 透過する光の波長帯域がm個のマルチバンドパスフィルタを備えた光学系、及び、各画素ブロックがn個の画素(各画素は、互いに分光透過率の異なる光学フィルタを有する)で構成されるイメージセンサを備えた撮像装置の場合において、イメージセンサの各画素ブロックから得られるn個の画素信号をx1、x2、…、xnとすると、m個の波長帯域(マルチバンドパスフィルタを透過する光の波長帯域)の画素信号X1、X2、…、Xmは、iを1≦i≦mを満たす整数、jを1≦j≦nを満たす整数とした場合に、各要素がaijで表されるm行n列の行列Aを用いた下記式(9)によって算出される。
Figure JPOXMLDOC01-appb-M000017
Figure JPOXMLDOC01-appb-M000018
 ここで、行列Aは、マルチバンドパスフィルタを透過した各波長帯域の光が、イメージセンサの各画素ブロックの各画素で受光される割合を要素とする行列(行列B)の逆行列(逆行列B-1)を算出して取得される。行列Bの各要素、すなわち、マルチバンドパスフィルタを透過した各波長帯域の光が、イメージセンサの各画素ブロックの各画素で受光される割合は、上記実施の形態で説明したとおりである。
 上記の式(9)が成立するのは、行列Bが正則行列の場合である。すなわち、行列Bに逆行列が存在する場合である。したがって、マルチバンドパスフィルタで選択する波長帯域、及び、イメージセンサに備える光学フィルタについては、行列Bが正則行列となるように設定する必要がある。なお、行列Bが正方行列ではない場合(n≠m,m<nの場合)は、行列Bに一般逆行列(擬似逆行列)が存在するように、マルチバンドパスフィルタ及び光学フィルタを設定する。
 なお、1つの画素ブロックを構成する画素の数nと、マルチバンドパスフィルタが透過する光の波長帯域の数mを同数とすることにより、構成を簡素化できる。また、演算処理も高速化できる。
 〈マルチバンドパスフィルタ〉
 マルチバンドパスフィルタで透過させる各波長帯域の帯域幅は、撮像装置の用途に応じて設定されるが、40[nm]以下とすることが好ましい。たとえば、十分な光量が得られる環境下で使用するような場合は、20[nm]あるいは10[nm]とすることができる。より狭帯域化することにより、光線の分離性を向上でき、より高品質なマルチスペクトル画像を生成できる。
 〈イメージセンサ〉
 イメージセンサの各画素に備える光学フィルタの組み合わせは、上記実施の形態の例に限定されない。他の波長帯域に光を透過させる光学フィルタを組み合わせて使用することもできる。
 ただし、イメージセンサの各画素に備える光学フィルタと、マルチバンドパスフィルタで透過させる各波長帯域の光は、次の条件を満たすことが必要とされる。すなわち、マルチバンドパスフィルタを透過した各波長帯域の光が、イメージセンサの各画素ブロックの各画素で受光される割合を要素とする行列(行列B)を設定でき、かつ、その行列(行列B)の逆行列(逆行列B-1)を算出できることを条件とする。これにより、上記式(1)を設定でき、イメージセンサの出力から各波長帯域の画像を生成できる。
 なお、マルチバンドパスフィルタで透過させる各波長帯域は、光学フィルタの分光感度曲線が大きく変化する領域(変化が急峻な領域)を避けて設定することが好ましい。すなわち、光学フィルタの分光感度曲線の変化量が閾値以下となる領域で設定することが好ましい(マルチバンドパスフィルタで透過させる波長帯域内での光学フィルタの分光感度曲線の変化量が閾値以下となるようにすることが好ましい)。
 また、マルチバンドパスフィルタで透過させる各波長帯域は、分光感度曲線の変動が少ない領域で設定することが好ましい。したがって、変曲点が1以下となる領域で設定することが好ましい(マルチバンドパスフィルタで透過させる波長帯域内での変曲点が1以下となるようにすることが好ましい)。
 〈マルチバンドパスフィルタの交換が可能な撮像装置〉
 上記のように、マルチバンドパスフィルタは設置の自由度が高いという効果も備えている。光学系に対してマルチバンドパスフィルタを交換可能とすることにより、種々のマルチスペクトル画像を取得できる。マルチバンドパスフィルタは、たとえば、鏡筒の先端に着脱自在に装着することで交換可能に構成できる。あるいは、光路中に設置したターレット機構等を用いて、交換可能に構成できる。あるいは、光学系ごとに固有のマルチバンドパスフィルタを備え、光学系を交換することで同時にマルチバンドパスフィルタを交換する構成とすることもできる。たとえば、マウントを介して光学系を着脱自在に装着できるように構成する。
 マルチバンドパスフィルタが交換可能な場合、交換可能なマルチバンドパスフィルタごとに行列Aを求め、その係数群を記憶部である係数記憶部200Cに記憶する。演算部であるマルチスペクトル画像生成部200Bは、光学系に装着されたマルチバンドパスフィルタに対応する係数群を係数記憶部200Cから取得して、各波長帯域の画像を生成する。
 なお、光学系に装着されたマルチバンドパスフィルタの情報(種類)については、ユーザが手動で入力する方式としてもよいし、信号処理装置200と光学系10とが通信し、自動で取得する方式としてもよい。
 〈信号処理装置の構成〉
 信号処理装置200におけるマルチスペクトル画像生成部200B(演算部)の機能は、各種のプロセッサ(processor)を用いて実現できる。各種のプロセッサには、たとえばソフトウェア(プログラム(本発明では信号処理プログラム))を実行して各種の機能を実現する汎用的なプロセッサであるCPU(Central Processing Unit)が含まれる。また、上記各種のプロセッサには、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)も含まれる。更に、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路なども上記各種のプロセッサに含まれる。
 各部の機能は1つのプロセッサにより実現されてもよいし、同種又は異種の複数のプロセッサ(たとえば、複数のFPGA、あるいはCPUとFPGAの組み合わせ、又はCPUとGPUの組み合わせ)で実現されてもよい。また、複数の機能を1つのプロセッサで実現してもよい。複数の機能を1つのプロセッサで構成する例としては、第1に、サーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能として実現する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、システム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。これらの電気回路は、論理和、論理積、論理否定、排他的論理和、及びこれらを組み合わせた論理演算を用いて上記の機能を実現する電気回路であってもよい。
 上記のプロセッサあるいは電気回路がソフトウェア(プログラム)を実行する際は、実行するソフトウェアのプロセッサ(コンピュータ)読み取り可能なコードをROM(Read Only Memory)等の非一時的記録媒体に記憶しておき、プロセッサがそのソフトウェアを参照する。非一時的記録媒体に記憶しておくソフトウェアは、画像の入力、解析、表示制御等を実行するためのプログラムを含む。ROMではなく各種光磁気記録装置、半導体メモリ等の非一時的記録媒体にコードを記録してもよい。ソフトウェアを用いた処理の際にはたとえばRAM(Random Access Memory)が一時的記憶領域として用いられ、また、たとえば、不図示のEEPROM(Electronically Erasable and Programmable Read Only Memory)に記憶されたデータを参照することもできる。
 信号処理装置200の係数記憶部200Cは、たとえば、ROM(Read-only Memory)、EEPROM(Electrically Erasable Programmable Read-only Memory)等のメモリで実現できる。
 〔撮像装置の構成〕
 撮像装置は、光学系の交換が可能なレンズ交換式の撮像装置として構成することもできる。この場合、行列Aは、レンズ(光学系)ごとに一意に定まるので、レンズごとに行列Aを用意し、その係数群を係数記憶部に記憶させる。レンズが交換された場合は、交換されたレンズに対応する行列Aの係数群を係数記憶部から読み出して、演算処理を実行し、各光学領域の画像を生成する。
1 撮像装置
10 光学系
12 レンズ
14 マルチバンドパスフィルタ
100 イメージセンサ
200 信号処理装置
200A アナログ信号処理部
200B マルチスペクトル画像生成部
200C 係数記憶部
200D 出力部
Cb B画素の分光感度曲線
Cg G画素の分光感度曲線
Cr R画素の分光感度曲線
Cnir NIR画素の分光感度曲線
B Bフィルタが備えられた画素(B画素)
G Gフィルタが備えられた画素(G画素)
R Rフィルタが備えられた画素(R画素)
NIR NIRフィルタが備えられた画素(NIR画素)
L 光軸
O 被写体
PB(x,y) 画素ブロック
X1 第1の波長帯域Λ1の画像の画素位置p(x,y)の画素信号
X2 第2の波長帯域Λ2の画像の画素位置p(x,y)の画素信号
X3 第3の波長帯域Λ3の画像の画素位置p(x,y)の画素信号
X4 第4の波長帯域Λ4の画像の画素位置p(x,y)の画素信号
xg 画素ブロックPB(x,y)のR画素の画素信号
xr 画素ブロックPB(x,y)のG画素の画素信号
xb 画素ブロックPB(x,y)のB画素の画素信号
xnir 画素ブロックPB(x,y)のNIR画素の画素信号
Λ1 第1の波長帯域
Λ2 第2の波長帯域
Λ3 第3の波長帯域
Λ4 第4の波長帯域

Claims (11)

  1.  nを2≦nを満たす整数とした場合に、互いに分光透過率の異なる光学フィルタを備えたn個の画素で構成される画素ブロックを複数備えたイメージセンサと、
     mを2≦m≦nを満たす整数とした場合に、透過する光の波長帯域がm個のマルチバンドパスフィルタを備えた光学系と、
     iを1≦i≦mを満たす整数、jを1≦j≦nを満たす整数とした場合に、各要素がaijで表されるm行n列の行列Aで構成される係数群を記憶する記憶部と、
     前記記憶部から前記係数群を取得し、前記イメージセンサの各画素ブロックから得られるn個の画素信号x1、x2、…、xnから、下記式によって、前記マルチバンドパスフィルタを透過する光の波長帯域に対応したm個の画素信号X1、X2、…、Xmを算出する演算部と、
    Figure JPOXMLDOC01-appb-M000001
     を備える撮像装置。
  2.  前記行列Aは、前記マルチバンドパスフィルタを透過した各波長帯域の光が、前記イメージセンサの各画素ブロックの各画素で受光される割合を要素とする行列の逆行列を算出して取得される、
     請求項1に記載の撮像装置。
  3.  前記イメージセンサの1つの画素ブロックを構成する画素の数nと、前記マルチバンドパスフィルタが透過する光の波長帯域の数mとが同数である、
     請求項1又は2に記載の撮像装置。
  4.  前記マルチバンドパスフィルタは、透過させる各波長帯域の帯域幅が40nm以下である、
     請求項1から3のいずれか1項に記載の撮像装置。
  5.  前記マルチバンドパスフィルタで透過させる各波長帯域は、前記光学フィルタの分光感度曲線の変化量が閾値以下となる領域で設定される、
     請求項1から4のいずれか1項に記載の撮像装置。
  6.  前記マルチバンドパスフィルタで透過させる各波長帯域は、前記光学フィルタの分光感度曲線の変曲点が1以下となる領域で設定される、
     請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記マルチバンドパスフィルタが交換可能であり、
     前記記憶部は、交換可能な前記マルチバンドパスフィルタごとに前記係数群を記憶し、
     前記演算部は、前記光学系に装着された前記マルチバンドパスフィルタに対応する前記係数群を前記記憶部から取得して、前記マルチバンドパスフィルタを透過する光の波長帯域に対応したm個の画素信号X1、X2、…、Xmを算出する、
     請求項1から6のいずれか1項に記載の撮像装置。
  8.  nを2≦nを満たす整数とした場合に、互いに分光透過率の異なる光学フィルタを備えたn個の画素で構成される画素ブロックを複数備えたイメージセンサと、
     mを2≦m≦nを満たす整数とした場合に、透過する光の波長帯域がm個のマルチバンドパスフィルタを備えた光学系と、
     を備えた撮像装置の前記イメージセンサから得られる信号を処理する信号処理装置であって、
     iを1≦i≦mを満たす整数、jを1≦j≦nを満たす整数とした場合に、各要素がaijで表されるm行n列の行列Aで構成される係数群を記憶する記憶部と、
     前記記憶部から前記係数群を取得し、前記イメージセンサの各画素ブロックから得られるn個の画素信号x1、x2、…、xnから、下記式によって、前記マルチバンドパスフィルタを透過する光の波長帯域に対応したm個の画素信号X1、X2、…、Xmを算出する演算部と、
    Figure JPOXMLDOC01-appb-M000002
     を備える信号処理装置。
  9.  nを2≦nを満たす整数とした場合に、互いに分光透過率の異なる光学フィルタを備えたn個の画素で構成される画素ブロックを複数備えたイメージセンサと、
     mを2≦m≦nを満たす整数とした場合に、透過する光の波長帯域がm個のマルチバンドパスフィルタを備えた光学系と、
     を備えた撮像装置の前記イメージセンサから得られる信号を処理する信号処理方法であって、
     前記イメージセンサの各画素ブロックから得られるn個の画素信号x1、x2、…、xnを取得するステップと、
     iを1≦i≦mを満たす整数、jを1≦j≦nを満たす整数とした場合に、各要素がaijで表されるm行n列の行列Aを用いた下記式によって、前記マルチバンドパスフィルタを透過する光の波長帯域に対応したm個の画素信号X1、X2、…、Xmを算出するステップと、
    Figure JPOXMLDOC01-appb-M000003
     を含む信号処理方法。
  10.  nを2≦nを満たす整数とした場合に、互いに分光透過率の異なる光学フィルタを備えたn個の画素で構成される画素ブロックを複数備えたイメージセンサと、
     mを2≦m≦nを満たす整数とした場合に、透過する光の波長帯域がm個のマルチバンドパスフィルタを備えた光学系と、
     を備えた撮像装置の前記イメージセンサから得られる信号を処理する信号処理プログラムであって、
     前記イメージセンサの各画素ブロックから得られるn個の画素信号x1、x2、…、xnを取得する機能と、
     iを1≦i≦mを満たす整数、jを1≦j≦nを満たす整数とした場合に、各要素がaijで表されるm行n列の行列Aを用いた下記式によって、前記マルチバンドパスフィルタを透過する光の波長帯域に対応したm個の画素信号X1、X2、…、Xmを算出する機能と、
    Figure JPOXMLDOC01-appb-M000004
     をコンピュータに実現させる信号処理プログラム。
  11.  非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に請求項10に記載のプログラムをコンピュータに実行させる記録媒体。
PCT/JP2020/015199 2019-04-15 2020-04-02 撮像装置、信号処理装置、信号処理方法及び信号処理プログラム WO2020213418A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019076915 2019-04-15
JP2019-076915 2019-04-15

Publications (1)

Publication Number Publication Date
WO2020213418A1 true WO2020213418A1 (ja) 2020-10-22

Family

ID=72837783

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/015199 WO2020213418A1 (ja) 2019-04-15 2020-04-02 撮像装置、信号処理装置、信号処理方法及び信号処理プログラム

Country Status (1)

Country Link
WO (1) WO2020213418A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116448689A (zh) * 2023-06-16 2023-07-18 天津博霆光电技术有限公司 基于像素微分的单光频率物体全构造检测方法及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007536064A (ja) * 2004-05-10 2007-12-13 アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド 瞳孔検出方法及びシステム
JP2010043979A (ja) * 2008-08-13 2010-02-25 Yuichi Kamata 分光画像計測装置
WO2012098599A1 (ja) * 2011-01-17 2012-07-26 パナソニック株式会社 撮像装置
JP2017032537A (ja) * 2015-08-03 2017-02-09 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited スペクトル測定装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007536064A (ja) * 2004-05-10 2007-12-13 アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド 瞳孔検出方法及びシステム
JP2010043979A (ja) * 2008-08-13 2010-02-25 Yuichi Kamata 分光画像計測装置
WO2012098599A1 (ja) * 2011-01-17 2012-07-26 パナソニック株式会社 撮像装置
JP2017032537A (ja) * 2015-08-03 2017-02-09 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited スペクトル測定装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116448689A (zh) * 2023-06-16 2023-07-18 天津博霆光电技术有限公司 基于像素微分的单光频率物体全构造检测方法及设备
CN116448689B (zh) * 2023-06-16 2023-08-29 天津博霆光电技术有限公司 基于像素微分的单光频率物体全构造检测方法及设备

Similar Documents

Publication Publication Date Title
JP6492055B2 (ja) 双峰性の画像を取得するための装置
JP5463718B2 (ja) 撮像装置
US8462238B2 (en) Camera design for the simultaneous capture of near-infrared and visible images
US20220078319A1 (en) Imaging apparatus
JP6734647B2 (ja) 撮像装置
WO2021172284A1 (ja) 撮像装置及び方法
JP7358817B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP4968527B2 (ja) 撮像装置
WO2021153473A1 (ja) レンズ装置、撮像装置、光学部材、撮像方法、及び撮像プログラム
US11122242B2 (en) Imaging device
JP2015226299A (ja) 画像入力装置
US20220078359A1 (en) Imaging apparatus
WO2020213418A1 (ja) 撮像装置、信号処理装置、信号処理方法及び信号処理プログラム
JP6692749B2 (ja) マルチスペクトルカメラ
JP2018170757A (ja) 画像生成装置及び撮像装置
WO2020213419A1 (ja) 撮像装置、信号処理装置、信号処理方法及び信号処理プログラム
WO2020071253A1 (ja) 撮像装置
JP2010276469A (ja) 画像処理装置及び測距装置の画像処理方法
JP2015211430A (ja) 撮像装置および演算回路
CN112042185B (zh) 图像传感器以及相关电子装置
US11982899B2 (en) Image processing device, imaging device, image processing method, and image processing program
WO2023053767A1 (ja) データ処理装置、方法及びプログラム並びにマルチスペクトルカメラ
JP6815628B2 (ja) マルチスペクトル撮像装置
JP6360816B2 (ja) 撮像装置及び撮像方法
JP2019062475A (ja) 撮像素子および撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20790535

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20790535

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP