WO2023145188A1 - 撮像装置、処理装置、処理方法、プログラム、及び光学フィルタ - Google Patents

撮像装置、処理装置、処理方法、プログラム、及び光学フィルタ Download PDF

Info

Publication number
WO2023145188A1
WO2023145188A1 PCT/JP2022/041530 JP2022041530W WO2023145188A1 WO 2023145188 A1 WO2023145188 A1 WO 2023145188A1 JP 2022041530 W JP2022041530 W JP 2022041530W WO 2023145188 A1 WO2023145188 A1 WO 2023145188A1
Authority
WO
WIPO (PCT)
Prior art keywords
transmission wavelength
filter
optical
transmittance
wavelength band
Prior art date
Application number
PCT/JP2022/041530
Other languages
English (en)
French (fr)
Inventor
高志 椚瀬
和佳 岡田
慶延 岸根
睦 川中子
友也 平川
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2023145188A1 publication Critical patent/WO2023145188A1/ja

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements

Definitions

  • the technology of the present disclosure relates to imaging devices, processing devices, processing methods, programs, and optical filters.
  • Japanese Patent Laying-Open No. 2017-118284 discloses an imaging device that includes an imaging sensor, an optical system, a filter, and a signal processing device.
  • An imaging sensor is an imaging sensor in which a light receiving element is arranged in each pixel.
  • the optical system has a lens that focuses an image onto the imaging sensor.
  • the filter a plurality of types of filter sections are arranged in a predetermined arrangement corresponding to the arrangement of pixels of the imaging sensor, and each type of filter section is for a first wavelength band adjacent to the long wavelength side of the visible light band. It has transmission characteristics in a second wavelength band, which is a part away from the visible light band, and has different spectral transmission characteristics according to wavelengths in the visible light band.
  • the signal processing device is capable of processing signals output from the imaging sensor and outputting visible image signals and infrared image signals. In the imaging device, the transmittance of the second wavelength band of the filter is lower than the transmittance of the visible light band of the filter.
  • Japanese Patent Laying-Open No. 2017-046100 discloses an imaging device including an imaging unit, a first optical filter, a visible light signal generation unit, an infrared light signal generation unit, a control unit, and an optical filter control unit. It is The imaging unit is capable of receiving visible light and infrared light at the same time as a lens that forms an image of incident light from a subject to form an optical image, and converts an optical signal that is incident through the lens into an electrical signal. It has an image sensor that The first optical filter transmits only visible light and is movable between a first position on the optical path of incident light and a second position other than the position on the optical path. The visible light signal generator calculates only the signal of the visible light component contained in the electrical signal.
  • the infrared light signal generator calculates only the signal of the infrared light component contained in the electrical signal.
  • the controller outputs a predetermined control signal based on the signals calculated by the visible light signal generator and the infrared light signal generator.
  • the optical filter control section arranges the first optical filter at the first position or the second position based on a predetermined control signal.
  • Japanese Patent Application Laid-Open No. 2004-147287 3 discloses that when photographing a subject, the photographing wavelength region is divided into a plurality of bands, and a spectral image of the subject corresponding to each divided band is photographed.
  • the sensitivity balance between each band is detected from the photographic data obtained from the preliminary photography conducted prior to the actual photography, the photography conditions are determined based on the detected sensitivity balance between each band, and the final photography conditions are determined.
  • a multi-band image capture method for capturing is disclosed.
  • One embodiment according to the technology of the present disclosure is, for example, compared to the case where the transmittance for each first transmission wavelength band of the first optical filter is the same, from the first image data output from the image sensor
  • a first aspect of the technology of the present disclosure includes an optical system having a first optical filter having a plurality of first transmission wavelength bands, an image sensor for receiving light transmitted through the optical system, and an image sensor based on the light.
  • a first processor that outputs second image data for each first transmission wavelength band by performing arithmetic processing on the first image data output from the first optical filter of the image sensor;
  • a first output value output for each spectral sensitivity band from at least one specific pixel among the plurality of pixels is output from the specific pixel for each spectral sensitivity band when the transmittance for each first transmission wavelength band is the same.
  • the imaging device includes at least one of a second optical characteristic in which the width of each wavelength band is different and a third optical characteristic in which the transmittance distribution is different for each first transmission wavelength band.
  • a second aspect of the technology of the present disclosure is the imaging device according to the first aspect, wherein the arithmetic processing converts the first image data into second image data for each first transmission wavelength band by using an interference elimination matrix.
  • the optical characteristic is a characteristic that the condition number of the interference cancellation matrix is smaller than the condition number when the transmittance for each first transmission wavelength band is the same, and / or the interference cancellation matrix
  • the imaging device has a characteristic that the maximum singular value is smaller than the maximum singular value when the transmittance in each first transmission wavelength band is the same.
  • a third aspect of the technology of the present disclosure is the imaging device according to the first aspect or the second aspect, wherein the optical characteristic is a characteristic set based on the second output value.
  • a fourth aspect of the technology of the present disclosure is the imaging device according to any one of the first to third aspects, wherein the optical characteristic includes a first optical characteristic, and the first optical filter is: a glass layer; and a first coating layer laminated to the glass layer, the first coating layer having a plurality of first transmission wavelength bands, the glass layer and/or the first coating layer comprising the first This imaging device has a different transmittance for each transmission wavelength band.
  • the optical characteristic includes a first optical characteristic
  • the first optical filter is: a glass layer; and a first coating layer laminated to the glass layer, the first coating layer having a plurality of first transmission wavelength bands, the glass layer and/or the first coating layer comprising the first
  • This imaging device has a different transmittance for each transmission wavelength band.
  • a fifth aspect of the technology of the present disclosure is the imaging device according to any one of the first to fourth aspects, wherein the optical characteristic includes a first optical characteristic, and the first optical filter is:
  • the imaging device includes a first filter member having a plurality of first transmission wavelength bands and a second filter member having a different transmittance for each first transmission wavelength band.
  • a sixth aspect of the technology of the present disclosure is the imaging device according to any one of the first to fifth aspects, wherein the optical characteristic includes a first optical characteristic, and the optical system includes a lens.
  • the imaging device has a first optical filter including a second coating layer formed on the lens.
  • a seventh aspect of the technology of the present disclosure is the imaging device according to any one of the first to sixth aspects, wherein the optical system includes a second transmission wavelength band different from the plurality of first transmission wavelength bands.
  • the optical system includes a second transmission wavelength band different from the plurality of first transmission wavelength bands.
  • a second optical filter having a band, a first polarizer corresponding to the first optical filter, and a second polarizer corresponding to the second optical filter; It is an imaging device having a polarizer.
  • An eighth aspect of the technology of the present disclosure is the imaging device according to the seventh aspect, wherein four types of third polarizers having transmission axes different from each other are provided in four adjacent pixels among the plurality of pixels.
  • Each of the four pixels is a specific pixel, and the first output value is a value based on the sum of the output values output from the four pixels for each spectral sensitivity band.
  • a ninth aspect of the technology of the present disclosure is the imaging device according to any one of the first to eighth aspects, wherein the specific pixel specifies a light receiving surface of the image sensor among the plurality of pixels. It is an imaging device that is a pixel located in a region.
  • a tenth aspect of the technology of the present disclosure is a processing device including a second processor that executes derivation processing for deriving optical characteristics in the imaging device according to any one of the first to ninth aspects.
  • the derivation process is a processing device that is a process of deriving the optical characteristic based on the second output value.
  • An eleventh aspect of the technology of the present disclosure is a processing method including executing a derivation process for deriving optical characteristics in an imaging device according to any one of the first to ninth aspects, , the deriving process is a process of deriving the optical characteristic based on the second output value.
  • a twelfth aspect of the technology of the present disclosure is a program for causing a computer to execute derivation processing for deriving optical characteristics in the imaging device according to any one of the first to ninth aspects, , the derivation process is a program that is a process of deriving an optical characteristic based on the second output value.
  • a thirteenth aspect of the technology of the present disclosure is an optical filter that has a plurality of first transmission wavelength bands and transmits light received by an image sensor, wherein at least one of a plurality of pixels of the image sensor When the first output value output from one specific pixel for each spectral sensitivity band is the same as the transmittance for each first transmission wavelength band, the maximum of the second output value output from the specific pixel for each spectral sensitivity band
  • the optical characteristics include a first optical characteristic in which the transmittance is different for each first transmission wavelength band, and a second optical characteristic in which the width for each first transmission wavelength band is different.
  • the optical filter includes at least one of the second optical characteristic and the third optical characteristic in which the transmittance distribution for each first transmission wavelength band is different.
  • FIG. 4 is an explanatory diagram showing an example of the configuration and optical characteristics of a multi-BP filter
  • 3 is a block diagram showing an example of a functional configuration of a processor in the imaging device
  • FIG. 4 is an explanatory diagram showing an example of a first operation of a processor in an imaging device
  • FIG. 10 is an explanatory diagram showing an example of a second operation of the processor in the imaging device
  • 3 is a block diagram showing an example of a functional configuration of a processor in the processing device;
  • FIG. 4 is an explanatory diagram showing an example of a first operation of a processor in a processing device
  • FIG. 10 is an explanatory diagram showing an example of a second operation of the processor in the processing device
  • It is explanatory drawing which shows an example of the 3rd operation
  • 4 is a flowchart showing an example of the flow of multispectral image generation processing in an imaging device
  • 7 is a flowchart showing an example of the flow of interference cancellation matrix derivation processing in the processing device
  • FIG. 5 is an explanatory diagram showing a first modified example of the configuration and optical characteristics of a multi-BP filter
  • FIG. 11 is an explanatory diagram showing a second modified example of the configuration and optical characteristics of a multi-BP filter
  • FIG. 11 is an explanatory diagram showing a third modified example of the configuration and optical characteristics of a multi-BP filter;
  • FIG. 11 is an explanatory diagram showing a fourth modified example of the configuration and optical characteristics of a multi-BP filter;
  • FIG. 11 is an explanatory diagram showing a fifth modified example of the configuration and optical characteristics of a multi-BP filter;
  • FIG. 11 is an explanatory diagram showing a sixth modification of the configuration and optical characteristics of a multi-BP filter;
  • FIG. 10 is an explanatory diagram showing a modification of the operation of the luminance value derivation unit in the imaging device;
  • FIG. 10 is a block diagram showing a modification of the functional configuration of the processor in the imaging device; It is a block diagram which shows the modification of the hardware constitutions in an imaging device.
  • I/F is an abbreviation for "Interface”.
  • BP is an abbreviation for "Band Pass”.
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconductor”.
  • CCD is an abbreviation for "Charge Coupled Device”.
  • NVM is an abbreviation for "Non-Volatile Memory”.
  • RAM is an abbreviation for "Random Access Memory”.
  • CPU is an abbreviation for "Central Processing Unit”.
  • GPU is an abbreviation for "Graphics Processing Unit”.
  • EEPROM is an abbreviation for "Electrically Erasable and Programmable Read Only Memory”.
  • HDD is an abbreviation for "Hard Disk Drive”.
  • TPU is an abbreviation for "Tensor processing unit”.
  • SSD is an abbreviation for "Solid State Drive”.
  • USB is an abbreviation for "Universal Serial Bus”.
  • ASIC is an abbreviation for "Application Specific Integrated Circuit”.
  • FPGA is an abbreviation for "Field-Programmable Gate Array”.
  • PLD is an abbreviation for "Programmable Logic Device”.
  • SoC is an abbreviation for "System-on-a-chip.”
  • IC is an abbreviation for "Integrated Circuit”.
  • the term “same” means that in addition to being exactly the same, an error that is generally allowed in the technical field to which the technology of the present disclosure belongs, and does not go against the spirit of the technology of the present disclosure It refers to the same in the sense of including the error of
  • the "center” is an error that is generally allowed in the technical field to which the technology of the present disclosure belongs, in addition to the perfect center, and is not contrary to the spirit of the technology of the present disclosure.
  • the "maximum” is an error that is generally allowed in the technical field to which the technology of the present disclosure belongs, in addition to the perfect maximum, and does not go against the spirit of the technology of the present disclosure. It refers to the maximum in the sense of including the error of In the description of this specification, the “minimum” is an error that is generally allowed in the technical field to which the technology of the present disclosure belongs, in addition to the perfect minimum, and does not go against the spirit of the technology of the present disclosure. It refers to the minimum in the sense of including the error of
  • the imaging device 10 is a multispectral camera capable of outputting a multispectral image 90, and includes an optical system 12, an image sensor 14, a control driver 16, an input/output I/F 18, a computer 20, and A display 22 is provided.
  • the imaging device 10 is an example of the “imaging device” according to the technology of the present disclosure
  • the optical system 12 is an example of the “optical system” according to the technology of the present disclosure
  • the image sensor 14 is an example of the “optical system” according to the technology of the present disclosure. It is an example of such an “image sensor”.
  • the imaging device 10 may be a multispectral camera capable of imaging a subject with higher wavelength resolution than a multispectral camera capable of imaging light split into three transmission wavelength bands.
  • the multispectral image 90 may include an image obtained by capturing light in the visible light band, and a transmission wavelength band that cannot be perceived by the human eye (e.g., near-infrared band and/or Alternatively, an image in which light in the ultraviolet band or the like is visualized may be included.
  • a transmission wavelength band that cannot be perceived by the human eye e.g., near-infrared band and/or Alternatively, an image in which light in the ultraviolet band or the like is visualized may be included.
  • the optical system 12 has a first lens 24 , a pupil division filter 26 and a second lens 28 .
  • the first lens 24, the pupil division filter 26, and the second lens 28 are arranged along the optical axis OA of the optical system 12 from the subject 4 side to the image sensor 14 side. They are arranged in order of the lens 28 .
  • the first lens 24 transmits light obtained by reflecting the light emitted from the light source 2 by the subject 4 (hereinafter referred to as “subject light”) through the pupil division filter 26 .
  • the second lens 28 forms an image of the subject light that has passed through the pupil division filter 26 on the light receiving surface 38A of the photoelectric conversion element 38 provided in the image sensor 14 .
  • Subject light is an example of "light” according to the technology of the present disclosure.
  • the pupil division filter 26 has a spectral filter 30 and a polarizing filter 32 .
  • the spectral filter 30 has, as an example, a B filter 34A, a G filter 34B, and a multi-BP filter 34C.
  • the B filter 34A, G filter 34B, and multi BP filter 34C are shown arranged linearly along the direction perpendicular to the optical axis OA, but the B filter 34A, G filter 34B and multi-BP filters 34C are arranged along the direction around the optical axis OA.
  • the B filter 34A is a blue band filter that transmits light in the blue wavelength band of subject light.
  • the G filter 34B is a green bandpass filter that transmits light in the green wavelength band of subject light.
  • the multi-BP filter 34C is a bandpass filter having multiple transmission wavelength bands.
  • the multi-BP filter 34C has a first transmission wavelength band ⁇ 1 , a second transmission wavelength band ⁇ 2 , and a third transmission wavelength band ⁇ 3 as an example of multiple transmission wavelength bands.
  • the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 can each be set to arbitrary bands.
  • the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 are preferably bands different from the blue wavelength band and the green wavelength band, respectively.
  • the first transmission wavelength band ⁇ 1 and the second transmission wavelength band ⁇ 2 and the third transmission wavelength band ⁇ 3 are each referred to as a "transmission wavelength band”.
  • the B filter 34A, the G filter 34B, and the multi-BP filter 34C need not be distinguished and explained, the B filter 34A, the G filter 34B, and the multi-BP filter 34C are each referred to as "filter 34".
  • FIG. 1 shows a graph representing the transmittance (hereinafter also referred to as “spectral transmittance”) for each transmission wavelength band of the multi-BP filter 34C.
  • the horizontal axis of the graph indicates wavelength, and the vertical axis of the graph indicates transmittance.
  • the multi-BP filter 34C has optical characteristics with different transmittances for the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 . have.
  • the second transmittance T2 which is the transmittance of the second transmission wavelength band ⁇ 2
  • the first transmittance T1 which is the transmittance of the first transmission wavelength band ⁇ 1
  • the third transmission wavelength band A third transmittance T3 which is the transmittance for ⁇ 3
  • the width W of each transmission wavelength band is the same.
  • the multi-BP filter 34C is an example of the "optical filter” and the "first optical filter” according to the technology of the present disclosure.
  • the B filter 34A and the G filter 34B are examples of the “second optical filter” according to the technology of the present disclosure.
  • the plurality of transmission wavelength bands possessed by the multi-BP filter 34C is an example of the "plurality of first transmission wavelength bands” according to the technology of the present disclosure.
  • the transmission wavelength band (ie, blue wavelength band) of the B filter 34A and the transmission wavelength band (ie, green wavelength band) of the G filter 34B are examples of the “second transmission wavelength band” according to the technology of the present disclosure. be.
  • the optical characteristics of the multi-BP filter 34C are the same as those of the present disclosure.
  • 1 is an example of an "optical characteristic” and a "first optical characteristic” according to the technique of .
  • the multi-BP filter 34C has three transmission wavelength bands. Any number is fine.
  • the polarizing filter 32 has a first polarizer 36A, a second polarizer 36B, and a third polarizer 36C.
  • the first polarizer 36A is a polarizer whose transmission axis is set at an azimuth angle of 0°.
  • the second polarizer 36B is a polarizer whose transmission axis is set at an azimuth angle of 45°.
  • the third polarizer 36C is a polarizer whose transmission axis is set at an azimuth angle of 90°.
  • the first polarizer 36A corresponds to the B filter 34A and is superimposed on the B filter 34A.
  • the second polarizer 36B corresponds to the G filter 34B and is superimposed on the G filter 34B.
  • the third polarizer 36C corresponds to the multi-BP filter 34C and is superimposed on the multi-BP filter 34C.
  • the first polarizer 36A, the second polarizer 36B, and the third polarizer 36C are respectively referred to as "polarizers 36".
  • the first polarizer 36A corresponding to the B filter 34A and the second polarizer 36B corresponding to the G filter 34B are examples of the "second polarizer” according to the technology of the present disclosure.
  • the third polarizer 36C corresponding to the multi-BP filter 34C is an example of the "first polarizer” according to the technology of the present disclosure.
  • the image sensor 14 has a photoelectric conversion element 38 and a signal processing circuit 40 .
  • the image sensor 14 is, for example, a CMOS image sensor.
  • a CMOS image sensor is exemplified as the image sensor 14, but the technology of the present disclosure is not limited to this. The technology of the present disclosure is established.
  • FIG. 1 shows a schematic configuration of the photoelectric conversion element 38 .
  • FIG. 2 specifically shows the configuration of part of the photoelectric conversion element 38 .
  • the photoelectric conversion element 38 has a pixel layer 42 , a polarizing filter layer 43 and a spectral filter layer 46 .
  • the pixel layer 42 has a plurality of pixels 48.
  • a plurality of pixels 48 are arranged in a matrix and form a light receiving surface 38A of the photoelectric conversion element 38 .
  • Each pixel 48 is a physical pixel having a photodiode (not shown), photoelectrically converts received light, and outputs an electrical signal corresponding to the amount of received light.
  • the photodiode is, for example, an indium-gallium-arsenide photodiode sensitive to near-infrared light.
  • an indium-gallium-arsenide photodiode is exemplified as the photodiode, but the technology of the present disclosure is not limited to this. The technology of the present disclosure is also established.
  • the pixels 48 provided in the photoelectric conversion elements 38 are referred to as “physical pixels 48" in order to distinguish them from the pixels forming the multispectral image 90. Also, the pixels forming the multispectral image 90 are referred to as "image pixels”.
  • the photoelectric conversion element 38 outputs the electrical signals output from the plurality of physical pixels 48 to the signal processing circuit 40 as captured image data 50 .
  • the signal processing circuit 40 digitizes the analog captured image data 50 input from the photoelectric conversion element 38 .
  • a plurality of physical pixels 48 form a plurality of pixel blocks 52 .
  • Each pixel block 52 is formed by four physical pixels 48 .
  • the four physical pixels 48 forming each pixel block 52 are shown arranged linearly along the direction perpendicular to the optical axis OA.
  • the four physical pixels 48 are arranged adjacent to each other in the vertical and horizontal directions of the photoelectric conversion element 38 .
  • a physical pixel 48 is an example of a “pixel” according to the technology of the present disclosure.
  • the polarizing filter layer 43 has a first polarizer 54A, a second polarizer 54B, a third polarizer 54C, and a fourth polarizer 54D.
  • the first polarizer 54A is a polarizer whose transmission axis is set at an azimuth angle of 90°.
  • the second polarizer 54B is a polarizer whose transmission axis is set at an azimuth angle of 135°.
  • the third polarizer 54C is a polarizer whose transmission axis is set at an azimuth angle of 0°.
  • the fourth polarizer 54D is a polarizer whose transmission axis is set at an azimuth angle of 45°.
  • the first polarizer 54A, the second polarizer 54B, the third polarizer 54C, and the fourth polarizer 54D correspond to the four physical pixels 48, respectively, and are superimposed on the four physical pixels 48, respectively.
  • a polarizer 54 corresponding to each physical pixel 48 is an example of a "third polarizer” according to the technology of the present disclosure.
  • the spectral filter layer 46 has B filters 56A, G filters 56B, and R filters 56C.
  • the B filter 56A is a blue bandpass filter that transmits most of the light in the blue wavelength band among the light in the plurality of wavelength bands.
  • the G filter 56B is a green bandpass filter that transmits the light in the green wavelength band most among the light in the plurality of wavelength bands.
  • the R filter 56C is a red band filter that transmits the light in the red wavelength band most among the light in the plurality of wavelength bands.
  • a B filter 56 A, a G filter 56 B, and an R filter 56 C are assigned to each pixel block 52 .
  • the B filter 56A, G filter 56B, and R filter 56C are shown arranged linearly along the direction perpendicular to the optical axis OA. Furthermore, the B filters 56A, G filters 56B, and R filters 56C are arranged in a matrix in a predetermined pattern arrangement. In the example shown in FIG. 2, the B filters 56A, G filters 56B, and R filters 56C are arranged in a matrix in a Bayer pattern as an example of a predetermined pattern arrangement.
  • the predetermined pattern arrangement may be an RGB stripe arrangement, an R/G checkered arrangement, an X-Trans (registered trademark) arrangement, a honeycomb arrangement, or the like, in addition to the Bayer arrangement.
  • filters 56 when there is no need to distinguish between the B filter 56A, the G filter 56B, and the R filter 56C.
  • the input/output I/F 18 is connected to a signal processing circuit 40, a control driver 16, a display 22, and a computer 20.
  • the computer 20 has a processor 60 , NVM 62 and RAM 64 .
  • the processor 60 controls the imaging device 10 as a whole.
  • the processor 60 is, for example, an arithmetic processing device including a CPU and a GPU.
  • the GPU operates under the control of the CPU and is responsible for executing image processing.
  • an arithmetic processing unit including a CPU and a GPU is given as an example of the processor 60, but this is only an example, and the processor 60 may be one or more CPUs with integrated GPU functions. , may be one or more CPUs that do not integrate GPU functionality.
  • Processor 60 , NVM 62 , and RAM 64 are connected via bus 66 , which is connected to input/output I/F 18 .
  • the processor 60 is an example of a "first processor" according to the technology of the present disclosure.
  • the NVM 62 is a non-temporary storage medium and stores various parameters and various programs.
  • NVM 62 is flash memory (eg, EEPROM).
  • flash memory eg, EEPROM
  • HDD high-density diode
  • the RAM 64 temporarily stores various information and is used as a work memory.
  • the processor 60 reads necessary programs from the NVM 62 and executes the read programs in the RAM 64 .
  • the processor 60 controls the control driver 16 and the signal processing circuit 40 according to programs executed in the RAM 64 .
  • the control driver 16 controls the photoelectric conversion element 38 under control of the processor 60 .
  • the display 22 is, for example, a liquid crystal display, and displays various images including the multispectral image 90 .
  • the multi-BP filter 34C has a glass layer 68 and a pair of coating layers 70 and 72.
  • a glass layer is an example of a "glass layer” according to the technology of the present disclosure.
  • the pair of coating layers 70 and 72 is an example of the "first coating layer” according to the technology of the present disclosure.
  • the glass layer 68 has a first side 68A and a second side 68B opposite the first side 68A.
  • a coating layer 70 is laminated to the first side 68A and a coating layer 72 is laminated to the second side 68B.
  • a pair of coating layers 70 and 72 realize the three transmission wavelength bands of the multi-BP filter 34C. That is, the pair of coating layers 70 and 72 has three transmission wavelength bands (eg, first transmission wavelength band ⁇ 1 , second transmission wavelength band ⁇ 2 , and third transmission wavelength band ⁇ 3 ). Also, the pair of coating layers 70 and 72 have different transmittances (eg, first transmittance T 1 , second transmittance T 2 , and third transmittance T 3 ) for each of the three transmission wavelength bands.
  • the three transmission wavelength bands of the multi-BP filter 34C are realized by the pair of coating layers 70 and 72. Of the pair of coating layers 70 and 72, the coating layer 70 or the coating layer 72 only. Also, the multi-BP filter 34C has a pair of coating layers 70 and 72, but may have only the coating layer 70 or the coating layer 72 of the pair of coating layers 70 and 72.
  • the reflectance is the transmittance by which the second transmittance T2 and the third transmittance T3 are lowered below the first transmittance T1 by the pair of coating layers 70 and 72. may cause backlighting. Therefore, a multi-BP filter 34C having multiple transmission wavelength bands may be used, for example, under conditions where backlight is not a problem.
  • the NVM 62 stores a multispectral image generation program 80 .
  • Processor 60 reads multispectral image generation program 80 from NVM 62 and executes read multispectral image generation program 80 on RAM 64 .
  • Processor 60 performs multispectral image generation processing for generating multispectral image 90 according to multispectral image generation program 80 running on RAM 64 .
  • the multispectral image generation processing is realized by the processor 60 operating as an output value acquisition unit 82, an interference removal processing unit 84, and a multispectral image acquisition unit 86 according to the multispectral image generation program 80.
  • the output value acquisition unit 82 outputs each physical pixel 48 based on the captured image data 50 .
  • the captured image data 50 output from the image sensor 14 is an example of "first image data" according to the technology of the present disclosure.
  • the output value Y of each physical pixel 44 corresponds to the luminance value of each pixel included in the captured image indicated by the captured image data 50 .
  • the output value Y of each physical pixel 44 is a value including interference (that is, crosstalk). That is, since light in each transmission wavelength band ⁇ of the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 is incident on each physical pixel 44, the output value Y is , a value corresponding to the amount of light in the first transmission wavelength band ⁇ 1 , a value corresponding to the amount of light in the second transmission wavelength band ⁇ 2 , and a value corresponding to the amount of light in the third transmission wavelength band ⁇ 3 .
  • the processor 60 separates and extracts the value corresponding to each transmission wavelength band ⁇ from the output value Y for each physical pixel 44, that is, the process of removing interference. Interference removal processing must be performed on the output value Y. Therefore, in the present embodiment, in order to obtain the multispectral image 90, the interference removal processing unit 84 performs interference removal processing on the output value Y of each physical pixel 48 obtained by the output value obtaining unit 82. .
  • the output value Y of each physical pixel 48 includes red, green, and blue luminance values as output value Y components.
  • the output value Y of each physical pixel 48 is represented by Equation (1).
  • YR is the luminance value of red in the output value Y
  • YG is the luminance value of green in the output value Y
  • YB is the luminance value of blue in the output value Y. is.
  • the pixel value X of each image pixel forming the multispectral image 90 is the luminance value of light in the first transmission wavelength band ⁇ 1 , the luminance value of light in the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 . , as a component of the pixel value X.
  • a pixel value X of each image pixel is represented by Equation (2).
  • the luminance value X ⁇ 1 is the luminance value of light in the first transmission wavelength band ⁇ 1 of the pixel value X
  • the luminance value X ⁇ 2 is the light of the second transmission wavelength band ⁇ 2 in the pixel value X
  • the luminance value X ⁇ 3 is the luminance value of the light in the third transmission wavelength band ⁇ 3 of the pixel value X.
  • Equation (3) the output value Y of each physical pixel 48 is represented by Equation (3).
  • the interference matrix A (not shown) is based on the spectrum of the subject light, the spectral transmittance of the first lens 24, the spectral transmittance of the second lens 28, the spectral transmittance of the multi-BP filter 34C, and the spectral sensitivity of the image sensor 14. is a matrix defined by
  • the spectrum of the subject light refers to the luminance value of each light in the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 of the subject light.
  • the spectral transmittance of the first lens 24 is the ratio of each light in the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 when the light passes through the first lens 24 .
  • the spectral transmittance of the second lens 28 is the ratio of each light in the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 when the light passes through the second lens 28 . Refers to transmittance.
  • the spectral transmittance of the multi-BP filter 34C is the transmission for each transmission wavelength band (for example, the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 ) of the multi-BP filter 34C. rate.
  • the spectral transmittance of the multi-BP filter 34C is an example of "transmittance for each first transmission length band" according to the technology of the present disclosure.
  • the spectral sensitivity bands of the image sensor 14 are set to wavelength bands of red, green, and blue light.
  • the spectral sensitivity of the image sensor 14 refers to the sensitivity of each spectral sensitivity band.
  • the pixel value X of each image pixel is represented by Equation (4).
  • the interference cancellation matrix A + is also the spectrum of the subject light, the spectral transmittance of the first lens 24, the spectral transmittance of the second lens 28, the spectral transmittance of the multi-BP filter 34C, and the image sensor 14 is a matrix defined based on the spectral sensitivity of
  • the interference cancellation matrix A + is generated by interference cancellation matrix generation processing by the processing device 100, as will be described later.
  • the interference cancellation matrix A + generated by the interference cancellation matrix generation process is stored in the NVM 62 .
  • the interference elimination processing unit 84 acquires the interference elimination matrix A + stored in the NVM 62 and the output value Y of each physical pixel 48 acquired by the output value acquisition unit 82, and combines the acquired interference elimination matrix A + Based on the output value Y of each physical pixel 48, the pixel value X of each image pixel is output by Equation (4).
  • the pixel value X of each image pixel is the brightness value X ⁇ 1 of light in the first transmission wavelength band ⁇ 1 , the brightness value X ⁇ 2 of light in the second transmission wavelength band ⁇ 2 , and the brightness value X ⁇ 2 of light in the third transmission wavelength band ⁇ 2 .
  • the luminance value X ⁇ 3 of light in the wavelength band ⁇ 3 is included as a component of the pixel value X.
  • the brightness value X ⁇ 1 of light in the first transmission wavelength band ⁇ 1 is indicated by the first image data of the captured image data 50 .
  • the brightness value X ⁇ 2 of light in the second transmission wavelength band ⁇ 2 is indicated by the second image data of the captured image data 50 .
  • the brightness value X ⁇ 3 of light in the third transmission wavelength band ⁇ 3 is indicated by the third image data of the captured image data 50 .
  • the interference elimination processing is executed by the interference elimination processing unit 84, so that the captured image data 50 is the first image data that is image data representing the brightness value X ⁇ 1 of the light in the first transmission wavelength band ⁇ 1 . , second image data representing the brightness value X ⁇ 2 of light in the second transmission wavelength band ⁇ 2 , and third image data representing the brightness value X ⁇ 3 of light in the third transmission wavelength band ⁇ 3. image data. That is, the captured image data 50 is separated into image data for each transmission wavelength band of the multi-BP filter 34C. Interference removal processing is an example of “arithmetic processing” according to the technology of the present disclosure.
  • the first image data, the second image data, and the third image data are examples of "second image data" according to the technology of the present disclosure.
  • the multispectral image acquisition unit 86 generates first image data, second image data, and third image data generated by the interference removal processing performed by the interference removal processing unit 84. to obtain multispectral image data.
  • the multispectral image data is image data representing the multispectral image 90 .
  • the multispectral image data is output to display 22, for example. Display 22 displays multispectral image 90 based on the multispectral image data.
  • a multispectral image 90 is obtained by performing interference elimination processing using the interference elimination matrix A + on the output value Y of each physical pixel 48 .
  • an error occurs in the output value Y of each physical pixel 48 due to the influence of noise or the like acting on each physical pixel 48 .
  • An error that occurs in the output value Y of each physical pixel 48 is magnified by interference removal processing. If the error that occurs in the output value Y of each physical pixel 48 is magnified by the interference removal processing, an error will occur in the multispectral image 90 .
  • the error of the multispectral image 90 is an error based on the multispectral image 90 obtained under ideal conditions in which no error occurs in the output value Y of each physical pixel 48 .
  • the processing device 100 is a device that executes interference cancellation matrix derivation processing for deriving the interference cancellation matrix A + .
  • the processing device 100 is implemented by, for example, an information processing device such as a personal computer.
  • the interference cancellation matrix A + is determined in the following manner in order to reduce errors occurring in the multispectral image 90.
  • FIG. The configuration of the processing device 100 will be described below.
  • the processing device 100 includes a computer 110 .
  • Computer 110 has a processor 120 , NVM 122 and RAM 124 .
  • the processor 120, NVM 122, and RAM 124 are realized by hardware resources similar to the processor 60, NVM 62, and RAM 64 provided in the imaging device 10 (see FIG. 1 for all).
  • the computer 110 is an example of a "computer” according to the technology of the present disclosure.
  • Processor 120 is an example of a “second processor” according to the technology of the present disclosure.
  • the NVM 122 stores an interference cancellation matrix derivation program 130 .
  • the processor 120 reads the interference cancellation matrix derivation program 130 from the NVM 122 and executes the read interference cancellation matrix derivation program 130 on the RAM 124 .
  • the interference cancellation matrix derivation program 130 is an example of a "program" according to the technology of the present disclosure.
  • Processor 120 executes interference cancellation matrix derivation processing for deriving interference cancellation matrix A + according to interference cancellation matrix derivation program 130 executed on RAM 124 .
  • the interference cancellation matrix derivation process is realized by the processor 120 operating as a luminance value derivation unit 132, a luminance value determination unit 134, a spectral transmittance correction unit 136, and an interference cancellation matrix determination unit 138 according to the interference cancellation matrix derivation program 130. be done.
  • the luminance value deriving unit 132 calculates the spectrum of the subject light, the spectral transmittance of the first lens 24, the spectral transmittance of the second lens 28, the spectral transmittance of the multi-BP filter 34C, and the image Obtain the spectral sensitivity of the sensor 14 .
  • the spectrum of subject light, the spectral transmittance of the first lens 24, the spectral transmittance of the second lens 28, the spectral transmittance of the multi-BP filter 34C, and the spectral sensitivity of the image sensor 14 are, for example, given to the processing device 100 by the user. is the value given by
  • the spectral transmittance of the multi-BP filter 34C is set to be the same.
  • the spectral transmittances of the multi-BP filters 34C may be different, an example in which the spectral transmittances of the multi-BP filters 34C are set to be the same will be described below.
  • the luminance value deriving unit 132 calculates the obtained spectrum of the subject light, the spectral transmittance of the first lens 24, the spectral transmittance of the second lens 28, the spectral transmittance of the multi-BP filter 34C, and the spectral sensitivity of the image sensor 14. Then, a luminance value output for each spectral sensitivity band is derived from at least one physical pixel 48A (hereinafter referred to as "specific physical pixel 48A”) out of the plurality of physical pixels 48.
  • specific physical pixel 48A physical pixel 48A
  • one physical pixel 48 located in the central portion of the light receiving surface 38A out of the plurality of physical pixels 48 is selected as the specific physical pixel 48A.
  • the specific physical pixel 48A is an example of a "specific pixel” according to the technology of the present disclosure.
  • the central portion of the light receiving surface is an example of the "specific region of the light receiving surface” according to the technology of the present disclosure.
  • the luminance value output from the specific physical pixel 48A for each spectral sensitivity band is the luminance value of each light of red (R), green (G), and blue (B) (hereinafter referred to as “the RGB luminance value of the specific physical pixel 48A ).
  • the brightness value determination unit 134 determines whether the RGB brightness values of the specific physical pixel 48A derived by the brightness value derivation unit 132 fall within a predetermined range.
  • FIG. 9 shows the RGB luminance values of the specific physical pixel 48A when the multi-BP filter 34C has the same spectral transmittance.
  • the predetermined range is set to be less than the maximum value of the RGB luminance values of the specific physical pixel 48A and greater than or equal to the minimum value of the RGB luminance values when the multi-BP filter 34C has the same spectral transmittance.
  • the predetermined range is set to a range in which the error of the multispectral image 90 obtained by performing interference removal processing on the output value Y of each physical pixel 48 falls within the allowable value.
  • the allowable value is a value arbitrarily set by the user.
  • the brightness value determination unit 134 determines that the RGB brightness values of the specific physical pixel 48A derived by the brightness value derivation unit 132 are not within the predetermined range.
  • the spectral transmittance correction unit 136 adjusts the multi-BP filter 34C. The spectral transmittance is corrected so that the RGB brightness values of the specific physical pixel 48A fall within a predetermined range.
  • the spectral transmittance correction unit 136 calculates the RGB luminance value of the specific physical pixel 48A based on the ratio of each luminance value of the RGB luminance values of the specific physical pixel 48A when the multi-BP filter 34C has the same spectral transmittance. derives a spectral transmittance that falls within a predetermined range, and corrects the spectral transmittance of the multi-BP filter 34C to the derived spectral transmittance.
  • the luminance values of the green (G) and red (R) lights out of the RGB luminance values of the specific physical pixel 48A are out of the predetermined range. performs correction to lower the second transmittance T2 corresponding to the luminance value of green (G) and the third transmittance T3 corresponding to the luminance value of red (R).
  • the spectral transmittance correction unit 136 adjusts the second transmittance T2 to be higher than the first transmittance T1, for example, in response to the fact that the luminance value of green (G) is higher than the luminance value of blue (B).
  • the spectral transmittance correction unit 136 sets the third transmittance T3 lower than the second transmittance T2, for example, corresponding to the fact that the luminance value of red (R) is higher than the luminance value of green (G). make corrections to lower Further, the spectral transmittance correction unit 136 sets the third transmittance T3 lower than the second transmittance T2, for example, corresponding to the fact that the luminance value of red (R) is higher than the luminance value of green (G). make corrections to
  • the spectral transmittance correction unit 136 continues the second transmission until the brightness value determination unit 134 determines that the RGB brightness values of the specific physical pixel 48A derived by the brightness value derivation unit 132 are within a predetermined range.
  • the spectral transmittance of the multi-BP filter 34C may be modified by stepping down the index T2 and/or the third transmittance T3.
  • modifying the spectral transmittance of the multi-BP filter 34C corresponds to lowering the condition number of the interference cancellation matrix A + .
  • the condition number of the interference cancellation matrix A + refers to the expansion ratio of the relative error of the multispectral image 90 obtained by subjecting the output value Y of each physical pixel 48 to the interference cancellation processing.
  • the spectral transmittance correction unit 136 may correct the spectral transmittance of the multi-BP filter 34C to a spectral transmittance that minimizes the maximum singular value of the interference cancellation matrix A + .
  • the maximum singular value of the interference cancellation matrix A + refers to the expansion rate of the absolute error of the multispectral image 90 obtained by subjecting the output value Y of each physical pixel 48 to interference cancellation processing.
  • the multi-BP filter 34C has the same spectral transmittance.
  • the error in the multispectral image 90 is reduced. It is ideal to correct the spectral transmittance of the multi-BP filter 34C to a spectral transmittance that minimizes the maximum singular value of the interference cancellation matrix A + .
  • the spectral transmittance correction unit 136 sets the spectral transmittance of the multi-BP filter 34C so that the condition number of the interference cancellation matrix A + is smaller than the condition number when the spectral transmittance of the multi-BP filter 34C is the same. and/or the maximum singular value of the interference elimination matrix A + is corrected to be smaller than the maximum singular value when the multi-BP filter 34C has the same spectral transmittance.
  • the spectral transmittance of the multi-BP filter 34C corrected by the spectral transmittance correction unit 136 is a so-called design value, and is reflected in the above-described spectral transmittance of the multi-BP filter 34C. That is, the multi-BP filter 34C is manufactured as a filter having the spectral transmittance corrected by the spectral transmittance correction section 136 .
  • the multi BP filter 34C manufactured in this way has the characteristic that the condition number of the interference cancellation matrix A + is smaller than the condition number when the multi BP filter 34C has the same spectral transmittance, and/or the interference
  • the maximum singular value of the removal matrix A + has the characteristic that it is smaller than the maximum singular value when the multi-BP filter 34C has the same spectral transmittance.
  • the process of correcting the spectral transmittance of the multi-BP filter 34C by the spectral transmittance correction unit 136 is the technique of the present disclosure. It is an example of "derivation processing" related to.
  • the RGB luminance value of the specific physical pixel 48A is an example of the "first output value” according to the technology of the present disclosure.
  • the RGB luminance value of the specific physical pixel 48A when the multi-BP filter 34C has the same spectral transmittance is an example of the "second output value" according to the technique of the present disclosure.
  • a filter whose spectral transmittance is variable may be used as the multi-BP filter 34C, and the spectral transmittance of the multi-BP filter 34C may be changed to the spectral transmittance corrected by the spectral transmittance correction unit 136.
  • FIG. 10 shows an example in which the spectral transmittance of the multi-BP filter 34C is corrected by the spectral transmittance correction unit 136 so that the RGB luminance values of the specific physical pixel 48A are all within the predetermined range. It is In the example shown in FIG. 10, the luminance value determination unit 134 determines that the RGB luminance values of the specific physical pixel 48A derived by the luminance value derivation unit 132 fall within a predetermined range.
  • the interference removing matrix determining unit 138 sets the interference removing matrix A + to decide.
  • the interference elimination matrix determination unit 138 uses the luminance value determination unit 134 to Using the spectral transmittance of the multi-BP filter 34C (that is, the spectral transmittance corrected by the spectral transmittance correction unit 136) when it is determined that the RGB luminance values of the specific physical pixel 48A are within the predetermined range , defines the interference cancellation matrix A + .
  • the interference cancellation matrix A + determined by the interference cancellation matrix determination unit 138 is stored in the NVM 62 of the imaging device 10 .
  • FIG. 11 shows an example of the flow of multispectral image generation processing according to this embodiment.
  • step ST10 the output value acquisition unit 82 acquires the output value Y of each physical pixel 48 based on the captured image data 50 output from the image sensor 14. (See Figure 5). After the process of step ST10 is executed, the multispectral image generation process proceeds to step ST12.
  • step ST12 the interference removal processing unit 84 obtains the interference removal matrix A + stored in the NVM 62 and the output value Y of each physical pixel 48 obtained in step ST10, and obtains the obtained interference removal matrix A + and the output value Y of each physical pixel 48, the pixel value X of each image pixel is output (see FIG. 5).
  • the captured image data 50 is changed from the first image data, which is the image data indicating the brightness value X ⁇ 1 of the light in the first transmission wavelength band ⁇ 1 , and the second transmission wavelength band
  • the second image data is image data representing the brightness value X ⁇ 2 of light of ⁇ 2
  • the third image data is image data representing the brightness value X ⁇ 3 of light of the third transmission wavelength band ⁇ 3 .
  • step ST14 the multispectral image acquisition unit 86 generates a multispectral image 90 based on the first image data, the second image data, and the third image data generated by executing the interference removal process in step ST12. is obtained (see FIG. 6). After the process of step ST14 is executed, the multispectral image generation process proceeds to step ST16.
  • the processor 60 determines whether or not the condition for terminating the multispectral image generation process (that is, the termination condition) is met.
  • the termination condition is a condition that the user has given an instruction to the imaging device 10 to terminate the multispectral image generation processing.
  • the termination condition is not met, the determination is negative, and the multispectral image generation process proceeds to step ST10.
  • the termination condition is met, the determination is affirmative and the multispectral image generation process is terminated.
  • FIG. 12 shows an example of the flow of interference cancellation matrix derivation processing according to this embodiment.
  • step ST20 the brightness value derivation unit 132 determines the spectrum of the subject light, the spectral transmittance of the first lens 24, the spectral transmittance of the second lens 28, the multi-BP filter Based on the spectral transmittance of 34C and the spectral sensitivity of the image sensor 14, the RGB brightness values of the specific physical pixel 48A are derived (see FIG. 8).
  • step ST20 the interference cancellation matrix derivation process proceeds to step ST22.
  • the brightness value determination unit 134 determines whether the RGB brightness values of the specific physical pixel 48A derived at step ST20 fall within a predetermined range (see FIG. 9). In step ST22, if the RGB brightness values of the specific physical pixel 48A are not within the predetermined range, the determination is negative, and the interference cancellation matrix deriving process proceeds to step ST24. In step ST22, if the RGB luminance values of the specific physical pixel 48A are within the predetermined range, the determination is affirmative, and the interference cancellation matrix deriving process proceeds to step ST26.
  • step ST24 the spectral transmittance correction unit 136 corrects the spectral transmittance of the multi-BP filter 34C to a spectral transmittance that allows the RGB luminance values of the specific physical pixel 48A to fall within a predetermined range (see FIG. 9).
  • step ST24 the interference cancellation matrix derivation process proceeds to step ST28.
  • step ST26 the interference cancellation matrix determination section 138 determines the interference cancellation matrix A + (see FIG. 10). Specifically, in addition to the spectrum of the subject light, the spectral transmittance of the first lens 24, the spectral transmittance of the second lens 28, and the spectral sensitivity of the image sensor 14, the interference elimination matrix determination unit 138 Interference elimination matrix Define A + . After the process of step ST26 is executed, the interference cancellation matrix derivation process proceeds to step ST28.
  • the processor 120 determines whether or not the condition for terminating the interference cancellation matrix derivation process (that is, the terminating condition) is established.
  • An example of the termination condition is a condition that the user gives an instruction to the processing device 100 to terminate the interference cancellation matrix derivation process.
  • the termination condition is not met, the determination is negative, and the interference cancellation matrix deriving process proceeds to step ST20.
  • the termination condition if the termination condition is satisfied, the determination is affirmative, and the interference cancellation matrix derivation process is terminated.
  • the processing method by the processing device 100 described as the operation of the processing device 100 is an example of the “processing method” according to the technology of the present disclosure.
  • interference removal processing is performed on the captured image data 50 output from the image sensor 14, so that the captured image data 50 is processed by the multi-BP filter 34C. It is separated into image data for each transmission wavelength band (see FIG. 5). Therefore, based on the separated image data, a multispectral image 90 including light intensity values in multiple transmission wavelength bands can be obtained.
  • the multi-BP filter 34C has the RGB luminance value of the specific physical pixel 48A that is less than the maximum value of the RGB luminance value of the specific physical pixel 48A when the spectral transmittance of the multi-BP filter 34C is the same, and is equal to or greater than the minimum RGB luminance value. (see FIG. 10). Therefore, errors in the image data for each transmission wavelength band (that is, the first image data, the second image data, and the third image data) obtained from the captured image data 50 output from the image sensor can be reduced. That is, errors in the multi-spectral image 90 can be reduced compared to the case where the multi-BP filter 34C has the same spectral transmittance.
  • the optical characteristics of the multi-BP filter 34C include optical characteristics in which the width of each transmission wavelength band is the same and the transmittance of each transmission wavelength band is different (see FIG. 10). Therefore, for example, compared to the case where the width of each transmission wavelength band is the same and the transmittance of each transmission wavelength band is also the same, the condition number and/or the maximum singular value of the interference cancellation matrix A + can be made smaller. .
  • the optical characteristics of the multi-BP filter 34C are such that the condition number of the interference cancellation matrix A + is smaller than the condition number when the multi-BP filter 34C has the same spectral transmittance, and/or the interference cancellation matrix A + is smaller than the maximum singular value when the multi-BP filter 34C has the same spectral transmittance (see FIGS. 8 and 9). Therefore, compared to the case where the multi-BP filter 34C has the same spectral transmittance, the magnification of the relative error of the multispectral image 90 and/or the magnification of the absolute error of the multispectral image 90 can be reduced. .
  • the optical characteristics of the multi-BP filter 34C are characteristics set based on the RGB luminance values of the specific physical pixels 48A when the multi-BP filters 34C have the same spectral transmittance (see FIGS. 8 and 9). Therefore, according to the RGB luminance values of the specific physical pixel 48A when the multi-BP filter 34C has the same spectral transmittance, the RGB luminance values of the specific physical pixel 48A can be kept within a predetermined range.
  • the multi-BP filter 34C has a glass layer 68 and a pair of coating layers 70 and 72 (see FIG. 3).
  • the pair of coating layers 70 and 72 has a plurality of transmission wavelength bands and different transmittances for each transmission wavelength band. Therefore, it is possible to realize a multi-BP filter 34C having a different transmittance for each transmission wavelength band.
  • the optical system 12 has a B filter 34A and a G filter 34B having different transmission wavelength bands from the multi-BP filter 34C.
  • the optical system 12 also has a first polarizer 36A corresponding to the B filter 34A, a second polarizer 36B corresponding to the G filter 34B, and a third polarizer 36C corresponding to the multi-BP filter 34C.
  • Image sensor 14 has a third polarizer 36C corresponding to each physical pixel 48 . Therefore, each physical pixel 48 can obtain a luminance value corresponding to the polarization direction of light.
  • the specific physical pixel 48A is a pixel located in the central portion of the light receiving surface 38A among the plurality of pixels 48. Therefore, it is possible to acquire RGB brightness values with less error than, for example, the case of acquiring the RGB brightness values of the physical pixels 48 arranged at positions off the center of the light receiving surface 38A.
  • the multi-BP filter 34C has optical characteristics such that the width of each transmission wavelength band is the same and the transmittance of each transmission wavelength band is different.
  • the multi-BP filter 34C may have optical characteristics such that the transmittance for each transmission wavelength band is the same and the width for each transmission wavelength band is different.
  • the transmittance for each transmission wavelength band is the same as the transmittance T, but the first bandwidth W1 is wider than the second bandwidth W2 , and the second bandwidth W2 is It is wider than the third bandwidth W3 .
  • the condition number and/or the maximum singular value of the interference cancellation matrix A + can be made smaller.
  • the width of each transmission wavelength band may be other than the example shown in FIG.
  • the multi-BP filter 34C has optical characteristics with different widths for each transmission wavelength band, the following demerit can be considered. That is, as the width of each transmission wavelength band is narrowed, the amount of wavelength shift corresponding to the incident angle of light to the multi-BP filter 34C may increase, or the influence of manufacturing errors of the multi-BP filter 34C may increase. can be considered. Moreover, it is conceivable that the wavelength accuracy of the multispectral image 90 may decrease as the width of each transmission wavelength band increases. Furthermore, the width of each transmission wavelength band may be restricted in order to ensure the space between adjacent transmission wavelength bands.
  • the optical characteristic with different widths for each transmission wavelength band has a condition number and/or maximum singularity even if the difference in width between each transmission wavelength band is small. It may be applied when the range of decrease in value is large.
  • the optical characteristic in which the width of each transmission wavelength band is different is an example of the "second optical characteristic" according to the technique of the present disclosure.
  • the multi-BP filter 34C may have optical characteristics such that the transmittance distribution differs for each transmission wavelength band.
  • the multi-BP filter 34C has a trapezoidal transmittance distribution in the first transmission wavelength band ⁇ 1 , a rectangular transmittance distribution in the second transmission wavelength band ⁇ 2 , and a rectangular transmittance distribution in the second transmission wavelength band ⁇ 2.
  • the 3 transmission wavelength band ⁇ 3 has a transmittance distribution in which the transmittance decreases as the wavelength increases.
  • the condition number and/or the maximum singular value of the interference cancellation matrix A + can be made smaller. Note that the transmittance distribution for each transmission wavelength band may be other than the example shown in FIG.
  • the multi-BP filter 34C has optical characteristics in which the transmittance distribution differs for each transmission wavelength band, the following demerit can be considered. That is, in each transmission wavelength band, the transmittance varies depending on the wavelength. Therefore, optical characteristics with different transmittance distributions for each transmission wavelength band may be applied to, for example, a light source and/or subject that produces special subject light that matches the transmittance distribution for each transmission wavelength band.
  • An optical characteristic in which the transmittance distribution differs for each transmission wavelength band is an example of the "third optical characteristic" according to the technique of the present disclosure.
  • the optical characteristics of the multi-BP filter 34C include at least one of optical characteristics with different transmittances for each transmission wavelength band, optical characteristics with different widths for each transmission wavelength band, and optical characteristics with different transmittance distributions for each transmission wavelength band. may contain.
  • the width of each transmission wavelength band is the minimum transmittance. It may be the width of the value, the width of the maximum value of the transmittance, or the width of the average value of the transmittance.
  • the multi-BP filter 34C has the glass layer 68 and the pair of coating layers 70 and 72 in order to achieve optical characteristics with different transmittances for each transmission wavelength band.
  • the multi-BP filter 34C has a first filter member 140 and a second filter member 142 in order to achieve optical characteristics with different transmittances for respective transmission wavelength bands. good too.
  • the first filter member 140 has a plurality of transmission wavelength bands (for example, a first transmission wavelength band ⁇ 1 , a second transmission wavelength band ⁇ 2 and a third transmission wavelength band ⁇ 3 ).
  • the first filter member 140 has an optical characteristic that the transmittance is the same for each transmission wavelength band.
  • the second filter member 142 is an adjustment filter that adjusts transmittance, and has different transmittances for different transmission wavelength bands. In the example shown in FIG. 15, the first filter member 140 and the second filter member 142 realize a multi-BP filter 34C having a different transmittance for each transmission wavelength band.
  • the multi-BP filter 34C can be designed and/or manufactured more easily than, for example, when the multi-BP filter 34C has a glass layer 68 and a pair of coating layers 70 and 72. .
  • the second filter member 142 which is an adjustment filter, stray light is generated in the multi-BP filter 34C compared to, for example, the case where the multi-BP filter 34C has the glass layer 68 and the pair of coating layers 70 and 72. can be suppressed.
  • the first filter member 140 is an example of the "first filter member” according to the technology of the present disclosure.
  • the second filter member 142 is an example of a "second filter member" according to the technology of the present disclosure.
  • the first filter member 140 may have a plurality of transmission wavelength bands, and may have optical characteristics with different transmittances for each transmission wavelength band.
  • the second filter member 142 may have an optical characteristic that the transmittance decreases as the wavelength increases.
  • the optical characteristics of the first filter member 140 are such that when a reference light source that emits light in a reference wavelength band is used as the light source 2 (see FIG. 1), the optical properties of the interference cancellation matrix A + are minimized. May be set to a property.
  • the second filter member 142 is combined with the first filter member 140 when another light source that emits light in a wavelength band different from that of the reference light source is used as the light source, thereby reducing the condition number of the interference cancellation matrix A + . It may be set to minimize optical properties.
  • the second filter member 142 need not be used when the light source is the reference light source. Also, when the light source is a light source different from the reference light source, the use of the second filter member 142 makes it possible to obtain light in a plurality of transmission wavelength bands by the multi-BP filter 34C.
  • the multi-BP filter 34C may have a glass layer 68 and a coating layer 70, as shown in FIG.
  • a coating layer 70 is laminated to the first surface 68A of the glass layer 68 .
  • the glass layer 68 has a different transmittance for each transmission wavelength band.
  • the glass layer 68 is an optical fiber whose transmittance gradually decreases as the wavelength increases, corresponding to the first wavelength band ⁇ 1 , the second wavelength band ⁇ 2 , and the third wavelength band ⁇ 3 . have characteristics.
  • the optical properties of the glass layer 68 are achieved by, for example, an absorbent or the like added to the glass layer 68 .
  • the coating layer 70 has a plurality of transmission wavelength bands and has an optical characteristic that the transmittance for each transmission wavelength band is constant.
  • the glass layer 68 and the coating layer 70 realize a multi-BP filter 34C having a different transmittance for each transmission wavelength band.
  • the example shown in FIG. 17 facilitates the design and/or manufacture of the multi-BP filter 34C compared to, for example, the case where the multi-BP filter 34C has a glass layer 68 and a pair of coating layers 70 and 72 (see FIG. 3). can be done.
  • the glass layer 68 is an example of a "glass layer” according to the technology of the present disclosure.
  • the coating layer 70 is an example of the "first coating layer" according to the technology of the present disclosure.
  • the multi-BP filter 34C may have a lens 144 and a coating layer 146, as shown in FIG.
  • a coating layer 146 is laminated on the surface of the lens 144 .
  • the lens 144 and the coating layer 146 realize a multi-BP filter 34C having a different transmittance for each transmission wavelength band.
  • the example shown in FIG. 18 can be made smaller than when the multi-BP filter 34C has the first filter member 140 and the second filter member 142 (see FIGS. 15 and 16).
  • the lens 144 is an example of a "lens" according to the technology of the present disclosure.
  • the coating layer 146 is an example of the "second coating layer" according to the technology of the present disclosure.
  • the luminance value derivation unit 132 derives the RGB luminance values of the specific physical pixel 48A located in the central portion of the light receiving surface 38A among the plurality of physical pixels 48 (see FIG. 8). However, the luminance value derivation unit 132 selects a physical pixel 48 located away from the central portion of the light receiving surface 38A among the plurality of physical pixels 48 as the specific physical pixel 48A, and calculates the RGB luminance value of the selected specific physical pixel 48A. can be derived.
  • the luminance value deriving unit 132 selects a plurality of adjacent specific physical pixels 48A, and uses the average value of the luminance values output from the selected plurality of specific physical pixels 48A for each spectral sensitivity band as the RGB luminance value. can be derived.
  • the luminance value derivation unit 132 uses four types of polarizers 54 having different transmission axes (that is, the first polarizer 54A, the second polarizer 54B, the third polarizer 54C, and the The four physical pixels 48 (that is, the four physical pixels 48 adjacent in the two-dimensional direction) to which the fourth polarizers 54D) are respectively assigned may be selected as the specific physical pixels 48A. Then, the luminance value derivation unit 132 may derive the sum of the luminance values output from the four specific physical pixels 48A for each spectral sensitivity band as the RGB luminance value.
  • each polarizer 54 the light transmitted through each polarizer 54 is polarized according to the angle of the transmission axis of each polarizer 54 .
  • the luminance value output from each specific physical pixel 48A for each spectral sensitivity band depends on the polarization direction of light incident on each specific physical pixel 48A. However, the sum of luminance values output for each spectral sensitivity band from four specific physical pixels 48A adjacent in the two-dimensional direction is constant.
  • the RGB luminance values of the specific physical pixel 48A can be obtained without depending on the angle ⁇ of the polarization direction of the light incident on each specific physical pixel 48A.
  • the luminance value derivation unit 132 does not use the sum of the luminance values output from the four specific physical pixels 48A for each spectral sensitivity band as the RGB luminance value, but uses the value derived based on the sum of the luminance values as the RGB luminance value. value.
  • the multispectral image generation process is performed by the imaging device 10 (see FIG. 4), and the interference cancellation matrix derivation process is performed by the processing device 100 (see FIG. 7).
  • the imaging device 10 may perform multispectral image generation processing including interference cancellation matrix derivation processing.
  • the processor 60 operates as follows for the above embodiment. That is, the output value obtaining unit 82 obtains the output value Y of the specific physical pixel 48A based on the captured image data 50 output from the image sensor 14, and the luminance value deriving unit 132 obtains the output value Y of the specific physical pixel 48A. Get the RGB luminance values contained in .
  • the luminance value determination unit 134 and the spectral transmittance correction unit 136 are the same as in the above embodiment.
  • a filter whose spectral transmittance is variable is used for the multi-BP filter 34C, and the spectral transmittance of the multi-BP filter 34C is set to the spectral transmittance corrected by the spectral transmittance correction unit 136.
  • the interference cancellation matrix determination unit 138, the interference cancellation processing unit 84, and the multispectral image acquisition unit 86 are also the same as in the above embodiment.
  • the interference elimination processing is executed by the interference elimination processing unit 84 so that the captured image data 50 is the image data representing the luminance value X ⁇ 1 of the light in the first transmission wavelength band ⁇ 1 . 1 image data, second image data representing the brightness value X ⁇ 2 of light in the second transmission wavelength band ⁇ 2 , and image data representing the brightness value X ⁇ 3 of light in the third transmission wavelength band ⁇ 3 . It is separated into certain third image data. That is, the captured image data 50 is separated into image data for each transmission wavelength band of the multi-BP filter 34C. Therefore, based on the separated image data, a multispectral image 90 including light intensity values in multiple transmission wavelength bands can be obtained.
  • the optical system 12 includes a pupil division filter 26 having multiple filters 34 and multiple polarizers 36, and the image sensor 14 has multiple polarizers 54 (see FIG. 1).
  • the optical system 12 may be provided with a multi-BP filter 34C instead of the pupil division filter 26, and the image sensor 14 may be configured without the plurality of polarizers 54.
  • multispectral image generation processing is executed by the processor 60 to obtain a multispectral image 90 including light luminance values in a plurality of transmission wavelength bands.
  • the multispectral image 90 is displayed on the display 22 provided in the imaging device 10 (see FIG. 1).
  • the multispectral image data may be transmitted from the imaging device 10 to an external device communicably connected to the imaging device 10, and the multispectral image 90 may be displayed on the display of the external device.
  • the first image data, the second image data, and the third image data generated by executing the interference elimination process in the imaging device 10 may be transmitted from the imaging device 10 to the external device.
  • Multispectral image data may be generated by synthesizing the first image data, the second image data, and the third image data by an external device.
  • the imaging device 10 has the processor 60 as an example, but instead of or together with the processor 60, at least one other CPU, at least one GPU, and/or at least one TPU may be used.
  • the NVM 62 stores the multispectral image generation program 80 as an example, but the technology of the present disclosure is not limited to this.
  • the multispectral image generation program 80 may be stored in a portable non-temporary computer-readable storage medium such as an SSD or USB memory (hereinafter simply referred to as "non-temporary storage medium").
  • a multispectral image generation program 80 stored in a non-transitory storage medium is installed in the computer 20 of the imaging device 10, and the processor 60 executes multispectral image generation processing according to the multispectral image generation program 80.
  • the multispectral image generation program 80 is stored in a storage device such as another computer or server device connected to the imaging device 10 via a network, and the multispectral image generation program 80 is stored in response to a request from the imaging device 10. may be downloaded and installed on computer 20 .
  • the multispectral image generation program 80 it is not necessary to store all of the multispectral image generation program 80 in a storage device such as another computer or server device connected to the imaging device 10, or in the NVM 62, and a part of the multispectral image generation program 80 It may be stored.
  • the computer 20 is built into the imaging device 10, the technology of the present disclosure is not limited to this, and the computer 20 may be provided outside the imaging device 10, for example.
  • the computer 20 including the processor 60, the NVM 62, and the RAM 64 is illustrated, but the technology of the present disclosure is not limited to this, and instead of the computer 20, an ASIC, FPGA, and/or PLD may be applied. Also, instead of the computer 20, a combination of hardware configuration and software configuration may be used.
  • the processor 120 was illustrated as the processing device 100, but instead of the processor 120 or together with the processor 120, at least one other CPU, at least one GPU, and/or at least one A TPU may also be used.
  • the interference cancellation matrix derivation program 130 is stored in the NVM 122, but the technology of the present disclosure is not limited to this.
  • the interference cancellation matrix derivation program 130 may be stored in a non-transitory storage medium such as SSD or USB memory.
  • the interference cancellation matrix derivation program 130 stored in the non-temporary storage medium is installed in the computer 110 of the processing device 100, and the processor 120 executes the interference cancellation matrix derivation process according to the interference cancellation matrix derivation program 130.
  • the interference cancellation matrix derivation program 130 is stored in a storage device such as another computer or server device connected to the processing device 100 via a network, and the interference cancellation matrix derivation program 130 is stored in response to a request from the processing device 100. may be downloaded and installed on computer 110 .
  • the interference cancellation matrix derivation program 130 it is not necessary to store all of the interference cancellation matrix derivation program 130 in a storage device such as another computer or server device connected to the processing device 100, or in the NVM 122, and a part of the interference cancellation matrix derivation program 130 It may be stored.
  • the computer 110 is built into the processing device 100, the technology of the present disclosure is not limited to this, and the computer 110 may be provided outside the processing device 100, for example.
  • the computer 110 including the processor 120, the NVM 122, and the RAM 124 is illustrated in the above embodiment, the technology of the present disclosure is not limited to this, and instead of the computer 110, an ASIC, FPGA, and/or PLD may be applied. Also, instead of the computer 110, a combination of hardware configuration and software configuration may be used.
  • processors can be used as hardware resources for executing the various processes described in the above embodiments.
  • processors include CPUs, which are general-purpose processors that function as hardware resources that execute various processes by executing software, that is, programs.
  • processors include, for example, FPGAs, PLDs, ASICs, and other dedicated electric circuits that are processors having circuit configurations specially designed to execute specific processing.
  • a memory is built in or connected to each processor, and each processor uses the memory to perform various processes.
  • Hardware resources that perform various processes may be configured with one of these various processors, or a combination of two or more processors of the same or different types (for example, a combination of multiple FPGAs or CPUs). and FPGA). Also, the hardware resource for executing various processes may be one processor.
  • one processor is configured by combining one or more CPUs and software, and this processor functions as a hardware resource that executes various processes.
  • this processor functions as a hardware resource that executes various processes.
  • SoC SoC, etc.
  • a and/or B is synonymous with “at least one of A and B.” That is, “A and/or B” means that only A, only B, or a combination of A and B may be used. Also, in this specification, when three or more matters are expressed by connecting with “and/or”, the same idea as “A and/or B" is applied.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

撮像装置は、複数の第1透過波長帯域を有する第1光学フィルタを有する光学系と、光学系を透過した光を受光するイメージセンサと、イメージセンサから出力された第1画像データに対して演算処理を実行することにより、第1透過波長帯域毎の第2画像データを出力する第1プロセッサとを備える。第1光学フィルタは、イメージセンサの特定画素から分光感度帯域毎に出力される第1出力値が、第1透過波長帯域毎の透過率が同じである場合に特定画素から分光感度帯域毎に出力される第2出力値の最大値未満で第2出力値の最小値以上となる光学特性を有する。光学特性は、例えば、第1透過波長帯域毎の透過率、幅、又は透過率分布が異なる。

Description

撮像装置、処理装置、処理方法、プログラム、及び光学フィルタ
 本開示の技術は、撮像装置、処理装置、処理方法、プログラム、及び光学フィルタに関する。
 特開2017-118284号公報には、撮像センサと、光学系と、フィルタと、信号処理デバイスとを備える撮像装置が開示されている。撮像センサは、各画素に受光素子が配置された撮像センサである。光学系は、撮像センサ上に像を結ぶレンズを有する。フィルタは、複数種類のフィルタ部が所定配列で撮像センサの画素の配置に対応して配置され、かつ、各種類のフィルタ部は、可視光帯域の長波長側に隣接する第1の波長帯域の可視光帯域から離れた一部分である第2の波長帯域に透過特性を有するとともに可視光帯域における波長に応じた分光透過特性が互いに異なる。信号処理デバイスは、撮像センサから出力される信号を処理して可視画像信号および赤外画像信号を出力可能である。撮像装置は、フィルタの第2の波長帯域の透過率がフィルタの可視光帯域の透過率より低くなっている。
 特開2017-046100号公報には、撮像部と、第1光学フィルタと、可視光信号生成部と、赤外光信号生成部と、制御部と、光学フィルタ制御部とを備える撮像装置が開示されている。撮像部は、被写体からの入射光を結像して光学像を生成するレンズ、並びに、可視光及び赤外光を同時に受光可能であり、レンズを介して入射された光信号を電気信号に変換する撮像素子を有する。第1光学フィルタは、可視光のみを透過し、入射光の光路上の第1の位置と光路上の位置以外の第2の位置との間で移動可能である。可視光信号生成部は、電気信号に含まれる可視光成分の信号のみを算出する。赤外光信号生成部は、電気信号に含まれる赤外光成分の信号のみを算出する。制御部は、可視光信号生成部及び赤外光信号生成部で算出された信号に基づいて、所定の制御信号を出力する。光学フィルタ制御部は、所定の制御信号に基づいて、第1光学フィルタを第1の位置又は第2の位置に配置する。
 特開2004-147287号公報3には、被写体を撮影する際、撮影波長領域を複数バンドに分割し、分割された各バンドに対応した被写体のスペクトル画像を撮影するマルチバンド画像の撮影の際、本撮影に先立って行われる予備撮影により得られる撮影データから各バンド間の感度バランスを検出し、検出された各バンド間の感度バランスに基づいて撮影条件を決定し、決定された撮影条件により本撮影を行うマルチバンド画像撮影方法が開示されている。
 本開示の技術に係る一つの実施形態は、例えば、第1光学フィルタが有する第1透過波長帯域毎の透過率が同じである場合に比して、イメージセンサから出力された第1画像データから得られる第1透過波長帯域毎の第2画像データの誤差を少なくすることができる撮像装置、処理装置、処理方法、及びプログラムを提供する。
 本開示の技術に係る第1の態様は、複数の第1透過波長帯域を有する第1光学フィルタを有する光学系と、光学系を透過した光を受光するイメージセンサと、光に基づいてイメージセンサから出力された第1画像データに対して演算処理を実行することにより、第1透過波長帯域毎の第2画像データを出力する第1プロセッサと、を備え、第1光学フィルタは、イメージセンサの複数の画素のうちの少なくとも一つの特定画素から分光感度帯域毎に出力される第1出力値が、第1透過波長帯域毎の透過率が同じである場合に特定画素から分光感度帯域毎に出力される第2出力値の最大値未満で第2出力値の最小値以上となる光学特性を有し、光学特性は、第1透過波長帯域毎の透過率が異なる第1光学特性、第1透過波長帯域毎の幅が異なる第2光学特性、及び第1透過波長帯域毎の透過率分布が異なる第3光学特性のうちの少なくとも1つを含む撮像装置である。
 本開示の技術に係る第2の態様は、第1の態様に係る撮像装置において、演算処理は、混信除去行列を用いることにより、第1画像データを第1透過波長帯域毎の第2画像データに分離する処理であり、光学特性は、混信除去行列の条件数が、第1透過波長帯域毎の透過率が同じである場合の条件数よりも小さくなる特性、及び/又は、混信除去行列の最大特異値が、第1透過波長帯域毎の透過率が同じである場合の最大特異値よりも小さくなる特性である撮像装置である。
 本開示の技術に係る第3の態様は、第1の態様又は第2の態様に係る撮像装置において、光学特性は、第2出力値に基づいて設定された特性である撮像装置である。
 本開示の技術に係る第4の態様は、第1の態様から第3の態様の何れか一つの態様に係る撮像装置において、光学特性は、第1光学特性を含み、第1光学フィルタは、ガラス層と、ガラス層に積層された第1コーティング層と、を有し、第1コーティング層は、複数の第1透過波長帯域を有し、ガラス層及び/又は第1コーティング層は、第1透過波長帯域毎に異なる透過率を有する撮像装置である。
 本開示の技術に係る第5の態様は、第1の態様から第4の態様の何れか一つの態様に係る撮像装置において、光学特性は、第1光学特性を含み、第1光学フィルタは、複数の第1透過波長帯域を有する第1フィルタ部材と、第1透過波長帯域毎に異なる透過率を有する第2フィルタ部材と、を有する撮像装置である。
 本開示の技術に係る第6の態様は、第1の態様から第5の態様の何れか一つの態様に係る撮像装置において、光学特性は、第1光学特性を含み、光学系は、レンズを有し、第1光学フィルタは、レンズに形成された第2コーティング層を含む撮像装置である。
 本開示の技術に係る第7の態様は、第1の態様から第6の態様の何れか一つの態様に係る撮像装置において、光学系は、複数の第1透過波長帯域と異なる第2透過波長帯域を有する第2光学フィルタと、第1光学フィルタに対応する第1偏光子と、第2光学フィルタに対応する第2偏光子と、を有し、イメージセンサは、各画素に対応する第3偏光子を有する撮像装置である。
 本開示の技術に係る第8の態様は、第7の態様に係る撮像装置において、複数の画素のうちそれぞれ隣接する4つの画素には、互いに異なる透過軸を有する4種類の第3偏光子がそれぞれ割り当てられており、4つの画素は、それぞれ特定画素であり、第1出力値は、4つの画素から分光感度帯域毎に出力される出力値の和に基づく値である撮像装置である。
 本開示の技術に係る第9の態様は、第1の態様から第8の態様の何れか一つの態様に係る撮像装置において、特定画素は、複数の画素のうちのイメージセンサの受光面の特定領域に位置する画素である撮像装置である。
 本開示の技術に係る第10の態様は、第1の態様から第9の態様の何れか一つの態様に係る撮像装置における光学特性を導出する導出処理を実行する第2プロセッサを備える処理装置であって、導出処理は、第2出力値に基づいて光学特性を導出する処理である処理装置である。
 本開示の技術に係る第11の態様は、第1の態様から第9の態様の何れか一つの態様に係る撮像装置における光学特性を導出する導出処理を実行することを含む処理方法であって、導出処理は、第2出力値に基づいて光学特性を導出する処理である処理方法。
 本開示の技術に係る第12の態様は、第1の態様から第9の態様の何れか一つの態様に係る撮像装置における光学特性を導出する導出処理をコンピュータに実行させるためのプログラムであって、導出処理は、第2出力値に基づいて光学特性を導出する処理であるプログラムである。
 本開示の技術に係る第13の態様は、複数の第1透過波長帯域を有し、イメージセンサで受光される光を透過する光学フィルタであって、イメージセンサの複数の画素のうちの少なくとも一つの特定画素から分光感度帯域毎に出力される第1出力値が、第1透過波長帯域毎の透過率が同じである場合に特定画素から分光感度帯域毎に出力される第2出力値の最大値未満で第2出力値の最小値以上となる光学特性を有し、光学特性は、第1透過波長帯域毎の透過率が異なる第1光学特性、第1透過波長帯域毎の幅が異なる第2光学特性、及び第1透過波長帯域毎の透過率分布が異なる第3光学特性のうちの少なくとも1つを含む光学フィルタである。
撮像装置におけるハードウェア構成の一例を示すブロック図である。 光電変換素子の構成の一例を示す説明図である。 マルチBPフィルタの構成及び光学特性の一例を示す説明図である。 撮像装置におけるプロセッサの機能的な構成の一例を示すブロック図である。 撮像装置におけるプロセッサの第1動作の一例を示す説明図である。 撮像装置におけるプロセッサの第2動作の一例を示す説明図である。 処理装置におけるプロセッサの機能的な構成の一例を示すブロック図である。 処理装置におけるプロセッサの第1動作の一例を示す説明図である。 処理装置におけるプロセッサの第2動作の一例を示す説明図である。 処理装置におけるプロセッサの第3動作の一例を示す説明図である。 撮像装置におけるマルチスペクトル画像生成処理の流れの一例を示すフローチャートである。 処理装置における混信除去行列導出処理の流れの一例を示すフローチャートである。 マルチBPフィルタの構成及び光学特性の第1変形例を示す説明図である。 マルチBPフィルタの構成及び光学特性の第2変形例を示す説明図である。 マルチBPフィルタの構成及び光学特性の第3変形例を示す説明図である。 マルチBPフィルタの構成及び光学特性の第4変形例を示す説明図である。 マルチBPフィルタの構成及び光学特性の第5変形例を示す説明図である。 マルチBPフィルタの構成及び光学特性の第6変形例を示す説明図である。 撮像装置における輝度値導出部の動作の変形例を示す説明図である。 撮像装置におけるプロセッサの機能的な構成の変形例を示すブロック図である。 撮像装置におけるハードウェア構成の変形例を示すブロック図である。
 以下、添付図面に従って本開示の技術に係る撮像制御装置、撮像装置、撮像制御方法、及びプログラムの実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
I/Fとは、“Interface”の略称を指す。BPとは、“Band Pass”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。NVMとは、“Non-Volatile Memory”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。CPUとは、“Central Processing Unit”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。TPUとは、“Tensor processing unit”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。ICとは、“Integrated Circuit”の略称を指す。
 本明細書の説明において、「同じ」とは、完全な同じの他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの同じを指す。本明細書の説明において、「中央」とは、完全な中央の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの中央を指す。本明細書の説明において、「直交」とは、完全な直交の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの直交を指す。本明細書の説明において、「直線」とは、完全な直線の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの直線を指す。本明細書の説明において、「最大」とは、完全な最大の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの最大を指す。本明細書の説明において、「最小」とは、完全な最小の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの最小を指す。
 一例として図1に示すように、撮像装置10は、マルチスペクトル画像90を出力可能なマルチスペクトルカメラであり、光学系12、イメージセンサ14、制御ドライバ16、入出力I/F18、コンピュータ20、及びディスプレイ22を備える。撮像装置10は、本開示の技術に係る「撮像装置」の一例であり、光学系12は、本開示の技術に係る「光学系」の一例であり、イメージセンサ14は、本開示の技術に係る「イメージセンサ」の一例である。
 本実施形態では、一例として、マルチスペクトル画像90として、3つの透過波長帯域に分光された光に基づいて生成されたマルチスペクトル画像を例に挙げて説明する。3つの透過波長帯域は、あくまでも一例に過ぎず、4つ以上の透過波長帯域であってもよい。すなわち、撮像装置10は、3つの透過波長帯域に分光された光を撮像可能なマルチスペクトルカメラよりも高い波長分解能で被写体を撮像可能なマルチスペクトルカメラであってもよい。
 また、マルチスペクトル画像90には、可視光帯域の光が撮像されることで得られた画像が含まれていてもよく、人間の眼では知覚できない透過波長帯域(例えば、近赤外帯域及び/又は紫外帯域等)の光が可視化された画像が含まれていてもよい。
 光学系12は、第1レンズ24、瞳分割フィルタ26、及び第2レンズ28を有する。第1レンズ24、瞳分割フィルタ26、及び第2レンズ28は、被写体4側からイメージセンサ14側にかけて、光学系12の光軸OAに沿って第1レンズ24、瞳分割フィルタ26、及び第2レンズ28の順に配置されている。第1レンズ24は、光源2から発せられた光が被写体4で反射することで得られた光(以下、「被写体光」と称する)を瞳分割フィルタ26に透過させる。第2レンズ28は、瞳分割フィルタ26を透過した被写体光をイメージセンサ14に設けられた光電変換素子38の受光面38A上に結像させる。被写体光は、本開示の技術に係る「光」の一例である。
 瞳分割フィルタ26は、分光フィルタ30及び偏光フィルタ32を有する。分光フィルタ30は、一例として、Bフィルタ34A、Gフィルタ34B、及びマルチBPフィルタ34Cを有する。図1では、便宜上、Bフィルタ34A、Gフィルタ34B、及びマルチBPフィルタ34Cが光軸OAと直交する方向に沿って直線状に配列された状態で示されているが、Bフィルタ34A、Gフィルタ34B、及びマルチBPフィルタ34Cは、光軸OA周りの方向に沿って配列されている。
 Bフィルタ34Aは、被写体光のうちの青色の波長帯域の光を透過させる青色帯域フィルタである。Gフィルタ34Bは、被写体光のうちの緑色の波長帯域の光を透過させる緑色帯域フィルタである。マルチBPフィルタ34Cは、複数の透過波長帯域を有するバンドパスフィルタである。マルチBPフィルタ34Cは、複数の透過波長帯域の一例として、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λを有する。
 マルチBPフィルタ34Cでは、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λをそれぞれ任意の帯域に設定することが可能である。ただし、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λは、それぞれ青色の波長帯域及び緑色の波長帯域と異なる帯域であることが望ましい。
 以下、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λを区別して説明する必要がない場合、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λをそれぞれ「透過波長帯域」と称する。また、Bフィルタ34A、Gフィルタ34B、及びマルチBPフィルタ34Cを区別して説明する必要がない場合、Bフィルタ34A、Gフィルタ34B、及びマルチBPフィルタ34Cをそれぞれ「フィルタ34」と称する。
 一例として図1中には、マルチBPフィルタ34Cの透過波長帯域毎の透過率(以下、「分光透過率」とも称する)を表すグラフが示されている。グラフの横軸は波長を示しており、グラフの縦軸は透過率を示している。図1中のグラフで示されるように、マルチBPフィルタ34Cは、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λ毎の透過率が異なる光学特性を有する。
 一例として、第2透過波長帯域λの透過率である第2透過率Tは、第1透過波長帯域λの透過率である第1透過率Tよりも低く、第3透過波長帯域λの透過率である第3透過率Tは、第2透過率Tよりも低い。第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λ毎に透過率が異なる理由については後に詳述する。なお、一例として、各透過波長帯域の幅Wは同じである。
 マルチBPフィルタ34Cは、本開示の技術に係る「光学フィルタ」及び「第1光学フィルタ」の一例である。Bフィルタ34A及びGフィルタ34Bは、本開示の技術に係る「第2光学フィルタ」の一例である。マルチBPフィルタ34Cが有する複数の透過波長帯域は、本開示の技術に係る「複数の第1透過波長帯域」の一例である。Bフィルタ34Aが有する透過波長帯域(すなわち、青色波長帯域)、及びGフィルタ34Bが有する透過波長帯域(すなわち、緑色波長帯域)は、本開示の技術に係る「第2透過波長帯域」の一例である。マルチBPフィルタ34Cが有する光学特性(一例として、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λ毎の透過率が異なるという光学特性)は、本開示の技術に係る「光学特性」及び「第1光学特性」の一例である。
 なお、図1に示す例では、マルチBPフィルタ34Cは、3つの透過波長帯域を有するが、2つ以上の透過波長帯域を有していれば、マルチBPフィルタ34Cが有する透過波長帯域の数はいくつでもよい。
 偏光フィルタ32は、第1偏光子36A、第2偏光子36B、及び第3偏光子36Cを有する。第1偏光子36Aは、透過軸が方位角0°に設定された偏光子である。第2偏光子36Bは、透過軸が方位角45°に設定された偏光子である。第3偏光子36Cは、透過軸が方位角90°に設定された偏光子である。第1偏光子36Aは、Bフィルタ34Aと対応しており、Bフィルタ34Aに重ね合わされている。第2偏光子36Bは、Gフィルタ34Bと対応しており、Gフィルタ34Bに重ね合わされている。第3偏光子36Cは、マルチBPフィルタ34Cと対応しており、マルチBPフィルタ34Cに重ね合わされている。
 以下、第1偏光子36A、第2偏光子36B、及び第3偏光子36Cを区別して説明する必要がない場合には、第1偏光子36A、第2偏光子36B、及び第3偏光子36Cをそれぞれ「偏光子36」と称する。
 Bフィルタ34Aに対応する第1偏光子36A、及びGフィルタ34Bに対応する第2偏光子36Bは、本開示の技術に係る「第2偏光子」の一例である。マルチBPフィルタ34Cに対応する第3偏光子36Cは、本開示の技術に係る「第1偏光子」の一例である。
 イメージセンサ14は、光電変換素子38及び信号処理回路40を備えている。イメージセンサ14は、一例として、CMOSイメージセンサである。本実施形態では、イメージセンサ14としてCMOSイメージセンサが例示されているが、本開示の技術はこれに限定されず、例えば、イメージセンサ14がCCDイメージセンサ等の他種類のイメージセンサであっても本開示の技術は成立する。
 一例として図1中には、光電変換素子38の模式的な構成が示されている。また、一例として図2には、光電変換素子38の一部の構成が具体的に示されている。光電変換素子38は、画素層42、偏光フィルタ層43、及び分光フィルタ層46を有する。
 画素層42は、複数の画素48を有する。複数の画素48は、マトリクス状に配置されており、光電変換素子38の受光面38Aを形成している。各画素48は、フォトダイオード(図示省略)を有する物理的な画素であり、受光した光を光電変換し、受光量に応じた電気信号を出力する。
 フォトダイオードは、例えば、近赤外光に感度を有するインジウム・ガリウム・ヒ素フォトダイオードである。本実施形態では、フォトダイオードとしてインジウム・ガリウム・ヒ素フォトダイオードが例示されているが、本開示の技術はこれに限定されず、例えば、フォトダイオードがシリコンフォトダイオード等の他種類のダイオードであっても本開示の技術は成立する。
 以下、マルチスペクトル画像90を形成する画素と区別するために、光電変換素子38に設けられた画素48を「物理画素48」と称する。また、マルチスペクトル画像90を形成する画素を「画像画素」と称する。
 光電変換素子38は、複数の物理画素48から出力された電気信号を撮像画像データ50として信号処理回路40に対して出力する。信号処理回路40は、光電変換素子38から入力されたアナログの撮像画像データ50をデジタル化する。
 複数の物理画素48は、複数の画素ブロック52を形成している。各画素ブロック52は、4つの物理画素48によって形成されている。図1では、便宜上、各画素ブロック52を形成する4つの物理画素48が光軸OAと直交する方向に沿って直線状に配列された状態で示されているが、一例として図2に示すように、4つの物理画素48は、光電変換素子38の縦方向及び横方向にそれぞれ隣接して配置されている。物理画素48は、本開示の技術に係る「画素」の一例である。
 偏光フィルタ層43は、第1偏光子54A、第2偏光子54B、第3偏光子54C、及び第4偏光子54Dを有する。第1偏光子54Aは、透過軸が方位角90°に設定された偏光子である。第2偏光子54Bは、透過軸が方位角135°に設定された偏光子である。第3偏光子54Cは、透過軸が方位角0°に設定された偏光子である。第4偏光子54Dは、透過軸が方位角45°に設定された偏光子である。第1偏光子54A、第2偏光子54B、第3偏光子54C、及び第4偏光子54Dは、4つの物理画素48とそれぞれ対応しており、4つの物理画素48にそれぞれ重ね合わされている。
 以下、第1偏光子54A、第2偏光子54B、第3偏光子54C、及び第4偏光子54Dを区別して説明する必要がない場合には、第1偏光子54A、第2偏光子54B、第3偏光子54C、及び第4偏光子54Dをそれぞれ「偏光子54」と称する。各物理画素48に対応する偏光子54は、本開示の技術に係る「第3偏光子」の一例である。
 分光フィルタ層46は、Bフィルタ56A、Gフィルタ56B、及びRフィルタ56Cを有する。Bフィルタ56Aは、複数の波長帯域の光のうちの青色の波長帯域の光を最も多く透過させる青色帯域フィルタである。Gフィルタ56Bは、複数の波長帯域の光のうちの緑色の波長帯域の光を最も多く透過させる緑色帯域フィルタである。Rフィルタ56Cは、複数の波長帯域の光のうちの赤色の波長帯域の光を最も多く透過させる赤色帯域フィルタである。Bフィルタ56A、Gフィルタ56B、及びRフィルタ56Cは、各画素ブロック52に割り当てられている。
 図1では、便宜上、Bフィルタ56A、Gフィルタ56B、及びRフィルタ56Cが光軸OAと直交する方向に沿って直線状に配列された状態で示されているが、一例として図2に示すように、Bフィルタ56A、Gフィルタ56B、及びRフィルタ56Cは既定のパターン配列でマトリクス状に配置されている。図2に示す例では、Bフィルタ56A、Gフィルタ56B、及びRフィルタ56Cは、既定のパターン配列の一例として、ベイヤ配列でマトリクス状に配置されている。なお、既定のパターン配列は、ベイヤ配列以外に、RGBストライプ配列、R/G市松配列、X-Trans(登録商標)配列、又はハニカム配列等でもよい。
 以下、Bフィルタ56A、Gフィルタ56B、及びRフィルタ56Cを区別して説明する必要がない場合には、Bフィルタ56A、Gフィルタ56B、及びRフィルタ56Cをそれぞれ「フィルタ56」と称する。
 一例として図1に示すように、入出力I/F18には、信号処理回路40、制御ドライバ16、ディスプレイ22、及びコンピュータ20が接続されている。
 コンピュータ20は、プロセッサ60、NVM62、及びRAM64を有する。プロセッサ60は、撮像装置10の全体を制御する。プロセッサ60は、例えば、CPU及びGPUを含む演算処理装置であり、GPUは、CPUの制御下で動作し、画像に関する処理の実行を担う。ここでは、プロセッサ60の一例としてCPU及びGPUを含む演算処理装置を挙げているが、これはあくまでも一例に過ぎず、プロセッサ60は、GPU機能を統合した1つ以上のCPUであってもよいし、GPU機能を統合していない1つ以上のCPUであってもよい。プロセッサ60、NVM62、及びRAM64は、バス66を介して接続されており、バス66は、入出力I/F18に接続されている。プロセッサ60は、本開示の技術に係る「第1プロセッサ」の一例である。
 NVM62は、非一時的記憶媒体であり、各種パラメータ及び各種プログラムを記憶している。例えば、NVM62は、フラッシュメモリ(例えば、EEPROM)である。但し、これは、あくまでも一例に過ぎず、フラッシュメモリと共に、HDD等をNVM62として適用してもよい。RAM64は、各種情報を一時的に記憶し、ワークメモリとして用いられる。
 プロセッサ60は、NVM62から必要なプログラムを読み出し、読み出したプログラムをRAM64で実行する。プロセッサ60は、RAM64で実行するプログラムに従って、制御ドライバ16及び信号処理回路40を制御する。制御ドライバ16は、プロセッサ60の制御下で光電変換素子38を制御する。ディスプレイ22は、例えば液晶表示器であり、マルチスペクトル画像90を含む各種画像を表示する。
 一例として図3に示すように、マルチBPフィルタ34Cは、ガラス層68及び一対のコーティング層70及び72を有する。ガラス層は、本開示の技術に係る「ガラス層」の一例である。一対のコーティング層70及び72は、本開示の技術に係る「第1コーティング層」の一例である。ガラス層68は、第1面68Aと、第1面68Aと反対側の第2面68Bとを有する。コーティング層70は、第1面68Aに積層されており、コーティング層72は、第2面68Bに積層されている。
 マルチBPフィルタ34Cが有する3つの透過波長帯域は、一対のコーティング層70及び72によって実現されている。すなわち、一対のコーティング層70及び72は、3つの透過波長帯域(一例として、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λ)を有する。また、一対のコーティング層70及び72は、3つの透過波長帯域毎に異なる透過率(一例として、第1透過率T、第2透過率T、及び第3透過率T)を有する。
 図2に示す例では、マルチBPフィルタ34Cが有する3つの透過波長帯域は、一対のコーティング層70及び72によって実現されているが、一対のコーティング層70及び72のうちのコーティング層70又はコーティング層72のみによって実現されてもよい。また、マルチBPフィルタ34Cは、一対のコーティング層70及び72を有するが、一対のコーティング層70及び72のうちのコーティング層70又はコーティング層72のみを有していてもよい。
 なお、マルチBPフィルタ34Cでは、一対のコーティング層70及び72によって第2透過率T2及び第3透過率T3がそれぞれ第1透過率T1よりも下げられた分の透過率が、反射率になることにより逆光の原因となる可能性がある。したがって、複数の透過波長帯域を有するマルチBPフィルタ34Cは、例えば、逆光が問題にならない条件下で使用されてもよい。
 一例として図4に示すように、NVM62には、マルチスペクトル画像生成プログラム80が記憶されている。プロセッサ60は、NVM62からマルチスペクトル画像生成プログラム80を読み出し、読み出したマルチスペクトル画像生成プログラム80をRAM64上で実行する。プロセッサ60は、RAM64上で実行するマルチスペクトル画像生成プログラム80に従って、マルチスペクトル画像90を生成するためのマルチスペクトル画像生成処理を実行する。
 マルチスペクトル画像生成処理は、プロセッサ60がマルチスペクトル画像生成プログラム80に従って、出力値取得部82、混信除去処理部84、及びマルチスペクトル画像取得部86として動作することで実現される。
 一例として図5に示すように、出力値取得部82は、イメージセンサ14から出力された撮像画像データ50がプロセッサ60に入力された場合、撮像画像データ50に基づいて、各物理画素48の出力値Yを取得する。イメージセンサ14から出力された撮像画像データ50は、本開示の技術に係る「第1画像データ」の一例である。各物理画素44の出力値Yは、撮像画像データ50によって示される撮像画像に含まれる各画素の輝度値に対応する。
 ここで、各物理画素44の出力値Yは、混信(すなわち、クロストーク)が含まれた値である。すなわち、各物理画素44には、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λの各透過波長帯域λの光が入射するため、出力値Yは、第1透過波長帯域λの光量に応じた値、第2透過波長帯域λの光量に応じた値、及び第3透過波長帯域λの光量に応じた値が混合した値となる。
 マルチスペクトル画像90を得るためには、プロセッサ60が、物理画素44毎に、出力値Yから各透過波長帯域λに対応した値を分離して抽出する処理、すなわち、混信を除去する処理である混信除去処理を出力値Yに対して行う必要がある。そこで、本実施形態では、マルチスペクトル画像90を取得するために、混信除去処理部84は、出力値取得部82によって取得された各物理画素48の出力値Yに対して混信除去処理を実行する。
 ここで、混信除去処理について説明する。各物理画素48の出力値Yは、赤色、緑色、及び青色の各輝度値を出力値Yの成分として含む。各物理画素48の出力値Yは、式(1)によって表される。ただし、Yは、出力値Yのうちの赤色の輝度値であり、Yは、出力値Yのうちの緑色の輝度値であり、Yは、出力値Yのうちの青色の輝度値である。
 マルチスペクトル画像90を形成する各画像画素の画素値Xは、第1透過波長帯域λの光の輝度値、第2透過波長帯域λの光の輝度値、及び第3透過波長帯域λの光の輝度値を画素値Xの成分として含む。各画像画素の画素値Xは、式(2)によって表される。ただし、輝度値Xλ1は、画素値Xのうちの第1透過波長帯域λの光の輝度値であり、輝度値Xλ2は、画素値Xのうちの第2透過波長帯域λの光の輝度値であり、輝度値Xλ3は、画素値Xのうちの第3透過波長帯域λの光の輝度値である。
 混信行列をAとした場合、各物理画素48の出力値Yは、式(3)によって表される。
 混信行列A(図示省略)は、被写体光のスペクトル、第1レンズ24の分光透過率、第2レンズ28の分光透過率、マルチBPフィルタ34Cの分光透過率、及びイメージセンサ14の分光感度に基づいて規定される行列である。
 被写体光のスペクトルは、被写体光のうちの第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λの各光の輝度値を指す。第1レンズ24の分光透過率は、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λの各光が第1レンズ24を透過する場合の各光の透過率を指す。第2レンズ28の分光透過率は、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λの各光が第2レンズ28を透過する場合の各光の透過率を指す。マルチBPフィルタ34Cの分光透過率は、マルチBPフィルタ34Cの透過波長帯域(一例として、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λ)毎の透過率を指す。マルチBPフィルタ34Cの分光透過率は、本開示の技術に係る「第1透過長帯域毎の透過率」の一例である。イメージセンサ14の分光感度帯域は、赤色、緑色、及び青色の各光の波長帯域に設定されている。イメージセンサ14の分光感度は、分光感度帯域毎の感度を指す。
 混信行列Aの一般逆行列である混信除去行列をAとした場合、各画像画素の画素値Xは、式(4)によって表される。
 混信除去行列Aも、混信行列Aと同様に、被写体光のスペクトル、第1レンズ24の分光透過率、第2レンズ28の分光透過率、マルチBPフィルタ34Cの分光透過率、及びイメージセンサ14の分光感度に基づいて規定される行列である。混信除去行列Aは、後述するように、処理装置100による混信除去行列生成処理によって生成される。混信除去行列生成処理によって生成された混信除去行列Aは、NVM62に記憶される。
 混信除去処理部84は、NVM62に記憶されている混信除去行列Aと、出力値取得部82によって取得された各物理画素48の出力値Yとを取得し、取得した混信除去行列Aと各物理画素48の出力値Yとに基づいて、式(4)により、各画像画素の画素値Xを出力する。
 ここで、上述の通り、各画像画素の画素値Xは、第1透過波長帯域λの光の輝度値Xλ1、第2透過波長帯域λの光の輝度値Xλ2、及び第3透過波長帯域λの光の輝度値Xλ3を画素値Xの成分として含む。第1透過波長帯域λの光の輝度値Xλ1は、撮像画像データ50のうちの第1画像データによって示される。第2透過波長帯域λの光の輝度値Xλ2は、撮像画像データ50のうちの第2画像データによって示される。第3透過波長帯域λの光の輝度値Xλ3は、撮像画像データ50のうちの第3画像データによって示される。
 このように、混信除去処理部84によって混信除去処理が実行されることにより、撮像画像データ50が、第1透過波長帯域λの光の輝度値Xλ1を示す画像データである第1画像データと、第2透過波長帯域λの光の輝度値Xλ2を示す画像データである第2画像データと、第3透過波長帯域λの光の輝度値Xλ3を示す画像データである第3画像データとに分離される。すなわち、撮像画像データ50が、マルチBPフィルタ34Cの透過波長帯域毎の画像データに分離される。混信除去処理は、本開示の技術に係る「演算処理」の一例である。第1画像データ、第2画像データ、及び第3の画像データは、本開示の技術に係る「第2画像データ」の一例である。
 一例として図6に示すように、マルチスペクトル画像取得部86は、混信除去処理部84によって混信除去処理が実行されることにより生成された第1画像データ、第2画像データ、及び第3画像データを合成することにより、マルチスペクトル画像データを取得する。マルチスペクトル画像データは、マルチスペクトル画像90を示す画像データである。マルチスペクトル画像データは、例えば、ディスプレイ22に出力される。ディスプレイ22は、マルチスペクトル画像データに基づいてマルチスペクトル画像90を表示する。
 このように、各物理画素48の出力値Yに対して混信除去行列Aを用いた混信除去処理が実行されることにより、マルチスペクトル画像90が得られる。ただし、各物理画素48に作用するノイズ等の影響により各物理画素48の出力値Yには誤差が生じる。各物理画素48の出力値Yに生じる誤差は、混信除去処理によって拡大される。各物理画素48の出力値Yに生じる誤差が混信除去処理によって拡大されると、マルチスペクトル画像90に誤差が生じる。マルチスペクトル画像90の誤差とは、各物理画素48の出力値Yに誤差が生じていない理想的な条件下で得られたマルチスペクトル画像90を基準とした誤差である。
 一例として図7に示すように、処理装置100は、混信除去行列Aを導出するための混信除去行列導出処理を実行する装置である。処理装置100は、例えば、パーソナルコンピュータ等の情報処理装置によって実現される。処理装置100では、マルチスペクトル画像90に生じる誤差を少なくするために、次の要領で混信除去行列Aが決定される。以下、処理装置100の構成について説明する。
 処理装置100は、コンピュータ110を備える。コンピュータ110は、プロセッサ120、NVM122、及びRAM124を有する。プロセッサ120、NVM122、及びRAM124は、撮像装置10に備えられたプロセッサ60、NVM62、及びRAM64(いずれも図1参照)と同様のハードウェア資源によって実現される。コンピュータ110は、本開示の技術に係る「コンピュータ」の一例である。プロセッサ120は、本開示の技術に係る「第2プロセッサ」の一例である。
 NVM122には、混信除去行列導出プログラム130が記憶されている。プロセッサ120は、NVM122から混信除去行列導出プログラム130を読み出し、読み出した混信除去行列導出プログラム130をRAM124上で実行する。混信除去行列導出プログラム130は、本開示の技術に係る「プログラム」の一例である。プロセッサ120は、RAM124上で実行する混信除去行列導出プログラム130に従って、混信除去行列Aを導出するための混信除去行列導出処理を実行する。
 混信除去行列導出処理は、プロセッサ120が混信除去行列導出プログラム130に従って、輝度値導出部132、輝度値判定部134、分光透過率修正部136、及び混信除去行列決定部138として動作することで実現される。
 一例として図8に示すように、輝度値導出部132は、被写体光のスペクトル、第1レンズ24の分光透過率、第2レンズ28の分光透過率、マルチBPフィルタ34Cの分光透過率、及びイメージセンサ14の分光感度を取得する。被写体光のスペクトル、第1レンズ24の分光透過率、第2レンズ28の分光透過率、マルチBPフィルタ34Cの分光透過率、及びイメージセンサ14の分光感度は、例えば、ユーザによって処理装置100に対して付与された値である。
 一例として図8に示す例では、マルチBPフィルタ34Cの分光透過率が同じに設定されている。マルチBPフィルタ34Cの分光透過率は異なっていてもよいが、以下、マルチBPフィルタ34Cの分光透過率が同じに設定された例を説明する。
 輝度値導出部132は、取得した被写体光のスペクトル、第1レンズ24の分光透過率、第2レンズ28の分光透過率、マルチBPフィルタ34Cの分光透過率、及びイメージセンサ14の分光感度に基づいて、複数の物理画素48のうちの少なくとも一つの物理画素48A(以下、「特定物理画素48A」と称する)から分光感度帯域毎に出力される輝度値を導出する。
 図8に示す例では、複数の物理画素48のうちの受光面38Aの中央部に位置する一の物理画素48が特定物理画素48Aに選定されている。特定物理画素48Aは、本開示の技術に係る「特定画素」の一例である。受光面の中央部は、本開示の技術に係る「受光面の特定領域」の一例である。特定物理画素48Aから分光感度帯域毎に出力される輝度値は、赤色(R)、緑色(G)、及び青色(B)の各光の輝度値(以下、「特定物理画素48AのRGB輝度値」と称する)を指す。
 一例として図9に示すように、輝度値判定部134は、輝度値導出部132によって導出された特定物理画素48AのRGB輝度値が既定の範囲に収まっているか否かを判定する。一例として図9には、マルチBPフィルタ34Cの分光透過率が同じである場合の特定物理画素48AのRGB輝度値が示されている。
 既定の範囲は、マルチBPフィルタ34Cの分光透過率が同じである場合の特定物理画素48AのRGB輝度値の最大値未満でRGB輝度値の最小値以上となる範囲で設定される。一例として、既定の範囲は、各物理画素48の出力値Yが混信除去処理されることによって得られるマルチスペクトル画像90の誤差が許容値に収まる範囲に設定される。許容値は、ユーザによって任意に設定される値である。
 図9に示す例では、例えば、特定物理画素48AのRGB輝度値のうちの青色(B)の光の輝度値は、既定の範囲に収まっているが、特定物理画素48AのRGB輝度値のうちの緑色(G)及び赤色(R)の各光の輝度値が既定の範囲から外れている。図9に示す例の場合、輝度値判定部134は、輝度値導出部132によって導出された特定物理画素48AのRGB輝度値が既定の範囲に収まっていないと判定する。
 分光透過率修正部136は、輝度値導出部132によって導出された特定物理画素48AのRGB輝度値が既定の範囲に収まっていないと輝度値判定部134によって判定された場合、マルチBPフィルタ34Cの分光透過率を、特定物理画素48AのRGB輝度値が既定の範囲に収まる分光透過率に修正する。
 例えば、分光透過率修正部136は、マルチBPフィルタ34Cの分光透過率が同じである場合の特定物理画素48AのRGB輝度値の各輝度値の比率に基づいて、特定物理画素48AのRGB輝度値が既定の範囲に収まる分光透過率を導出し、導出した分光透過率にマルチBPフィルタ34Cの分光透過率を修正する。
 図9に示す例の場合、特定物理画素48AのRGB輝度値のうちの緑色(G)及び赤色(R)の各光の輝度値が既定の範囲から外れているので、分光透過率修正部136は、緑色(G)の輝度値に対応する第2透過率T2、及び赤色(R)の輝度値に対応する第3透過率T3を下げる修正を行う。この場合に、分光透過率修正部136は、例えば、緑色(G)の輝度値が青色(B)の輝度値よりも高いことに対応して、第2透過率T2を第1透過率T1よりも低くする修正を行う。また、分光透過率修正部136は、例えば、赤色(R)の輝度値が緑色(G)の輝度値よりも高いことに対応して、第3透過率T3を第2透過率T2よりも低くする修正を行う。
 なお、分光透過率修正部136は、輝度値導出部132によって導出された特定物理画素48AのRGB輝度値が既定の範囲に収まっていると輝度値判定部134によって判定されるまで、第2透過率T2及び/又は第3透過率T3を段階的に下げることによりマルチBPフィルタ34Cの分光透過率を修正してもよい。
 このように、マルチBPフィルタ34Cの分光透過率を修正することは、混信除去行列Aの条件数を下げることに相当する。混信除去行列Aの条件数とは、各物理画素48の出力値Yが混信除去処理されることによって得られるマルチスペクトル画像90の相対誤差の拡大率を指す。混信除去行列Aの条件数を、マルチBPフィルタ34Cの分光透過率が同じである場合の条件数よりも小さくすることにより、マルチBPフィルタ34Cの分光透過率が同じである場合に比して、マルチスペクトル画像90の誤差が少なくなる。なお、マルチBPフィルタ34Cの分光透過率を、混信除去行列Aの条件数が最小となる分光透過率に修正することが理想的である。
 また、分光透過率修正部136は、マルチBPフィルタ34Cの分光透過率を、混信除去行列Aの最大特異値が最小となる分光透過率に修正してもよい。混信除去行列Aの最大特異値とは、各物理画素48の出力値Yが混信除去処理されることによって得られるマルチスペクトル画像90の絶対誤差の拡大率を指す。混信除去行列Aの最大特異値を、マルチBPフィルタ34Cの分光透過率が同じである場合の最大特異値よりも小さくすることにより、マルチBPフィルタ34Cの分光透過率が同じである場合に比して、マルチスペクトル画像90の誤差が少なくなる。なお、マルチBPフィルタ34Cの分光透過率を、混信除去行列Aの最大特異値が最小となる分光透過率に修正することが理想的である。
 一例として、分光透過率修正部136は、マルチBPフィルタ34Cの分光透過率を、混信除去行列Aの条件数が、マルチBPフィルタ34Cの分光透過率が同じである場合の条件数よりも小さくなる分光透過率、及び/又は、混信除去行列Aの最大特異値が、マルチBPフィルタ34Cの分光透過率が同じである場合の最大特異値よりも小さくなる分光透過率に修正する。
 分光透過率修正部136によって修正されたマルチBPフィルタ34Cの分光透過率は、いわゆる設計値であり、上述のマルチBPフィルタ34Cの分光透過率に反映される。すなわち、マルチBPフィルタ34Cは、分光透過率修正部136によって修正された分光透過率を有するフィルタに製造される。このようにして製造されたマルチBPフィルタ34Cは、混信除去行列Aの条件数が、マルチBPフィルタ34Cの分光透過率が同じである場合の条件数よりも小さくなる特性、及び/又は、混信除去行列Aの最大特異値が、マルチBPフィルタ34Cの分光透過率が同じである場合の最大特異値よりも小さくなる特性を有する。
 分光透過率修正部136によってマルチBPフィルタ34Cの分光透過率を修正する処理(すなわち、特定物理画素48AのRGB輝度値が既定の範囲に収まる分光透過率を導出する処理)は、本開示の技術に係る「導出処理」の一例である。特定物理画素48AのRGB輝度値は、本開示の技術に係る「第1出力値」の一例である。マルチBPフィルタ34Cの分光透過率が同じである場合の特定物理画素48AのRGB輝度値は、本開示の技術に係る「第2出力値」の一例である。
 なお、マルチBPフィルタ34Cとして、分光透過率を可変なフィルタが用いられ、マルチBPフィルタ34Cの分光透過率が、分光透過率修正部136によって修正された分光透過率に変更されてもよい。
 一例として図10には、分光透過率修正部136によってマルチBPフィルタ34Cの分光透過率が修正されることにより、特定物理画素48AのRGB輝度値がいずれも既定の範囲に収まっている例が示されている。図10に示す例の場合、輝度値判定部134は、輝度値導出部132によって導出された特定物理画素48AのRGB輝度値が既定の範囲に収まっていると判定する。
 混信除去行列決定部138は、輝度値導出部132によって導出された特定物理画素48AのRGB輝度値が既定の範囲に収まっていると輝度値判定部134によって判定された場合、混信除去行列Aを決定する。すなわち、混信除去行列決定部138は、被写体光のスペクトル、第1レンズ24の分光透過率、第2レンズ28の分光透過率、及びイメージセンサ14の分光感度に加えて、輝度値判定部134によって特定物理画素48AのRGB輝度値が既定の範囲に収まっていると判定された場合のマルチBPフィルタ34Cの分光透過率(すなわち、分光透過率修正部136によって修正された分光透過率)を用いて、混信除去行列Aを規定する。混信除去行列決定部138によって決定された混信除去行列Aは、撮像装置10のNVM62に記憶される。
 次に、本実施形態に係る撮像装置10の作用について図11を参照しながら説明する。図11には、本実施形態に係るマルチスペクトル画像生成処理の流れの一例が示されている。
 図11に示すマルチスペクトル画像生成処理では、先ず、ステップST10で、出力値取得部82は、イメージセンサ14から出力された撮像画像データ50に基づいて、各物理画素48の出力値Yを取得する(図5参照)。ステップST10の処理が実行された後、マルチスペクトル画像生成処理は、ステップST12へ移行する。
 ステップST12で、混信除去処理部84は、NVM62に記憶されている混信除去行列Aと、ステップST10で取得された各物理画素48の出力値Yとを取得し、取得した混信除去行列Aと各物理画素48の出力値Yとに基づいて、各画像画素の画素値Xを出力する(図5参照)。ステップST12で混信除去処理が実行されることにより、撮像画像データ50が、第1透過波長帯域λの光の輝度値Xλ1を示す画像データである第1画像データと、第2透過波長帯域λの光の輝度値Xλ2を示す画像データである第2画像データと、第3透過波長帯域λの光の輝度値Xλ3を示す画像データである第3画像データとに分離される。ステップST12の処理が実行された後、マルチスペクトル画像生成処理は、ステップST14へ移行する。
 ステップST14で、マルチスペクトル画像取得部86は、ステップST12で混信除去処理が実行されることにより生成された第1画像データ、第2画像データ、及び第3画像データに基づいて、マルチスペクトル画像90を取得する(図6参照)。ステップST14の処理が実行された後、マルチスペクトル画像生成処理は、ステップST16へ移行する。
 ステップST16で、プロセッサ60は、マルチスペクトル画像生成処理を終了する条件(すなわち、終了条件)が成立したか否かを判定する。終了条件の一例としては、ユーザがマルチスペクトル画像生成処理を終了させる指示を撮像装置10に対して付与したという条件等が挙げられる。ステップST16において、終了条件が成立していない場合には、判定が否定されて、マルチスペクトル画像生成処理は、ステップST10へ移行する。ステップST16において、終了条件が成立した場合には、判定が肯定されて、マルチスペクトル画像生成処理は終了する。
 次に、本実施形態に係る処理装置100の作用について図12を参照しながら説明する。図12には、本実施形態に係る混信除去行列導出処理の流れの一例が示されている。
 図12に示す混信除去行列導出処理では、先ず、ステップST20で、輝度値導出部132は、被写体光のスペクトル、第1レンズ24の分光透過率、第2レンズ28の分光透過率、マルチBPフィルタ34Cの分光透過率、及びイメージセンサ14の分光感度に基づいて、特定物理画素48AのRGB輝度値を導出する(図8参照)。ステップST20の処理が実行された後、混信除去行列導出処理は、ステップST22へ移行する。
 ステップST22で、輝度値判定部134は、ステップST20で導出された特定物理画素48AのRGB輝度値が既定の範囲に収まっているか否かを判定する(図9参照)。ステップST22において、特定物理画素48AのRGB輝度値が既定の範囲に収まっていない場合には、判定が否定されて、混信除去行列導出処理は、ステップST24へ移行する。ステップST22において、特定物理画素48AのRGB輝度値が既定の範囲に収まっている場合には、判定が肯定されて、混信除去行列導出処理は、ステップST26へ移行する。
 ステップST24で、分光透過率修正部136は、マルチBPフィルタ34Cの分光透過率を、特定物理画素48AのRGB輝度値が既定の範囲に収まる分光透過率に修正する(図9参照)。ステップST24の処理が実行された後、混信除去行列導出処理は、ステップST28へ移行する。
 ステップST26で、混信除去行列決定部138は、混信除去行列Aを決定する(図10参照)。具体的には、混信除去行列決定部138は、被写体光のスペクトル、第1レンズ24の分光透過率、第2レンズ28の分光透過率、及びイメージセンサ14の分光感度に加えて、ステップST22で特定物理画素48AのRGB輝度値が既定の範囲に収まっていると判定された場合のマルチBPフィルタ34Cの分光透過率(すなわち、ステップST24で修正された分光透過率)を用いて、混信除去行列Aを規定する。ステップST26の処理が実行された後、混信除去行列導出処理は、ステップST28へ移行する。
 ステップST28で、プロセッサ120は、混信除去行列導出処理を終了する条件(すなわち、終了条件)が成立したか否かを判定する。終了条件の一例としては、ユーザが混信除去行列導出処理を終了させる指示を処理装置100に対して付与したという条件等が挙げられる。ステップST28において、終了条件が成立していない場合には、判定が否定されて、混信除去行列導出処理は、ステップST20へ移行する。ステップST28において、終了条件が成立した場合には、判定が肯定されて、混信除去行列導出処理は終了する。なお、処理装置100の作用として説明した処理装置100による処理方法は、本開示の技術に係る「処理方法」の一例である。
 以上説明したように、本実施形態に係る撮像装置10では、イメージセンサ14から出力された撮像画像データ50に対して混信除去処理が実行されることにより、撮像画像データ50がマルチBPフィルタ34Cの透過波長帯域毎の画像データに分離される(図5参照)。したがって、分離された画像データに基づいて、複数の透過波長帯域の光の輝度値を含むマルチスペクトル画像90を取得することができる。
 マルチBPフィルタ34Cは、特定物理画素48AのRGB輝度値が、マルチBPフィルタ34Cの分光透過率が同じである場合の特定物理画素48AのRGB輝度値の最大値未満でRGB輝度値の最小値以上となる光学特性を有する(図10参照)。したがって、イメージセンサから出力された撮像画像データ50から得られる透過波長帯域毎の画像データ(すなわち、第1画像データ、第2画像データ、及び第3画像データ)の誤差を少なくすることができる。すなわち、マルチBPフィルタ34Cの分光透過率が同じである場合に比して、マルチスペクトル画像90の誤差を少なくすることができる。
 マルチBPフィルタ34Cの光学特性は、透過波長帯域毎の幅が同じで透過波長帯域毎の透過率が異なる光学特性を含む(図10参照)。したがって、例えば、透過波長帯域毎の幅が同じで透過波長帯域毎の透過率も同じである場合に比して、混信除去行列Aの条件数及び/又は最大特異値を小さくすることができる。
 マルチBPフィルタ34Cの光学特性は、混信除去行列Aの条件数が、マルチBPフィルタ34Cの分光透過率が同じである場合の条件数よりも小さくなる特性、及び/又は、混信除去行列Aの最大特異値が、マルチBPフィルタ34Cの分光透過率が同じである場合の最大特異値よりも小さくなる特性である(図8及び図9参照)。したがって、マルチBPフィルタ34Cの分光透過率が同じである場合に比して、マルチスペクトル画像90の相対誤差の拡大率、及び/又はマルチスペクトル画像90の絶対誤差の拡大率を小さくすることができる。
 マルチBPフィルタ34Cの光学特性は、マルチBPフィルタ34Cの分光透過率が同じである場合の特定物理画素48AのRGB輝度値に基づいて設定された特性である(図8及び図9参照)。したがって、マルチBPフィルタ34Cの分光透過率が同じである場合の特定物理画素48AのRGB輝度値に応じて、特定物理画素48AのRGB輝度値を既定の範囲に収めることができる。
 マルチBPフィルタ34Cは、ガラス層68と、一対のコーティング層70及び72とを有する(図3参照)。一対のコーティング層70及び72は、複数の透過波長帯域を有し、かつ、透過波長帯域毎に異なる透過率を有する。したがって、透過波長帯域毎に異なる透過率を有するマルチBPフィルタ34Cを実現することができる。
 光学系12は、マルチBPフィルタ34Cと異なる透過波長帯域を有するBフィルタ34A及びGフィルタ34Bを有する。また、光学系12は、Bフィルタ34Aに対応する第1偏光子36Aと、Gフィルタ34Bに対応する第2偏光子36Bと、マルチBPフィルタ34Cに対応する第3偏光子36Cとを有する。イメージセンサ14は、各物理画素48に対応する第3偏光子36Cを有する。したがって、各物理画素48で光の偏光方向に応じた輝度値を得ることができる。
 特定物理画素48Aは、複数の画素48のうちの受光面38Aの中央部に位置する画素である。したがって、例えば、受光面38Aの中央部から外れた位置に配置された物理画素48のRGB輝度値を取得する場合に比して、誤差の少ないRGB輝度値を取得することができる。
 なお、上記実施形態では、マルチBPフィルタ34Cは、透過波長帯域毎の幅が同じで透過波長帯域毎の透過率が異なる光学特性を有する。しかしながら、一例として図13に示すように、マルチBPフィルタ34Cは、透過波長帯域毎の透過率が同じで透過波長帯域毎の幅が異なる光学特性を有していてもよい。図13に示す例では、透過波長帯域毎の透過率は透過率Tで同じであるが、第1帯域幅Wは、第2帯域幅Wよりも広く、第2帯域幅Wは、第3帯域幅Wよりも広い。図13に示す例によっても、例えば、透過波長帯域毎の透過率が同じで透過波長帯域毎の幅も同じである場合に比して、混信除去行列Aの条件数及び/又は最大特異値を小さくすることができる。なお、透過波長帯域毎の幅は、図13に示す例以外でもよい。
 ここで、マルチBPフィルタ34Cが透過波長帯域毎の幅が異なる光学特性を有する場合には、次のデメリットが考えられる。すなわち、透過波長帯域毎の幅を狭めるに従って、マルチBPフィルタ34Cへの光の入射角に応じた波長のシフト量が増加したり、マルチBPフィルタ34Cの製造誤差の影響が増加したりする可能性が考えられる。また、透過波長帯域毎の幅を拡げるに従って、マルチスペクトル画像90の波長精度が低下する可能性が考えられる。さらに、隣り合う透過波長帯域の間を確保するために各透過波長帯域の幅に制約が生じる場合がある。したがって、透過波長帯域毎の幅が異なる光学特性は、例えば、透過波長帯域毎の透過率が異なる場合に比して、透過波長帯域毎の幅の差が小さくても条件数及び/又は最大特異値の下げ幅が大きい場合に適用されてもよい。透過波長帯域毎の幅が異なる光学特性は、本開示の技術に係る「第2光学特性」の一例である。
 一例として図14に示すように、マルチBPフィルタ34Cは、透過波長帯域毎の透過率分布が異なる光学特性を有していてもよい。図14に示す例では、マルチBPフィルタ34Cは、第1透過波長帯域λでは台形状の透過率分布を有し、第2透過波長帯域λでは矩形状の透過率分布を有し、第3透過波長帯域λでは波長が増加するに従って透過率が下がる透過率分布を有する。図14に示す例によっても、例えば、透過波長帯域毎の透過率が同じで透過波長帯域毎の幅も同じである場合に比して、混信除去行列Aの条件数及び/又は最大特異値を小さくすることができる。なお、透過波長帯域毎の透過率分布は、図14に示す例以外でもよい。
 ここで、マルチBPフィルタ34Cが透過波長帯域毎の透過率分布が異なる光学特性を有する場合には、次のデメリットが考えられる。すなわち、各透過波長帯域では波長に応じて透過率が変わる。したがって、透過波長帯域毎の透過率分布が異なる光学特性は、例えば、透過波長帯域毎の透過率分布に合う特殊な被写体光を生じさせる光源及び/又は被写体に対して適用されてもよい。透過波長帯域毎の透過率分布が異なる光学特性は、本開示の技術に係る「第3光学特性」の一例である。
 マルチBPフィルタ34Cの光学特性は、透過波長帯域毎の透過率が異なる光学特性、透過波長帯域毎の幅が異なる光学特性、及び透過波長帯域毎の透過率分布が異なる光学特性の少なくとも1つを含んでいてもよい。マルチBPフィルタ34Cの光学特性が、透過波長帯域毎の幅が異なる光学特性及び透過波長帯域毎の透過率分布が異なる光学特性の両方を含む場合、透過波長帯域毎の幅は、透過率の最小値の幅でもよく、透過率の最大値の幅でもよく、透過率の平均値の幅でもよい。
 上記実施形態では、マルチBPフィルタ34Cは、透過波長帯域毎の透過率が異なる光学特性を実現するために、ガラス層68及び一対のコーティング層70及び72を有する。しかしながら、一例として図15に示すように、マルチBPフィルタ34Cは、透過波長帯域毎の透過率が異なる光学特性を実現するために、第1フィルタ部材140及び第2フィルタ部材142を有していてもよい。
 第1フィルタ部材140は、複数の透過波長帯域(一例として、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λ)を有する。第1フィルタ部材140は、透過波長帯域毎の透過率が同じである光学特性を有する。第2フィルタ部材142は、透過率を調整する調整フィルタであり、透過波長帯域毎に異なる透過率を有する。そして、図15に示す例では、第1フィルタ部材140及び第2フィルタ部材142によって、透過波長帯域毎に異なる透過率を有するマルチBPフィルタ34Cが実現されている。
 図15に示す例では、例えば、マルチBPフィルタ34Cがガラス層68及び一対のコーティング層70及び72を有する場合に比して、マルチBPフィルタ34Cの設計及び/又は製造を容易に行うことができる。また、調整フィルタである第2フィルタ部材142を用いることにより、例えば、マルチBPフィルタ34Cがガラス層68及び一対のコーティング層70及び72を有する場合に比して、マルチBPフィルタ34Cで迷光が生じることを抑制することができる。第1フィルタ部材140は、本開示の技術に係る「第1フィルタ部材」の一例である。第2フィルタ部材142は、本開示の技術に係る「第2フィルタ部材」の一例である。
 一例として図16に示すように、第1フィルタ部材140は、複数の透過波長帯域を有し、かつ透過波長帯域毎に異なる透過率を有する光学特性を有していてもよい。また、第2フィルタ部材142は、波長が増加するに従って透過率が減少する光学特性を有していてもよい。さらに、第1フィルタ部材140の光学特性は、光源2(図1参照)として基準となる波長帯域の光を発する基準光源が用いられた場合に混信除去行列Aの条件数を最小にする光学特性に設定されてもよい。一方、第2フィルタ部材142は、光源として基準光源とは異なる波長帯域の光を発する他の光源が用いられた場合に第1フィルタ部材140と組み合わされることにより混信除去行列Aの条件数を最小にする光学特性に設定されてもよい。
 図16に示す例では、光源が基準光源である場合には、第2フィルタ部材142を使用しなくて済む。また、光源が基準光源とは異なる他の光源である場合には、第2フィルタ部材142が使用されることにより、マルチBPフィルタ34Cによって複数の透過波長帯域の光を得ることができる。
 一例として図17に示すように、マルチBPフィルタ34Cは、ガラス層68及びコーティング層70を有していてもよい。コーティング層70は、ガラス層68の第1面68Aに積層されている。ガラス層68は、透過波長帯域毎に異なる透過率を有する。具体的には、ガラス層68は、第1波長帯域λ、第2波長帯域λ、及び第3波長帯域λに対応して、波長が増加するに従って透過率が段階的に減少する光学特性を有する。ガラス層68の光学特性は、例えば、ガラス層68に添加される吸収剤等によって実現される。
 コーティング層70は、複数の透過波長帯域を有し、かつ透過波長帯域毎の透過率が一定である光学特性を有する。そして、図17に示す例では、ガラス層68及びコーティング層70によって、透過波長帯域毎に異なる透過率を有するマルチBPフィルタ34Cが実現されている。図17に示す例では、例えば、マルチBPフィルタ34Cがガラス層68及び一対のコーティング層70及び72を有する場合(図3参照)に比して、マルチBPフィルタ34Cの設計及び/又は製造を容易に行うことができる。ガラス層68は、本開示の技術に係る「ガラス層」の一例である。コーティング層70は、本開示の技術に係る「第1コーティング層」の一例である。
 一例として図18に示すように、マルチBPフィルタ34Cは、レンズ144及びコーティング層146を有していてもよい。コーティング層146は、レンズ144の表面に積層されている。そして、図18に示す例では、レンズ144及びコーティング層146によって、透過波長帯域毎に異なる透過率を有するマルチBPフィルタ34Cが実現されている。図18に示す例では、マルチBPフィルタ34Cが第1フィルタ部材140及び第2フィルタ部材142を有する場合(図15及び図16参照)よりも小型化することができる。レンズ144は、本開示の技術に係る「レンズ」の一例である。コーティング層146は、本開示の技術に係る「第2コーティング層」の一例である。
 上記実施形態では、輝度値導出部132は、複数の物理画素48のうちの受光面38Aの中央部に位置する特定物理画素48AのRGB輝度値を導出する(図8参照)。しかしながら、輝度値導出部132は、複数の物理画素48のうちの受光面38Aの中央部から外れた位置の物理画素48を特定物理画素48Aとして選定し、選定した特定物理画素48AのRGB輝度値を導出してもよい。また、例えば、輝度値導出部132は、隣接する複数の特定物理画素48Aを選定し、選定した複数の特定物理画素48Aから分光感度帯域毎に出力された輝度値の平均値をRGB輝度値として導出してもよい。
 一例として図19に示すように、輝度値導出部132は、互いに異なる透過軸を有する4種類の偏光子54(すなわち、第1偏光子54A、第2偏光子54B、第3偏光子54C、及び第4偏光子54D)がそれぞれ割り当てられた4つの物理画素48(すなわち、二次元方向に隣接する4つの物理画素48)を特定物理画素48Aとして選定してもよい。そして、輝度値導出部132は、4つの特定物理画素48Aから分光感度帯域毎に出力された輝度値の和をRGB輝度値として導出してもよい。
 ここで、各偏光子54を透過した光は、各偏光子54の透過軸の角度に応じて偏光されている。各特定物理画素48Aから分光感度帯域毎に出力される輝度値は、各特定物理画素48Aに入射する光の偏光方向に依存する。しかしながら、二次元方向に隣接する4つの特定物理画素48Aから分光感度帯域毎に出力された輝度値の和は一定となる。すなわち、各特定物理画素48Aに入射する光の偏光方向の角度をθとし、各特定物理画素48Aに入射する光の強度をIとすると、4つの特定物理画素48Aから分光感度帯域毎に出力された輝度値の和は、式(5)によって示されるように、θに依存せずに一定値2Iになる。
 図19に示す例では、各特定物理画素48Aに入射する光の偏光方向の角度θに依存せずに、特定物理画素48AのRGB輝度値を得ることができる。なお、輝度値導出部132は、4つの特定物理画素48Aから分光感度帯域毎に出力された輝度値の和をRGB輝度値とせずに、輝度値の和に基づいて導出された値をRGB輝度値としてもよい。
 上記実施形態では、マルチスペクトル画像生成処理が撮像装置10によって実行され(図4参照)、混信除去行列導出処理が処理装置100によって実行される(図7参照)。しかしながら、一例として図20に示すように、撮像装置10は、混信除去行列導出処理を含むマルチスペクトル画像生成処理を実行してもよい。
 図20に示す例では、上記実施形態に対して、プロセッサ60が次のように動作する。すなわち、出力値取得部82は、イメージセンサ14から出力された撮像画像データ50に基づいて特定物理画素48Aの出力値Yを取得し、輝度値導出部132は、特定物理画素48Aの出力値Yに含まれるRGB輝度値を取得する。輝度値判定部134及び分光透過率修正部136は、上記実施形態と同様である。マルチBPフィルタ34Cには、分光透過率を可変なフィルタが用いられ、マルチBPフィルタ34Cの分光透過率は、分光透過率修正部136によって修正された分光透過率に設定される。混信除去行列決定部138、混信除去処理部84、及びマルチスペクトル画像取得部86も、上記実施形態と同様である。
 図20に示す例でも、混信除去処理部84によって混信除去処理が実行されることにより、撮像画像データ50が、第1透過波長帯域λの光の輝度値Xλ1を示す画像データである第1画像データと、第2透過波長帯域λの光の輝度値Xλ2を示す画像データである第2画像データと、第3透過波長帯域λの光の輝度値Xλ3を示す画像データである第3画像データとに分離される。すなわち、撮像画像データ50が、マルチBPフィルタ34Cの透過波長帯域毎の画像データに分離される。したがって、分離された画像データに基づいて、複数の透過波長帯域の光の輝度値を含むマルチスペクトル画像90を取得することができる。
 上記実施形態では、光学系12は、複数のフィルタ34及び複数の偏光子36を有する瞳分割フィルタ26を備え、イメージセンサ14は、複数の偏光子54を有する(図1参照)。しかしながら、一例として図21に示すように、光学系12は、瞳分割フィルタ26の代わりにマルチBPフィルタ34Cを備え、イメージセンサ14は、複数の偏光子54を有しない構成でもよい。図21に示す例でも、プロセッサ60によってマルチスペクトル画像生成処理が実行されることにより、複数の透過波長帯域の光の輝度値を含むマルチスペクトル画像90を取得することができる。
 上記実施形態では、撮像装置10に備えられたディスプレイ22にマルチスペクトル画像90が表示される(図1参照)。しかしながら、例えば、撮像装置10に通信可能に接続された外部装置に対して撮像装置10からマルチスペクトル画像データが送信され、外部装置のディスプレイにマルチスペクトル画像90が表示されてもよい。また、撮像装置10で混信除去処理が実行されることにより生成された第1画像データ、第2画像データ、及び第3画像データが撮像装置10から外部装置に対して送信されてもよい。そして、外部装置によって第1画像データ、第2画像データ、及び第3画像データが合成されることによりマルチスペクトル画像データが生成されてもよい。
 上記実施形態では、撮像装置10について、プロセッサ60を例示したが、プロセッサ60に代えて、又は、プロセッサ60と共に、他の少なくとも1つのCPU、少なくとも1つのGPU、及び/又は、少なくとも1つのTPUを用いるようにしてもよい。
 また、上記実施形態では、NVM62にマルチスペクトル画像生成プログラム80が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、マルチスペクトル画像生成プログラム80がSSD又はUSBメモリなどの可搬型の非一時的なコンピュータ読取可能な記憶媒体(以下、単に「非一時的記憶媒体」と称する)に記憶されていてもよい。非一時的記憶媒体に記憶されているマルチスペクトル画像生成プログラム80は、撮像装置10のコンピュータ20にインストールされ、プロセッサ60は、マルチスペクトル画像生成プログラム80に従ってマルチスペクトル画像生成処理を実行する。
 また、ネットワークを介して撮像装置10に接続される他のコンピュータ又はサーバ装置等の記憶装置にマルチスペクトル画像生成プログラム80を記憶させておき、撮像装置10の要求に応じてマルチスペクトル画像生成プログラム80がダウンロードされ、コンピュータ20にインストールされてもよい。
 また、撮像装置10に接続される他のコンピュータ又はサーバ装置等の記憶装置、又はNVM62にマルチスペクトル画像生成プログラム80の全てを記憶させておく必要はなく、マルチスペクトル画像生成プログラム80の一部を記憶させておいてもよい。
 また、撮像装置10には、コンピュータ20が内蔵されているが、本開示の技術はこれに限定されず、例えば、コンピュータ20が撮像装置10の外部に設けられるようにしてもよい。
 また、上記実施形態では、プロセッサ60、NVM62、及びRAM64を含むコンピュータ20が例示されているが、本開示の技術はこれに限定されず、コンピュータ20に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ20に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 また、上記実施形態では、処理装置100について、プロセッサ120を例示したが、プロセッサ120に代えて、又は、プロセッサ120と共に、他の少なくとも1つのCPU、少なくとも1つのGPU、及び/又は、少なくとも1つのTPUを用いるようにしてもよい。
 また、上記実施形態では、NVM122に混信除去行列導出プログラム130が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、混信除去行列導出プログラム130がSSD又はUSBメモリなどの非一時的記憶媒体に記憶されていてもよい。非一時的記憶媒体に記憶されている混信除去行列導出プログラム130は、処理装置100のコンピュータ110にインストールされ、プロセッサ120は、混信除去行列導出プログラム130に従って混信除去行列導出処理を実行する。
 また、ネットワークを介して処理装置100に接続される他のコンピュータ又はサーバ装置等の記憶装置に混信除去行列導出プログラム130を記憶させておき、処理装置100の要求に応じて混信除去行列導出プログラム130がダウンロードされ、コンピュータ110にインストールされてもよい。
 また、処理装置100に接続される他のコンピュータ又はサーバ装置等の記憶装置、又はNVM122に混信除去行列導出プログラム130の全てを記憶させておく必要はなく、混信除去行列導出プログラム130の一部を記憶させておいてもよい。
 また、処理装置100には、コンピュータ110が内蔵されているが、本開示の技術はこれに限定されず、例えば、コンピュータ110が処理装置100の外部に設けられるようにしてもよい。
 また、上記実施形態では、プロセッサ120、NVM122、及びRAM124を含むコンピュータ110が例示されているが、本開示の技術はこれに限定されず、コンピュータ110に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ110に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 また、上記実施形態で説明した各種処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、各種処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで各種処理を実行する。
 各種処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、各種処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、各種処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、各種処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、各種処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の視線検出処理はあくまでも一例である。したがって、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (13)

  1.  複数の第1透過波長帯域を有する第1光学フィルタを有する光学系と、
     前記光学系を透過した光を受光するイメージセンサと、
     前記光に基づいて前記イメージセンサから出力された第1画像データに対して演算処理を実行することにより、前記第1透過波長帯域毎の第2画像データを出力する第1プロセッサと、
     を備え、
     前記第1光学フィルタは、前記イメージセンサの複数の画素のうちの少なくとも一つの特定画素から分光感度帯域毎に出力される第1出力値が、前記第1透過波長帯域毎の透過率が同じである場合に前記特定画素から前記分光感度帯域毎に出力される第2出力値の最大値未満で前記第2出力値の最小値以上となる光学特性を有し、
     前記光学特性は、前記第1透過波長帯域毎の透過率が異なる第1光学特性、前記第1透過波長帯域毎の幅が異なる第2光学特性、及び前記第1透過波長帯域毎の透過率分布が異なる第3光学特性のうちの少なくとも1つを含む
     撮像装置。
  2.  前記演算処理は、混信除去行列を用いることにより、前記第1画像データを前記第1透過波長帯域毎の前記第2画像データに分離する処理であり、
     前記光学特性は、前記混信除去行列の条件数が、前記第1透過波長帯域毎の透過率が同じである場合の前記条件数よりも小さくなる特性、及び/又は、前記混信除去行列の最大特異値が、前記第1透過波長帯域毎の透過率が同じである場合の前記最大特異値よりも小さくなる特性である
     請求項1に記載の撮像装置。
  3.  前記光学特性は、前記第2出力値に基づいて設定された特性である
     請求項1又は請求項2に記載の撮像装置。
  4.  前記光学特性は、前記第1光学特性を含み、
     前記第1光学フィルタは、
     ガラス層と、
     前記ガラス層に積層された第1コーティング層と、
     を有し、
     前記第1コーティング層は、前記複数の第1透過波長帯域を有し、
     前記ガラス層及び/又は前記第1コーティング層は、前記第1透過波長帯域毎に異なる透過率を有する
     請求項1から請求項3の何れか一項に記載の撮像装置。
  5.  前記光学特性は、前記第1光学特性を含み、
     前記第1光学フィルタは、
     前記複数の第1透過波長帯域を有する第1フィルタ部材と、
     前記第1透過波長帯域毎に異なる透過率を有する第2フィルタ部材と、
     を有する
     請求項1から請求項4の何れか一項に記載の撮像装置。
  6.  前記光学特性は、前記第1光学特性を含み、
     前記光学系は、レンズを有し、
     前記第1光学フィルタは、前記レンズに形成された第2コーティング層を含む
     請求項1から請求項5の何れか一項に記載の撮像装置。
  7.  前記光学系は、
     前記複数の第1透過波長帯域と異なる第2透過波長帯域を有する第2光学フィルタと、
     前記第1光学フィルタに対応する第1偏光子と、
     前記第2光学フィルタに対応する第2偏光子と、
     を有し、
     前記イメージセンサは、各前記画素に対応する第3偏光子を有する
     請求項1から請求項6の何れか一項に記載の撮像装置。
  8.  前記複数の画素のうちそれぞれ隣接する4つの画素には、互いに異なる透過軸を有する4種類の前記第3偏光子がそれぞれ割り当てられており、
     前記4つの画素は、それぞれ前記特定画素であり、
     前記第1出力値は、前記4つの画素から前記分光感度帯域毎に出力される出力値の和に基づく値である
     請求項7に記載の撮像装置。
  9.  前記特定画素は、前記複数の画素のうちの前記イメージセンサの受光面の特定領域に位置する画素である
     請求項1から請求項8の何れか一項に記載の撮像装置。
  10.  請求項1から請求項9の何れか一項に記載の撮像装置における前記光学特性を導出する導出処理を実行する第2プロセッサを備える処理装置であって、
     前記導出処理は、前記第2出力値に基づいて前記光学特性を導出する処理である
     処理装置。
  11.  請求項1から請求項9の何れか一項に記載の撮像装置における前記光学特性を導出する導出処理を実行することを含む処理方法であって、
     前記導出処理は、前記第2出力値に基づいて前記光学特性を導出する処理である
     処理方法。
  12.  請求項1から請求項9の何れか一項に記載の撮像装置における前記光学特性を導出する導出処理をコンピュータに実行させるためのプログラムであって、
     前記導出処理は、前記第2出力値に基づいて前記光学特性を導出する処理である
     プログラム。
  13.  複数の第1透過波長帯域を有し、イメージセンサで受光される光を透過する光学フィルタであって、
     前記イメージセンサの複数の画素のうちの少なくとも一つの特定画素から分光感度帯域毎に出力される第1出力値が、前記第1透過波長帯域毎の透過率が同じである場合に前記特定画素から前記分光感度帯域毎に出力される第2出力値の最大値未満で前記第2出力値の最小値以上となる光学特性を有し、
     前記光学特性は、前記第1透過波長帯域毎の透過率が異なる第1光学特性、前記第1透過波長帯域毎の幅が異なる第2光学特性、及び前記第1透過波長帯域毎の透過率分布が異なる第3光学特性のうちの少なくとも1つを含む
     光学フィルタ。
PCT/JP2022/041530 2022-01-31 2022-11-08 撮像装置、処理装置、処理方法、プログラム、及び光学フィルタ WO2023145188A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-013596 2022-01-31
JP2022013596 2022-01-31

Publications (1)

Publication Number Publication Date
WO2023145188A1 true WO2023145188A1 (ja) 2023-08-03

Family

ID=87471380

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/041530 WO2023145188A1 (ja) 2022-01-31 2022-11-08 撮像装置、処理装置、処理方法、プログラム、及び光学フィルタ

Country Status (1)

Country Link
WO (1) WO2023145188A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006075581A1 (ja) * 2005-01-14 2006-07-20 National University Corporation Gunma University 撮影装置
JP2018526664A (ja) * 2015-06-15 2018-09-13 アグローウィング エルティーディー マルチスペクトル撮像装置
JP2021135404A (ja) * 2020-02-27 2021-09-13 富士フイルム株式会社 レンズ装置、撮像装置、撮像方法、及び撮像プログラム
WO2022004572A1 (ja) * 2020-06-30 2022-01-06 富士フイルム株式会社 レンズ装置、撮像装置、及び撮像方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006075581A1 (ja) * 2005-01-14 2006-07-20 National University Corporation Gunma University 撮影装置
JP2018526664A (ja) * 2015-06-15 2018-09-13 アグローウィング エルティーディー マルチスペクトル撮像装置
JP2021135404A (ja) * 2020-02-27 2021-09-13 富士フイルム株式会社 レンズ装置、撮像装置、撮像方法、及び撮像プログラム
WO2022004572A1 (ja) * 2020-06-30 2022-01-06 富士フイルム株式会社 レンズ装置、撮像装置、及び撮像方法

Similar Documents

Publication Publication Date Title
US10638099B2 (en) Extended color processing on pelican array cameras
EP2529555B1 (en) Denoising cfa images using weighted pixel differences
JP5976676B2 (ja) レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法
KR102287944B1 (ko) 영상 출력 장치 및 영상 출력 방법
US9848118B2 (en) Phase detection autofocus using opposing filter masks
US10951817B2 (en) Compound-eye imaging device, image processing method, and recording medium
US11333927B2 (en) Image processing device, image capturing device, and image processing method
JP2010140442A (ja) 画像処理装置およびその方法
JP7412920B2 (ja) 画像処理装置、画像処理方法およびプログラム
US11706506B2 (en) Imaging apparatus
JP2010245870A (ja) マルチスペクトル撮影用レンズアダプタ装置、マルチスペクトル撮影装置、および画像処理装置
US20060289958A1 (en) Color filter and image pickup apparatus including the same
WO2023145188A1 (ja) 撮像装置、処理装置、処理方法、プログラム、及び光学フィルタ
JP6692749B2 (ja) マルチスペクトルカメラ
US11838699B2 (en) Image processing apparatus, image pickup apparatus, and image processing method
EP4086597A1 (en) Imaging unit and measurement device
WO2020213418A1 (ja) 撮像装置、信号処理装置、信号処理方法及び信号処理プログラム
KR102362278B1 (ko) 다중 공진 모드를 가지는 가변 분광 필터를 포함하는 분광 장치, 그리고 이의 분광 정보 획득 방법
WO2023188513A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2023188512A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11982899B2 (en) Image processing device, imaging device, image processing method, and image processing program
WO2024047944A1 (ja) 校正用部材、筐体装置、校正装置、校正方法、及びプログラム
JP7083912B2 (ja) 撮像素子、撮像装置、撮像方法およびプログラム
WO2024024174A1 (ja) レンズ装置、マルチスペクトルカメラ、制御装置、制御方法、及びプログラム
US20240129603A1 (en) Imaging method and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22924042

Country of ref document: EP

Kind code of ref document: A1