WO2023188512A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2023188512A1
WO2023188512A1 PCT/JP2022/041772 JP2022041772W WO2023188512A1 WO 2023188512 A1 WO2023188512 A1 WO 2023188512A1 JP 2022041772 W JP2022041772 W JP 2022041772W WO 2023188512 A1 WO2023188512 A1 WO 2023188512A1
Authority
WO
WIPO (PCT)
Prior art keywords
matrix
processing
pixel
information
image
Prior art date
Application number
PCT/JP2022/041772
Other languages
English (en)
French (fr)
Inventor
和佳 岡田
慶延 岸根
睦 川中子
高志 椚瀬
友也 平川
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2023188512A1 publication Critical patent/WO2023188512A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the technology of the present disclosure relates to an information processing device, an information processing method, and a program.
  • Japanese Unexamined Patent Publication No. 2012-044519 discloses a digital camera including pixels constituting color sensors of four or more colors having mutually different spectral sensitivity characteristics.
  • a digital camera has a first signal readout mode in which an image signal with a first amount of information is read out in a first signal readout time, and a second readout time that is shorter than the first readout time and has an amount of information greater than the first amount of information.
  • the present invention includes a multispectral imaging device that can operate in either a second signal readout mode in which an image signal with a second smaller amount of information is read out.
  • the multispectral image sensor In the first signal readout mode, the multispectral image sensor outputs image signals with a number of colors corresponding to all four or more colors read out from the pixels constituting the color sensor for four or more colors, while in the second signal readout mode In the mode, the image signal has a smaller number of colors than in the first signal readout mode, and forms an image narrower than the color gamut that can be reproduced by the image signal read out in the first signal readout mode. Output a signal.
  • JP 2021-136501A discloses an imaging device including an imaging means, a calculation means, an image generation means, and a control means.
  • the imaging means includes polarization pixels that detect polarization information in a plurality of different directions.
  • the calculation means obtains polarization information of the polarization pixel by performing a first polarization calculation or a second polarization calculation with a smaller calculation load than the first polarization calculation on the video signal output from the polarization pixel.
  • the image generation means generates a polarization-processed image using the polarization information obtained by the calculation means.
  • the control means switches between the first polarization calculation and the second polarization calculation performed by the calculation means in accordance with a result of detecting a predetermined timing, mode, or predetermined state.
  • Japanese Translation of PCT Publication No. 2008-525158 discloses an apparatus for acquiring shock data used in hyperspectral or multispectral imaging.
  • the apparatus includes at least one of a detector, a filter or unfiltered wavelength selector, a power source, and image acquisition hardware.
  • One embodiment of the technology of the present disclosure includes an information processing device that can reduce the load on a processor compared to a case where the first processing is performed on output data without reducing the amount of information; Provides information processing methods and programs.
  • a first aspect of the technology of the present disclosure includes a processor, the processor performs first processing and second processing related to multispectral image data on output data from the sensor, and the first processing includes:
  • the information processing apparatus includes a reduction process that reduces the amount of information for output data compared to the second process.
  • a second aspect of the technology of the present disclosure is an information processing apparatus according to the first aspect, in which the reduction process includes a thinning process of thinning out information from output data.
  • a third aspect of the technology of the present disclosure is that in the information processing apparatus according to the first aspect or the second aspect, the sensor is a first image sensor, and the output data is output from the first image sensor.
  • This is an information processing device that processes image data.
  • a fourth aspect according to the technology of the present disclosure is the information processing apparatus according to the third aspect, wherein the imaging data is data output from the first image sensor without reducing the electrical signal. .
  • a fifth aspect according to the technology of the present disclosure is an information processing apparatus according to the third aspect or the fourth aspect, in which the information includes polarization information included in imaging data.
  • a sixth aspect of the technology of the present disclosure is an information processing apparatus according to any one of the third to fifth aspects, wherein the information includes wavelength information included in imaging data. be.
  • a seventh aspect of the technology of the present disclosure is the information processing apparatus according to any one of the first to sixth aspects, wherein the reduction process includes arithmetic processing using a first matrix; The information processing device performs processing based on the condition number of the first matrix.
  • An eighth aspect according to the technology of the present disclosure is that in the information processing apparatus according to the seventh aspect, the processor deletes a component corresponding to the information from the second matrix indicating the relationship between the output data and the multispectral image data.
  • the information processing device generates a third matrix by doing this, and the first matrix is generated based on the inverse matrix of the third matrix.
  • a ninth aspect of the technology of the present disclosure is the information processing apparatus according to any one of the first to eighth aspects, wherein the first process generates display image data based on output data.
  • the second process is a storage process in which image data for storage is generated based on the output data, which is a display process performed by the information processing apparatus.
  • a tenth aspect according to the technology of the present disclosure is an information processing apparatus according to the ninth aspect in which display processing and storage processing are performed in parallel.
  • An eleventh aspect according to the technology of the present disclosure is an information processing apparatus according to the ninth aspect, in which display processing and storage processing are selectively performed.
  • a twelfth aspect of the technology of the present disclosure is that in the information processing apparatus according to any one of the first to eleventh aspects, the first process and/or the second process is based on output data.
  • This is an information processing device that performs processing to generate multispectral image data.
  • a thirteenth aspect according to the technology of the present disclosure is the information processing apparatus according to any one of the first to twelfth aspects, wherein the sensor is a second image sensor, and the processor is a second image sensor.
  • the information processing apparatus selectively performs a third process and a fourth process that are read processes from the sensor, and the third process has a larger pixel thinning amount for the second image sensor than the fourth process.
  • a fourteenth aspect according to the technology of the present disclosure is the information processing apparatus according to the thirteenth aspect, wherein the second image sensor has a plurality of first pixel blocks, and each first pixel block has a plurality of first pixel blocks.
  • a plurality of types of polarizers are assigned to the plurality of first pixels, and the third process is performed to detect polarizers corresponding to each polarizer from the plurality of first pixels in each first pixel block.
  • This is an information processing device that includes processing for selecting one pixel.
  • a fifteenth aspect according to the technology of the present disclosure is the information processing apparatus according to the thirteenth aspect, wherein the second image sensor has a plurality of second pixel blocks, and each second pixel block has a plurality of second pixel blocks.
  • a plurality of types of polarizers are assigned to the plurality of second pixels formed by pixels, and the third processing is performed by assigning a plurality of second pixels corresponding to different types of polarizers to the plurality of second pixels in adjacent second pixel blocks.
  • the information processing device includes processing for selecting from the second pixel of.
  • a sixteenth aspect according to the technology of the present disclosure is the information processing apparatus according to the thirteenth aspect, wherein the second image sensor has a plurality of third pixel blocks, and each third pixel block has a plurality of third pixel blocks.
  • a plurality of types of polarizers are assigned to the plurality of third pixels formed by the plurality of pixels, and the third processing is performed by separating the plurality of pixel lines from the plurality of pixel lines formed by the plurality of third pixel blocks at row intervals.
  • This is an information processing apparatus that includes a process of selecting a pixel line by using a pixel line.
  • a seventeenth aspect according to the technology of the present disclosure is the information processing apparatus according to the thirteenth aspect, wherein the second image sensor has a plurality of fourth pixel blocks, and each fourth pixel block has a plurality of fourth pixel blocks.
  • a plurality of types of polarizers are assigned to the plurality of fourth pixels, and the third process is a process of selecting fourth pixel blocks at intervals from the plurality of fourth pixel blocks. It is an information processing device including.
  • An eighteenth aspect of the technology of the present disclosure includes performing first processing and second processing related to multispectral image data on output data from a sensor, and the first processing is more efficient than the second processing. is also an information processing method that includes a reduction process that reduces the amount of information in output data.
  • a nineteenth aspect of the technology of the present disclosure is a program for causing a computer to execute a specific process, wherein the specific process includes a first process related to multispectral image data and a first process related to multispectral image data on output data from a sensor.
  • the program includes performing a second process, and the first process includes a reduction process that reduces the amount of information in the output data compared to the second process.
  • FIG. 1 is a perspective view showing an example of an imaging device according to an embodiment. It is an exploded side view showing an example of a lens device and an imaging device body concerning an embodiment.
  • FIG. 1 is a block diagram illustrating an example of the hardware configuration of an imaging device according to an embodiment.
  • FIG. 1 is an exploded perspective view showing an example of a photoelectric conversion element according to an embodiment.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration for realizing image processing according to an embodiment.
  • FIG. 3 is a block diagram illustrating an example of the operation of a second output value acquisition section and a second interference removal processing section according to the embodiment.
  • FIG. 2 is a block diagram illustrating an example of the operation of a second interference removal processing section and a second image data generation section according to the embodiment.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration for realizing interference cancellation matrix generation processing according to the embodiment.
  • FIG. 2 is a block diagram illustrating an example of the operations of a wavelength setting section, a polarization component deletion section, an inverse matrix derivation section, a wavelength component deletion section, a condition number derivation section, and an interference cancellation matrix determination section according to the embodiment.
  • FIG. 2 is a block diagram illustrating an example of the operation of a first output value acquisition section and a first interference removal processing section according to the embodiment.
  • FIG. 3 is a block diagram illustrating an example of the operation of the first interference removal processing section and the second image data generation section according to the embodiment.
  • 7 is a flowchart illustrating an example of the flow of display processing according to the embodiment.
  • FIG. 7 is a flowchart illustrating an example of the flow of storage processing according to the embodiment.
  • 7 is a flowchart illustrating an example of the flow of interference cancellation matrix generation processing according to the embodiment. It is an explanatory view showing a modification of display processing concerning an embodiment.
  • FIG. 7 is an explanatory diagram showing a first modified example of read processing according to the embodiment.
  • FIG. 7 is an explanatory diagram showing a second modified example of the read processing according to the embodiment.
  • FIG. 7 is an explanatory diagram showing a third modified example of the read processing according to the embodiment.
  • FIG. 7 is an explanatory diagram showing a fourth modification of the read process according to the embodiment.
  • FIG. 7 is an explanatory diagram showing a fifth modification of the read processing according to the embodiment.
  • FIG. 7 is an explanatory diagram showing a sixth modification of the read process according to the embodiment.
  • FIG. 12 is an explanatory diagram showing a seventh modification of the read processing according to the embodiment.
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconductor.”
  • CCD is an abbreviation for “Charge Coupled Device”.
  • NVM is an abbreviation for "Non-Volatile Memory.”
  • RAM is an abbreviation for "Random Access Memory.”
  • CPU is an abbreviation for "Central Processing Unit.”
  • GPU is an abbreviation for “Graphics Processing Unit.”
  • EEPROM is an abbreviation for "Electrically Erasable and Programmable Read Only Memory.”
  • HDD is an abbreviation for "Hard Disk Drive.”
  • LiDAR is an abbreviation for “Light Detection and Ranging”.
  • TPU is an abbreviation for "Tensor processing unit”.
  • SSD is an abbreviation for “Solid State Drive.”
  • USB is an abbreviation for “Universal Serial Bus.”
  • ASIC is an abbreviation for “Application Specific Integrated Circuit.”
  • FPGA is an abbreviation for “Field-Programmable Gate Array.”
  • PLD is an abbreviation for “Programmable Logic Device”.
  • SoC is an abbreviation for "System-on-a-chip.”
  • IC is an abbreviation for "Integrated Circuit.”
  • a straight line refers to not only a perfect straight line but also an error that is generally allowed in the technical field to which the technology of the present disclosure belongs, and that does not go against the spirit of the technology of the present disclosure. It refers to a straight line that includes the error of.
  • the imaging device 10 is a multispectral camera capable of outputting multispectral images, and includes a lens device 12 and an imaging device body 14.
  • the imaging device 10 is an example of an "information processing device" according to the technology of the present disclosure.
  • the lens device 12 has a first mount 16, and the imaging device body 14 has a second mount 18.
  • the first mount 16 and the second mount 18 are each C-mounts and are formed in an annular shape.
  • the first mount 16 is provided coaxially with the optical axis OA of the lens device 12.
  • a screw 20 is formed on the outer peripheral surface of the first mount 16, and a screw hole 22 is formed inside the second mount 18.
  • the first mount 16 is attached to the second mount 18 by screwing the screw 20 into the screw hole 22.
  • the lens device 12 is attached to the imaging device body 14 by attaching the first mount 16 to the second mount 18 .
  • the screw hole 22 may be formed inside the first mount 16 and the screw 20 may be formed on the outer peripheral surface of the second mount 18.
  • the lens device 12 includes an optical system 24.
  • the imaging device body 14 includes an image sensor 26, a control driver 28, an input/output I/F 30, a computer 32, a reception device 34, and a display 36.
  • the optical system 24 includes a first lens 38, a pupil splitting filter 40, and a second lens 42.
  • the first lens 38, the pupil division filter 40, and the second lens 42 are arranged in the order of the first lens 38, the pupil division filter 40, and the second lens 42 along the optical axis OA from the subject 4 side to the image sensor 26 side. It is located.
  • the first lens 38 transmits light obtained by the light emitted from the light source 2 reflecting off the subject 4 (hereinafter referred to as “subject light”) to the pupil division filter 40 .
  • the second lens 42 forms an image of the subject light that has passed through the pupil splitting filter 40 onto a light receiving surface 48A of a photoelectric conversion element 48 provided in the image sensor 26.
  • the pupil splitting filter 40 includes a filter 44A, a filter 44B, a filter 44C, a polarizer 46A, a polarizer 46B, and a polarizer 46C.
  • the filters 44A, 44B, and 44C are shown arranged in a straight line along the direction orthogonal to the optical axis OA, but the filters 44A, 44B, and 44C are , are arranged along the direction around the optical axis OA.
  • Filter 44A has a first transmission wavelength band ⁇ 1
  • filter 44B has a second transmission wavelength band ⁇ 2
  • filter 44C has a third transmission wavelength band ⁇ 3 .
  • the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 are mutually different wavelength bands.
  • the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 may each be set to arbitrary bands.
  • the filters 44A, 44B, and 44C will be referred to as “filters 44.”
  • the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 3 Band ⁇ 2 and third transmission wavelength band ⁇ 3 are referred to as “transmission wavelength band ⁇ ”.
  • Polarizer 46A, polarizer 46B, and polarizer 46C are overlapped with filter 44A, filter 44B, and filter 44C, respectively.
  • the polarizer 46A is a polarizer whose transmission axis has an angle of 0°.
  • the polarizer 46B is a polarizer whose transmission axis has an angle of 60°.
  • the polarizer 46C is a polarizer whose transmission axis has an angle of 120°.
  • the number of filters 44 is three, but the number of filters 44 may be any number.
  • the number of polarizers 46 is three, but the number of polarizers 46 may be any number.
  • the image sensor 26 includes a photoelectric conversion element 48 and a signal processing circuit 50.
  • the image sensor 26 is, for example, a CMOS image sensor.
  • a CMOS image sensor is exemplified as the image sensor 26, but the technology of the present disclosure is not limited to this.
  • the image sensor 26 may be another type of image sensor such as a CCD image sensor.
  • the technology of the present disclosure is realized.
  • the image sensor 26 is an example of a "sensor" and a "first image sensor" according to the technology of the present disclosure.
  • FIG. 3 shows a schematic configuration of the photoelectric conversion element 48.
  • FIG. 4 specifically shows the configuration of a part of the photoelectric conversion element 48.
  • the photoelectric conversion element 48 has a pixel layer 52, a polarizing filter layer 54, and a spectral filter layer 56.
  • the pixel layer 52 has a plurality of pixels 58.
  • the plurality of pixels 58 are arranged in a matrix and form a light receiving surface 48A of the photoelectric conversion element 48.
  • Each pixel 58 is a physical pixel having a photodiode (not shown), photoelectrically converts the received light, and outputs an electric signal according to the amount of received light.
  • the pixels 58 provided in the photoelectric conversion element 48 will be referred to as “physical pixels 58" in order to distinguish them from pixels forming a multispectral image. Furthermore, pixels that form a multispectral image are referred to as “image pixels.”
  • the physical pixel 58 is an example of a "pixel” according to the technology of the present disclosure.
  • the photoelectric conversion element 48 outputs the electrical signals output from the plurality of physical pixels 58 to the signal processing circuit 50 as image data 120.
  • the signal processing circuit 50 digitizes the analog imaging data 120 input from the photoelectric conversion element 48.
  • the image data 120 is, for example, data output from all physical pixels 58 of the photoelectric conversion element 48.
  • All physical pixels 58 refer to all physical pixels 58 that can output electrical signals. Specifically, all physical pixels 58 refer to the remaining physical pixels 58 excluding invalid pixels among the plurality of physical pixels 58 included in the entire area of the light receiving surface 48A, or the remaining physical pixels 58 included in the effective area of the light receiving surface 48A. A plurality of physical pixels 58 are included.
  • the image data 120 is data that is output without thinning out the physical pixels 58 for all physical pixels 58 capable of outputting electrical signals, and without reducing the electrical signals from the photoelectric conversion element 48. This is the data output to .
  • the imaging data 120 is an example of "output data" and "imaging data" according to the technology of the present disclosure.
  • a plurality of physical pixels 58 form a plurality of pixel blocks 60.
  • Each pixel block 60 is formed by a total of four physical pixels 58, two in the vertical direction and two in the horizontal direction.
  • the four physical pixels 58 forming each pixel block 60 are shown arranged in a straight line along the direction perpendicular to the optical axis OA.
  • the four physical pixels 58 are arranged adjacent to the photoelectric conversion element 48 in the vertical and horizontal directions, respectively.
  • the polarizing filter layer 54 includes a polarizer 62A, a polarizer 62B, a polarizer 62C, and a polarizer 62D.
  • the polarizer 62A is a polarizer in which the angle ⁇ 1 of the transmission axis (hereinafter referred to as “first polarization angle ⁇ 1 ”) is set to 0°.
  • the polarizer 62B is a polarizer in which the angle ⁇ 2 of the transmission axis (hereinafter referred to as “second polarization angle ⁇ 2 ”) is set to 45°.
  • the polarizer 62C is a polarizer in which the angle ⁇ 3 of the transmission axis (hereinafter referred to as “third polarization angle ⁇ 3 ”) is set to 90°.
  • the polarizer 62D is a polarizer in which the angle ⁇ 4 of the transmission axis (hereinafter referred to as “fourth polarization angle ⁇ 4 ”) is set to 135°.
  • polarizer 62A, polarizer 62B, polarizer 62C, and polarizer 62D will be referred to as "polarizer 62A, polarizer 62B, polarizer 62C, and polarizer 62D. 62”.
  • the first polarization angle ⁇ 1 , the second polarization angle ⁇ 2 , the third polarization angle ⁇ 3 , and the fourth polarization angle ⁇ 4 are referred to as “polarization angle ⁇ ”.
  • the spectral filter layer 56 includes a B filter 64A, a G filter 64B, and an R filter 64C.
  • the B filter 64A is a blue band filter that transmits most of the light in the blue wavelength band among the plurality of wavelength bands.
  • the G filter 64B is a green band filter that transmits the most light in the green wavelength band among the plurality of wavelength bands.
  • the R filter 64C is a red band filter that transmits most of the light in the red wavelength band among the plurality of wavelength bands.
  • a B filter 64A, a G filter 64B, and an R filter 64C are assigned to each pixel block 60.
  • the B filter 64A, the G filter 64B, and the R filter 64C are shown arranged in a straight line along the direction orthogonal to the optical axis OA, but as an example, as shown in FIG.
  • the B filter 64A, the G filter 64B, and the R filter 64C are arranged in a matrix in a predetermined pattern arrangement.
  • the B filter 64A, the G filter 64B, and the R filter 64C are arranged in a matrix in a Bayer arrangement, as an example of a predetermined pattern arrangement.
  • the predetermined pattern arrangement may be an RGB stripe arrangement, an R/G checkered arrangement, an X-Trans (registered trademark) arrangement, a honeycomb arrangement, or the like other than the Bayer arrangement.
  • filters 64 the B filter 64A, G filter 64B, and R filter 64C
  • the B filter 64A, the G filter 64B, and the R filter 64C will be referred to as "filters 64", respectively.
  • a signal processing circuit 50 As shown in FIG. 3 as an example, a signal processing circuit 50, a control driver 28, a computer 32, a reception device 34, and a display 36 are connected to the input/output I/F 30.
  • the computer 32 has a processor 70, an NVM 72, and a RAM 74.
  • the processor 70 is an example of a "processor" according to the technology of the present disclosure.
  • the processor 70 controls the entire imaging device 10 .
  • the processor 70 is, for example, an arithmetic processing device including a CPU and a GPU, and the GPU operates under the control of the CPU and is responsible for executing processing related to images.
  • an arithmetic processing unit including a CPU and a GPU is cited as an example of the processor 70, but this is just an example, and the processor 70 may be one or more CPUs with integrated GPU functions. , one or more CPUs without integrated GPU functionality.
  • the processor 70, NVM 72, and RAM 74 are connected via a bus 76, and the bus 76 is connected to the input/output I/F 30.
  • the NVM 72 is a non-temporary storage medium and stores various parameters and programs.
  • NVM 72 is a flash memory (eg, EEPROM).
  • EEPROM electrically erasable programmable read-only memory
  • the RAM 74 temporarily stores various information and is used as a work memory.
  • the processor 70 reads a necessary program from the NVM 72 and executes the read program in the RAM 74.
  • the processor 70 controls the control driver 28 and the signal processing circuit 50 according to a program executed in the RAM 74.
  • the control driver 28 controls the photoelectric conversion element 48 under the control of the processor 70.
  • the reception device 34 includes, for example, a release button, a touch panel, hard keys (all not shown), and receives instructions from a user or the like.
  • the display 36 is, for example, a liquid crystal display, and displays various images including multispectral images.
  • an image processing program 80 is stored in the NVM 72.
  • the image processing program 80 is an example of a "program" according to the technology of the present disclosure.
  • the processor 70 reads the image processing program 80 from the NVM 72 and executes the read image processing program 80 on the RAM 74.
  • the processor 70 executes image processing according to an image processing program 80 executed on the RAM 74.
  • Image processing is an example of "specific processing” according to the technology of the present disclosure.
  • Image processing includes display processing and storage processing.
  • the display processing and storage processing are processing performed on the imaged data 120.
  • the display process is a process of generating display image data 122 (that is, live view image data) at a predetermined frame rate based on the captured image data 120.
  • the default frame rate is, for example, 30 fps or 60 fps.
  • the storage process is a process of generating storage image data 124 (that is, main exposure image data) based on the imaging data 120 when the reception device 34 (see FIG. 3) accepts an imaging instruction from a user or the like. be.
  • the display image data 122 is an example of "display image data" according to the technology of the present disclosure
  • the storage image data 124 is an example of "save image data" according to the technology of the present disclosure.
  • the display image data 122 and the storage image data 124 are both multispectral image data, and the display processing and storage processing are both processing related to the multispectral image data.
  • the reception device 34 accepts an imaging instruction from a user or the like, storage processing is performed in parallel with display processing. For example, display processing and storage processing are performed on the same frame.
  • the display process is an example of the "first process” according to the technology of the present disclosure
  • the storage process is an example of the "second process” according to the technology of the present disclosure.
  • the display processing is realized by the processor 70 operating as a first output value acquisition section 82, a first interference removal processing section 84, and a first image data generation section 86 according to the image processing program 80.
  • the storage process is realized by the processor 70 operating as a second output value acquisition section 92, a second interference removal processing section 94, and a second image data generation section 96 according to the image processing program 80.
  • the second output value acquisition unit 92 acquires the output values Y of all the physical pixels 58 based on the imaging data 120 input from the image sensor 26 to the processor 70. do.
  • the output value Y of each physical pixel 58 corresponds to the brightness value of each pixel included in the captured image indicated by the captured image data 120.
  • the output value Y of each physical pixel 58 is a value that includes interference (that is, crosstalk). That is, since light in each of the transmission wavelength bands ⁇ of the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 is incident on each physical pixel 58, the output value Y is , a value corresponding to the light amount of the first transmission wavelength band ⁇ 1 , a value corresponding to the light amount of the second transmission wavelength band ⁇ 2 , and a value corresponding to the light amount of the third transmission wavelength band ⁇ 3 are mixed values.
  • the processor 70 separates values corresponding to each transmission wavelength band ⁇ from the output value Y for each physical pixel 58. It is necessary to perform an interference removal process on the output value Y, that is, a process for removing interference. Therefore, in the present embodiment, the second interference removal processing unit 94 performs interference removal processing on the output values Y of all the physical pixels 58 acquired by the second output value acquisition unit 92.
  • the output value Y of each physical pixel 58 includes red, green, and blue brightness values as components of the output value Y.
  • the output value Y of each physical pixel 58 is expressed by equation (1).
  • YR is the red luminance value of the output value Y
  • YG is the green luminance value of the output value Y
  • YB is the blue luminance value of the output value Y. It is.
  • the pixel value X of each image pixel forming the storage image 134 is the brightness value of light in the first transmission wavelength band ⁇ 1 , the brightness value of light in the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 . includes the luminance value of light as a component of the pixel value X.
  • the pixel value X of each image pixel is expressed by equation (2).
  • the brightness value X ⁇ 1 is the brightness value of light in the first transmission wavelength band ⁇ 1 of the pixel value X
  • the brightness value X ⁇ 2 is the brightness value of light in the second transmission wavelength band ⁇ 2 of the pixel value X.
  • the brightness value X ⁇ 3 is the brightness value of light in the third transmission wavelength band ⁇ 3 of the pixel value X.
  • the interference matrix A is defined based on the spectrum of the subject light, the spectral transmittance of the first lens 38, the spectral transmittance of the second lens 42, the spectral transmittance of the plurality of filters 44, and the spectral sensitivity of the image sensor 26. It's a queue.
  • the interference removal matrix A + also includes the spectrum of the subject light, the spectral transmittance of the first lens 38, the spectral transmittance of the second lens 42, the spectral transmittance of the plurality of filters 44, and the image sensor 26. is a matrix defined based on the spectral sensitivity of .
  • the interference cancellation matrix A + is set by a user or the like and stored in the NVM 72 in advance.
  • the second interference removal processing unit 94 acquires the interference cancellation matrix A + stored in the NVM 72 and the output values Y of all the physical pixels 58 acquired by the second output value acquisition unit 92, and removes the acquired interference. Based on the matrix A + and the output values Y of all physical pixels 58, the pixel value X of each image pixel is outputted using equation (4).
  • the pixel value X of each image pixel is the luminance value X ⁇ 1 of the light in the first transmission wavelength band ⁇ 1 , the luminance value X ⁇ 2 of the light in the second transmission wavelength band ⁇ 2 , and the luminance value X ⁇ 2 of the light in the second transmission wavelength band ⁇ 2 .
  • the luminance value X ⁇ 3 of light in the wavelength band ⁇ 3 is included as a component of the pixel value X.
  • the brightness value X ⁇ 1 of the light in the first transmission wavelength band ⁇ 1 is indicated by the first image data of the imaging data 120.
  • the brightness value X ⁇ 2 of the light in the second transmission wavelength band ⁇ 2 is indicated by the second image data of the imaging data 120.
  • the brightness value X ⁇ 3 of the light in the third transmission wavelength band ⁇ 3 is indicated by the third image data of the imaging data 120.
  • the imaging data 120 becomes the first image data which is the image data indicating the luminance value X ⁇ 1 of the light in the first transmission wavelength band ⁇ 1 .
  • second image data which is image data indicating the luminance value X ⁇ 2 of light in the second transmission wavelength band ⁇ 2
  • third image data which is image data indicating the luminance value X ⁇ 3 of light in the third transmission wavelength band ⁇ 3. It is separated into image data. That is, the image data 120 is separated into image data for each transmission wavelength band of the plurality of filters 44.
  • the second image data generation section 96 generates the first image data, the second image data, and the third image data generated by the interference removal processing performed by the second interference removal processing section 94.
  • Image data for storage 124 is generated by combining the image data.
  • the storage image data 124 is image data indicating the storage image 134 which is a multispectral image.
  • the storage image data 124 is stored in the NVM 72.
  • a multispectral image is obtained by performing interference removal processing using the interference removal matrix A + on the output values Y of all physical pixels 58.
  • display processing is performed in the following manner in order to suppress an increase in the burden on the processor 70 and to allow display processing to be performed in parallel with storage processing.
  • an interference cancellation matrix generation program 100 is stored in the NVM 72.
  • the processor 70 reads the interference cancellation matrix generation program 100 from the NVM 72 and executes the read interference cancellation matrix generation program 100 on the RAM 74.
  • the processor 70 executes interference cancellation matrix generation processing for generating the interference cancellation matrix B + according to the interference cancellation matrix generation program 100 executed on the RAM 74 .
  • the processor 70 performs interference cancellation using a wavelength setting section 102, a polarization component deletion section 104, an inverse matrix derivation section 106, a wavelength component deletion section 108, a condition number derivation section 110, and an interference cancellation matrix generation program 100. This is realized by operating as the matrix determining unit 112.
  • a user or the like issues an instruction (hereinafter referred to as a "wavelength selection instruction") to select a wavelength to be used to generate a display image 132 (see FIG. 11) from a plurality of wavelengths. It is given to the reception device 34.
  • the reception device 34 When receiving the wavelength selection instruction, the reception device 34 outputs a wavelength selection instruction signal indicating the wavelength selection instruction to the processor 70.
  • the wavelength setting unit 102 selects a display image 132 from the first transmission wavelength band ⁇ 1 , the second transmission wavelength band ⁇ 2 , and the third transmission wavelength band ⁇ 3 based on the wavelength selection instruction signal input to the processor 70 .
  • the NVM 72 stores in advance a interference matrix A obtained by a user or the like.
  • the interference matrix A is, for example, a matrix with four rows and three columns, corresponding to the four types of polarizers 62 and three types of filters 44 (see FIG. 3) described above. That is, the interference matrix A has components a 11 to a 13 , components a 21 to a 23 , components a 31 to a 33 , and components a 41 to a 43 .
  • the row direction of the interference matrix indicates the polarization angle ⁇ of the polarizer 62, and the column direction of the interference matrix indicates the transmission wavelength band ⁇ of the filter 44.
  • the first row shows the component related to the polarization angle ⁇ 1 of the polarizer 62A
  • the second row shows the component related to the polarization angle ⁇ 2 of the polarizer 62B
  • the third row shows the component related to the polarization angle ⁇ 2 of the polarizer 62C.
  • the components related to the polarization angle ⁇ 3 are shown
  • the fourth row shows the components related to the polarization angle ⁇ 4 of the polarizer 62D.
  • the first column shows the components related to the first transmission wavelength band ⁇ 1 of the filter 44A
  • the second column shows the components related to the second transmission wavelength band ⁇ 2 of the filter 44B
  • the third column shows the components related to the second transmission wavelength band ⁇ 2 of the filter 44B. represents a component related to the third transmission wavelength band ⁇ 3 of the filter 44C.
  • the polarization component removing unit 104 generates a first interference matrix A 1 , a second interference matrix A 2 , a third interference matrix A 3 , and a fourth interference matrix based on the interference matrix A stored in the NVM 72 Generate A4 .
  • the first interference matrix A1 is a matrix obtained by removing the component related to the polarization angle ⁇ 1 of the polarizer 62A from the interference matrix A.
  • the second interference matrix A 2 is a matrix obtained by deleting the component related to the polarization angle ⁇ 2 of the polarizer 62B from the interference matrix A.
  • the third interference matrix A 3 is a matrix obtained by deleting the component related to the polarization angle ⁇ 3 of the polarizer 62C. This is a matrix deleted from matrix A.
  • the fourth interference matrix A4 is a matrix obtained by removing the component related to the polarization angle ⁇ 4 of the polarizer 62D from the interference matrix A.
  • the inverse matrix deriving unit 106 generates a first inverse matrix A 1 + that is the inverse matrix of the first interference matrix A 1 , a second inverse matrix A 2 + that is the inverse matrix of the second interference matrix A 2 , and , a third inverse matrix A 3 + that is the inverse matrix of the third interference matrix A 3 and a fourth inverse matrix A 4 + that is the inverse matrix of the fourth interference matrix A 4 are derived.
  • the first inverse matrix A 1 + to the fourth inverse matrix A 4 + are all matrices with three rows and three columns. That is, the inverse matrix A 1 + has components b 11 to b 13 , components b 21 to b 23 , and components b 31 to b 33 .
  • the inverse matrix A 2 + has components c 11 to c 13 , components c 21 to c 23 , and components c 31 to c 33 .
  • the inverse matrix A 3 + has components d 11 to d 13 , components d 21 to d 23 , and components d 31 to d 33 .
  • the inverse matrix A 4 + has components e 11 to e 13 , components e 21 to e 23 , and components e 31 to e 33 .
  • the row direction of the interference matrix indicates the transmission wavelength band ⁇ of the filter 44, and the column direction of the interference matrix indicates the polarization angle ⁇ of the polarizer 62.
  • the wavelength component deletion unit 108 converts components related to the remaining transmission wavelength band ⁇ other than the transmission wavelength band ⁇ set by the wavelength setting unit 102 into a first inverse matrix A 1 + , a second inverse matrix A 2 + , and a second inverse matrix A 2 + . 3 from the inverse matrix A 3 + and the fourth inverse matrix A 4 + .
  • the second transmission wavelength band ⁇ 2 and the third transmission wavelength band ⁇ 3 are set by the wavelength setting unit 102 as transmission wavelength bands used to generate the display image 132.
  • the components related to the first transmission wavelength band ⁇ 1 i.e. , the first line component
  • the first interference cancellation matrix B 1 + is generated by deleting the component related to the first transmission wavelength band ⁇ 1 from the first inverse matrix A 1 + .
  • the second interference cancellation matrix B 2 + is generated by deleting the component related to the first transmission wavelength band ⁇ 1 from the second inverse matrix A 2 + .
  • the third interference cancellation matrix B 3 + is generated by deleting the component related to the first transmission wavelength band ⁇ 1 from the third inverse matrix A 3 + .
  • a fourth interference cancellation matrix B 4 + is generated by deleting the component related to the first transmission wavelength band ⁇ 1 from the fourth inverse matrix A 4 + .
  • the first interference cancellation matrix B 1 + to the fourth interference cancellation matrix B 4 + are all matrices with two rows and three columns.
  • the condition number deriving unit 110 calculates the condition number of the first interference cancellation matrix B 1 + , the condition number of the second interference cancellation matrix B 2 + , the condition number of the third interference cancellation matrix B 3 +, and the condition number of the third interference cancellation matrix B 3 + .
  • the condition number of the interference cancellation matrix B 4 + of 4 is derived.
  • each condition number is determined by changing the relative angle between each polarizer 46 of the pupil splitting filter 40 and each polarizer 62 of the image sensor 26 as the mounting angle of the lens device 12 with respect to the imaging device body 14 changes. It changes depending on what you do.
  • the mounting angle of the lens device 12 with respect to the imaging device body 14 may vary depending on the imaging device 10 due to manufacturing errors of the screws 20 and/or screw holes 22.
  • the interference cancellation matrix determining unit 112 calculates, from the first interference cancellation matrix B 1 + , the second interference cancellation matrix B 2 + , the third interference cancellation matrix B 3 + , and the fourth interference cancellation matrix B 4 + , Extract the interference cancellation matrix with the smallest condition number. Then, the interference cancellation matrix determining unit 112 determines the extracted interference cancellation matrix as the interference cancellation matrix B + used to generate the display image 132.
  • the interference cancellation matrix B + is stored in NVM 72.
  • the interference cancellation matrix B + is obtained by deleting the component related to the polarization angle ⁇ of the polarizer 62 and the component related to the transmission wavelength band ⁇ of the filter 44 in the process of generating the interference cancellation matrix B + from the interference matrix A. , has fewer components (i.e., number of rows) than the interference cancellation matrix A + .
  • the interference cancellation matrix B + is an example of a "first matrix” according to the technology of the present disclosure.
  • the condition number is an example of a "condition number” according to the technology of the present disclosure.
  • the interference matrix A is an example of a "second matrix” according to the technology of the present disclosure.
  • the first interference matrix A 1 , the second interference matrix A 2 , the third interference matrix A 3 , and the fourth interference matrix A 4 are examples of the “third matrix” according to the technology of the present disclosure.
  • the first transmitted matrix A 1 + , the second inverse matrix A 2 + , the third inverse matrix A 3 + , and the fourth inverse matrix A 4 + Although the component related to the wavelength band ⁇ 1 (ie, the component in the first row) is deleted, this is just an example.
  • the component That is, the component on the second row
  • the component related to the third transmission wavelength band ⁇ 3 that is, the component on the third row
  • the components related to the transmission wavelength band ⁇ are not deleted from the first inverse matrix A 1 + , the second inverse matrix A 2 + , the third inverse matrix A 3 + , and the fourth inverse matrix A 4 + . It's okay.
  • the first output value acquisition unit 82 acquires the output values Y of all the physical pixels 58 based on the imaging data 120 input from the image sensor 26 to the processor 70. do.
  • the first interference removal processing unit 84 outputs the output values of all the physical pixels 58 acquired by the first output value acquisition unit 82 in order to acquire the display image 132 (see FIG. 11), which is a multispectral image for display. Interference removal processing is executed for each Y. Specifically, the first interference cancellation processing unit 84 acquires the interference cancellation matrix B + stored in the NVM 72 and the output values Y of all physical pixels 58 acquired by the first output value acquisition unit 82. , based on the acquired interference cancellation matrix B + and the output values Y of all physical pixels 58, the pixel value X of each image pixel is outputted using equation (5).
  • the imaging data 120 corresponds to the transmission wavelength band ⁇ set based on the wavelength selection instruction (see FIG. 9) by the user etc. Separated into image data.
  • the imaging data 120 is changed to the second image data and third image data.
  • the second image data is image data indicating the brightness value X ⁇ 2 of light in the second transmission wavelength band ⁇ 2 set by the wavelength setting unit 102 .
  • the third image data is image data indicating the luminance value X ⁇ 3 of light in the third transmission wavelength band ⁇ 3 , which is also set by the wavelength setting unit 102.
  • Interference removal processing in display processing is an example of "reduction processing”, “thinning processing”, and “arithmetic processing” according to the technology of the present disclosure.
  • the amount of information to be processed for the imaged data 120 is reduced compared to the save process by using the interference cancellation matrix B + , which has fewer components than the interference cancel matrix A + used in the save process. That is, in the interference removal process of the display process, polarization information and wavelength information are thinned out from the information included in the imaging data 120.
  • the polarization information is information corresponding to the component related to the polarization angle ⁇ deleted by the polarization component deletion unit 104 (see FIG. 9).
  • the wavelength information is information corresponding to the component related to the transmission wavelength band ⁇ deleted by the wavelength component deletion unit 108 (see FIG. 9).
  • the information to be processed on the imaged data 120 is more important than in the storage process.
  • the amount of Polarization information is an example of "information” and “polarization information” according to the technology of the present disclosure.
  • Wavelength information is an example of "information” and “wavelength information” according to the technology of the present disclosure.
  • the first image data generation section 86 generates multispectral image data by combining the image data generated by the interference removal processing performed by the first interference removal processing section 84.
  • Certain display image data 122 is generated.
  • display image data 122 is generated by combining the second image data and the third image data.
  • the display image data 122 is image data indicating a display image 132 which is a multispectral image.
  • the display image data 122 is output to the display 36, and the display image 132 is displayed on the display 36.
  • the imaging data 120 is separated into second image data and third image data.
  • the imaging data 120 is The image data and the second image data may be separated.
  • the imaging data 120 is The image data and the third image data may be separated.
  • step ST10 the first output value acquisition unit 82 calculates the output value Y of each of all physical pixels 58 based on the imaging data 120 input from the image sensor 26 to the processor 70. (See Figure 10). After the process of step ST10 is executed, the display process moves to step ST12.
  • step ST12 the first interference removal processing unit 84 performs interference removal processing using the interference removal matrix B + on the output values Y of all physical pixels 58 acquired in step ST10 (see FIG. 10). ). Thereby, the image data 120 is separated into image data corresponding to the transmission wavelength band ⁇ set based on a wavelength selection instruction (see FIG. 9) by the user or the like. After the process of step ST12 is executed, the display process moves to step ST14.
  • step ST14 the first image data generation unit 86 generates display image data 122, which is multispectral image data, by synthesizing the image data generated by the interference removal process performed in step ST12 ( (See Figure 11).
  • the display image data 122 is output to the display 36.
  • the display image 132 indicated by the display image data 122 is displayed on the display 36.
  • step ST20 the second output value acquisition unit 92 calculates the output value Y of each of all physical pixels 58 based on the imaging data 120 input from the image sensor 26 to the processor 70. (See Figure 6). After the process of step ST20 is executed, the storage process moves to step ST22.
  • step ST22 the second interference removal processing unit 94 performs interference removal processing using the interference removal matrix A + on the output values Y of all the physical pixels 58 acquired in step ST20 (see FIG. 6). ). Thereby, the imaging data 120 is separated into image data corresponding to a plurality of transmission wavelength bands ⁇ . After the process of step ST22 is executed, the storage process moves to step ST24.
  • step ST24 the second image data generation unit 96 generates storage image data 124, which is multispectral image data, by combining the image data generated by the interference removal process performed in step ST22 ( (See Figure 7).
  • the storage image data 124 is stored in the NVM 72. After the process of step ST24 is executed, the storage process ends.
  • step ST30 the wavelength setting unit 102 selects the first transmission wavelength band ⁇ 1 and the second transmission wavelength band ⁇ 1 based on the wavelength selection instruction signal input to the processor 70.
  • the transmission wavelength band ⁇ used to generate the display image 132 is set from ⁇ 2 and the third transmission wavelength band ⁇ 3 (see FIG. 9).
  • step ST32 the interference cancellation matrix generation process moves to step ST32.
  • the polarization component deletion unit 104 In step ST32, the polarization component deletion unit 104 generates a first interference matrix A 1 by deleting the component related to the polarization angle ⁇ 1 of the polarizer 62A from the interference matrix A stored in the NVM 72 (FIG. 9 reference). Furthermore, the polarization component deletion unit 104 generates a second interference matrix A 2 by deleting the component related to the polarization angle ⁇ 2 of the polarizer 62B from the interference matrix A stored in the NVM 72 (see FIG. 9). . Furthermore, the polarization component deletion unit 104 generates a third interference matrix A 3 by deleting the component related to the polarization angle ⁇ 3 of the polarizer 62C from the interference matrix A stored in the NVM 72 (see FIG. 9). .
  • the polarization component deletion unit 104 generates a fourth interference matrix A 4 by deleting the component related to the polarization angle ⁇ 4 of the polarizer 62D from the interference matrix A stored in the NVM 72 (see FIG. 9). .
  • the interference cancellation matrix generation process moves to step ST34.
  • step ST34 the inverse matrix deriving unit 106 converts the first interference matrix A 1 , the second interference matrix A 2 , the third interference matrix A 3 , and the fourth interference matrix A 4 generated in step ST32 into On the other hand, the first inverse matrix A 1 + , the second inverse matrix A 2 + , the third inverse matrix A 3 + , and the fourth inverse matrix A 4 + are derived (see FIG. 9). ).
  • the interference cancellation matrix generation process moves to step ST36.
  • step ST36 the wavelength component deletion unit 108 converts the components related to the remaining transmission wavelength band ⁇ excluding the transmission wavelength band ⁇ set in step ST30 into the first inverse matrix A 1 + derived in step ST34, the second , the third inverse matrix A 3 + , and the fourth inverse matrix A 4 + (see FIG. 9).
  • the first interference cancellation matrix B 1 + is obtained from the first inverse matrix A 1 + , the second inverse matrix A 2 + , the third inverse matrix A 3 + , and the fourth inverse matrix A 4 + , a second interference cancellation matrix B 2 + , a third interference cancellation matrix B 3 + , and a fourth interference cancellation matrix B 4 + are generated.
  • the interference cancellation matrix generation process moves to step ST38.
  • step ST38 the condition number deriving unit 110 determines the condition number of the first interference cancellation matrix B 1 + , the condition number of the second interference cancellation matrix B 2 + , and the condition of the third interference cancellation matrix B 3 + . and the condition number of the fourth interference cancellation matrix B 4 + are derived (see FIG. 9).
  • the interference cancellation matrix generation process moves to step ST40.
  • step ST40 the interference cancellation matrix determining unit 112 selects the first interference cancellation matrix B 1 + , the second interference cancellation matrix B 2 + , the third interference cancellation matrix B 3 + , and the third interference cancellation matrix B 1 + obtained in step ST36. 4, the interference cancellation matrix with the smallest condition number derived in step ST38 is determined as the interference cancellation matrix B 4 + .
  • the interference cancellation matrix B + is stored in NVM 72. After the process of step ST40 is executed, the interference cancellation matrix generation process ends.
  • imaging control method described as the operation of the imaging device 10 described above is an example of an "information processing method" according to the technology of the present disclosure.
  • the processor 70 performs display processing and storage processing related to multispectral image data on the imaging data 120 from the image sensor 26.
  • the display processing includes interference removal processing that reduces the amount of information for the imaged data 120 compared to the storage processing. Therefore, the load on the processor 70 can be reduced compared to, for example, a case where display processing is performed on the imaged data 120 without reducing the amount of information.
  • the interference removal process in the display process includes a thinning process for thinning out information from the imaged data 120. Therefore, in the interference removal process in the display process, the amount of information to be processed for the imaged data 120 can be reduced more than in the interference removal process in the storage process.
  • the information thinned out from the imaging data 120 includes polarization information included in the imaging data 120. Therefore, the number of rows of the interference cancellation matrix B + used in the interference cancellation process in the display process can be made smaller than the number of rows in the interference cancellation matrix A + used in the interference cancellation process in the storage process.
  • the information thinned out from the imaging data 120 includes wavelength information included in the imaging data 120. Therefore, this also makes it possible to make the number of rows of the interference cancellation matrix B + used in the interference cancellation process in the display process smaller than the number of rows in the interference cancellation matrix A + used in the interference cancellation process in the storage process. .
  • the interference removal process in the display process is performed based on the condition number of the interference removal matrix B + . Therefore, a more accurate pixel value X can be obtained than when interference removal processing is performed regardless of the condition number of the interference removal matrix B + .
  • the processor 70 generates first interference matrix A 1 to fourth interference matrix A 4 by deleting components corresponding to polarization information from interference matrix A indicating the relationship between the imaging data 120 and multispectral image data.
  • the interference cancellation matrix B + is generated based on the first inverse matrix A 1 + to the fourth inverse matrix A 4 + which are the inverse matrices of the first interference matrix A 1 to the fourth interference matrix A 4 . be done. Therefore, the number of rows of the interference cancellation matrix B + can be reduced compared to the case where the interference cancellation matrix B + is generated without removing components corresponding to polarization information from the interference matrix A.
  • the image data 120 is data output from all physical pixels 58 of the image sensor 26. Therefore, display processing and storage processing can be performed in parallel.
  • Display processing and storage processing are performed in parallel. Therefore, the display image 132 and the storage image 134 can be obtained from the same frame.
  • the display processing and storage processing are processing for generating multispectral image data based on the imaging data 120. Therefore, a display image 132 and a storage image 134, which are multispectral images, can be obtained.
  • the interference cancellation matrix B + which has fewer components than the interference cancellation matrix A + used in the storage process, is used, so that the polarization component removal unit 104 (see FIG. 9) and the wavelength information corresponding to the component related to the transmission wavelength band ⁇ removed by the wavelength component deletion section 108 (see FIG. 9). I am drawn to it. As a result, the amount of information to be processed for the imaged data 120 is reduced in the display process compared to the storage process.
  • the display process may be performed as follows.
  • the interference cancellation process is performed on the output values Y of all physical pixels 58 using the interference cancellation matrix A + used in the storage process.
  • a first image 140 corresponding to the first transmission wavelength band ⁇ 1 a second image 142 corresponding to the second transmission wavelength band ⁇ 2 , and a third image 144 corresponding to the third transmission wavelength band ⁇ 3 are obtained. It will be done.
  • image pixels are thinned out for the first image 140, the second image 142, and the third image 144. For example, image pixels are thinned out at equal intervals.
  • a multispectral image is generated by combining the first image 140, second image 142, and third image 144 formed by the extracted image pixels.
  • the interference cancellation process is performed on the output values Y of all the physical pixels 58 using the interference cancellation matrix B + , which has fewer components than the interference cancellation matrix A + used in the storage process.
  • image pixels may be thinned out for the first image 140, second image 142, and third image 144 obtained by the interference removal process. Then, a multispectral image may be generated by combining the first image 140, second image 142, and third image 144 formed by the extracted image pixels. Even in such an example, the display processing can reduce the amount of information processed for the imaged data 120 compared to the storage processing.
  • the reception device 34 when the reception device 34 accepts an imaging instruction from a user or the like, display processing and storage processing are performed in parallel. However, if the imaging instruction is not accepted by the reception device 34, the display process is repeatedly executed, and if the imaging instruction is accepted by the reception device 34, the display process is not performed and the storage process is performed. good. That is, display processing and storage processing may be performed selectively. Specifically, display processing and storage processing may be performed on different frames. In this case as well, the load on the processor 70 can be reduced compared to, for example, a case where display processing is performed on the imaged data 120 without reducing the amount of information.
  • the output values Y of all the physical pixels 58 are respectively acquired in the display processing and the storage processing. That is, in display processing and storage processing, read processing is performed on all physical pixels 58, respectively.
  • the physical pixel 58 is You may be drawn.
  • the plurality of physical pixels 58 form the plurality of pixel blocks 60.
  • Each pixel block 60 is formed by a total of nine physical pixels 58, three in each direction.
  • three types of polarizers 62 (namely, polarizer 62A, polarizer 62B, and polarizer 62C) are assigned to nine physical pixels 58.
  • the polarizer 62A is a polarizer whose first polarization angle ⁇ 1 is set to 0°
  • the polarizer 62B is a polarizer whose second polarization angle ⁇ 2 is set to 60°
  • the polarizer 62C is a polarizer whose first polarization angle ⁇ 1 is set to 60°.
  • the third polarization angle ⁇ 3 is set to 120°.
  • the polarizers 62 in each row are arranged in the lateral direction of the photoelectric conversion element 48 in the order of polarizer 62A, polarizer 62B, and polarizer 62C. Further, the plurality of polarizers 62 are arranged such that the leading polarizer 62 of each row is replaced by polarizer 62A, polarizer 62C, and polarizer 62B in this order. Thereby, the plurality of polarizers 62A are arranged in series in the diagonal direction of the photoelectric conversion element 48.
  • the plurality of polarizers 62B are arranged in series in the diagonal direction of the photoelectric conversion element 48, and the plurality of polarizers 62C are also arranged in series in the diagonal direction of the photoelectric conversion element 48.
  • the arrangement of the B filter 64A, G filter 64B, and R filter 64C is the same as that in FIG.
  • three physical pixels 58 that is, physical pixels 58A, physical pixels 58B, and physical pixels 58C
  • the physical pixel 58A is adjacent to the physical pixel 58B and the physical pixel 58C in the vertical and horizontal directions of the photoelectric conversion element 48.
  • the pixel block 60 is an example of a "first pixel block” according to the technology of the present disclosure.
  • the physical pixel 58 is an example of a "first pixel” according to the technology of the present disclosure.
  • three physical pixels 58 selected from nine physical pixels 58 in each pixel block 60 are different from the example shown in FIG. That is, in the example shown in FIG. 17, the physical pixel 58B and the physical pixel 58C, which are located at a distance from the physical pixel 58A, are selected. As a result, the diagonally connected physical pixels 58A, 58B, and 58C of the photoelectric conversion element 48 are selected. Then, in the display process, the output value Y of the selected physical pixel 58 (that is, the physical pixel 58 excluding the thinned out physical pixel 58) is read out.
  • the pixel block 60 is an example of a "first pixel block" according to the technology of the present disclosure.
  • the physical pixel 58 is an example of a "first pixel" according to the technology of the present disclosure.
  • the selected physical pixel 58 is different from the example shown in FIG. That is, in the example shown in FIG. 18, physical pixels 58 corresponding to different types of polarizers 62 in adjacent pixel blocks 60 are selected. Specifically, as the pixel block 60 shifts in the horizontal direction of the photoelectric conversion element 48, the selected physical pixel 58 shifts in the vertical direction of the photoelectric conversion element 48, and the pixel block 60 shifts in the vertical direction of the photoelectric conversion element 48. A physical pixel 58 is selected from each pixel block 60 such that the selected physical pixel 58 is shifted in the lateral direction of the photoelectric conversion element 48 as the photoelectric conversion element 48 is shifted.
  • the pixel block 60 is an example of a "second pixel block” according to the technology of the present disclosure.
  • the physical pixel 58 is an example of a "second pixel” according to the technology of the present disclosure.
  • the selected physical pixel 58 is different from the example shown in FIG. That is, in the example shown in FIG. 19, a plurality of pixel lines 150 are formed by a plurality of pixel blocks 60, and pixel lines 150 are selected from the plurality of pixel lines 150 one by one at intervals. . Then, in the display process, the output value Y of the physical pixel 58 included in the selected pixel line 150 (that is, the pixel line 150 excluding the thinned out pixel line 150) is read out.
  • the pixel block 60 is an example of a "third pixel block" according to the technology of the present disclosure.
  • the pixel line 150 is an example of a "pixel line” according to the technology of the present disclosure.
  • the physical pixel 58 is an example of a "third pixel" according to the technology of the present disclosure.
  • the arrangement of the polarizer 62A, polarizer 62B, and polarizer 62C is different from the example shown in FIG. That is, in the example shown in FIG. 20, the polarizers 62 in each row are arranged in the lateral direction of the photoelectric conversion element 48 in the order of polarizer 62A, polarizer 62B, and polarizer 62C.
  • the polarizer 62 at the top of each row is the same polarizer 62A.
  • the plurality of polarizers 62A are arranged in series in the vertical direction of the photoelectric conversion element 48.
  • the plurality of polarizers 62B are arranged in series in the vertical direction of the photoelectric conversion element 48
  • the plurality of polarizers 62C are also arranged in series in the longitudinal direction of the photoelectric conversion element 48.
  • the arrangement of the B filter 64A, G filter 64B, and R filter 64C is different from the example shown in FIG. That is, in the example shown in FIG. 20, a B filter 64A, a G filter 64B, and an R filter 64C are provided for each row, and the B filter 64A, G filter 64B, and R filter 64C are arranged vertically of the photoelectric conversion element 48.
  • the B filter 64A, the G filter 64B, and the R filter 64C are arranged in this order in the direction.
  • the selected physical pixel 58 is different from the example shown in FIG. 16. That is, in the example shown in FIG. 20, pixel blocks 60 are selected from a plurality of pixel blocks 60 at intervals of one pixel block 60 in the vertical and horizontal directions of the photoelectric conversion element 48. Then, in the display process, the output value Y of the physical pixel 58 included in the selected pixel block 60 (that is, the pixel block 60 excluding the thinned out pixel block 60) is read out.
  • the pixel block 60 is an example of a "fourth pixel block” according to the technology of the present disclosure.
  • the physical pixel 58 is an example of a "fourth pixel" according to the technology of the present disclosure.
  • the arrangement of the B filter 64A, G filter 64B, and R filter 64C is different from the example shown in FIG. That is, in the example shown in FIG. 21, the filters 64 in each row are arranged in the horizontal direction of the photoelectric conversion element 48 in the order of B filter 64A, G filter 64B, and R filter 64C. Further, the plurality of filters 44 are arranged such that the filter 64 at the beginning of each row is replaced by the B filter 64A, the R filter 64C, and the G filter 64B for each row.
  • the output value Y of the physical pixel 58 included in the selected pixel block 60 (that is, the pixel block 60 excluding the thinned out pixel block 60) is read out.
  • the pixel block 60 is an example of a "fourth pixel block” according to the technology of the present disclosure.
  • the physical pixel 58 is an example of a "fourth pixel" according to the technology of the present disclosure.
  • a polarization sub-block is formed by a total of four physical pixels 58, two in each direction.
  • three types of polarizers 62 ie, polarizer 62A, polarizer 62B, and polarizer 62C
  • a filter block is formed by a total of four polarization sub-blocks, two in the vertical direction and two in the horizontal direction.
  • a pixel block 60 is formed by a total of four filter blocks, two filter blocks in the vertical direction and two in the horizontal direction.
  • a B filter 64A, a G filter 64B, and an R filter 64C are assigned to the four filter blocks.
  • pixel blocks 60 are selected from the plurality of pixel blocks 60 at intervals of one pixel block 60 in the vertical and horizontal directions of the photoelectric conversion element 48. Then, in the display process, the output value Y of the physical pixel 58 included in the selected pixel block 60 (that is, the pixel block 60 excluding the thinned out pixel block 60) is read out.
  • the pixel block 60 is an example of a "fourth pixel block” according to the technology of the present disclosure.
  • the physical pixel 58 is an example of a "fourth pixel" according to the technology of the present disclosure.
  • the amount of thinning of the physical pixels 58 for the image sensor 26 is greater in the display processing than in the storage processing, so for example, the amount of thinning of the physical pixels 58 is greater in the display processing and storage processing. Compared to the same case, the load on the processor 70 in display processing can be reduced.
  • the image sensor 26 is an example of the “second image sensor” according to the technology of the present disclosure
  • the display process is an example of the “third process” according to the technology of the present disclosure
  • the storage process is an example of the "fourth process” according to the technology of the present disclosure.
  • the display processing and storage processing are performed by the common processor 70, but the processor 70 may include a processor for display processing and a processor for storage processing.
  • the technology according to the embodiment described above may be applied to types of devices other than the imaging device 10 (hereinafter referred to as "other devices").
  • the other devices may include a sensor other than the image sensor 26 (for example, LiDAR or a distance sensor).
  • display processing and storage processing may be performed on output data output from a sensor other than the image sensor 26.
  • first processing and second processing other than display processing and storage processing may be performed.
  • either one of the first process and the second process does not have to be a process that generates multispectral image data.
  • the information thinned out from the imaged data 120 is polarization information and wavelength information, but information other than polarization information and wavelength information may be used.
  • the amount of information processed on the imaged data 120 is reduced in the display processing than in the storage processing, but other than the thinning processing.
  • the processing may reduce the amount of information processed for the imaged data 120 in the display processing compared to the storage processing.
  • the interference cancellation matrix B + is generated by the imaging device 10, but it may be generated by an external device other than the imaging device 10.
  • a multispectral image generated based on light separated into three transmission wavelength bands ⁇ was described as an example, is just an example, and there may be four or more transmission wavelength bands ⁇ . That is, the imaging device 10 may be a multispectral camera that can image a subject with higher wavelength resolution than a multispectral camera that can image light separated into three transmission wavelength bands ⁇ .
  • processor 70 is illustrated, but instead of the processor 70 or together with the processor 70, at least one other CPU, at least one GPU, and/or at least one TPU may be used. It's okay.
  • the image processing program 80 and the interference cancellation matrix generation program 100 are stored in the NVM 72, but the technology of the present disclosure is not limited to this.
  • the image processing program 80 and/or the interference cancellation matrix generation program 100 may be stored in a portable non-transitory computer-readable storage medium (hereinafter simply referred to as a "non-transitory storage medium") such as an SSD or a USB memory. It may be stored.
  • the image processing program 80 and/or the interference cancellation matrix generation program 100 stored in the non-temporary storage medium may be installed in the computer 32 of the imaging device 10.
  • the image processing program 80 and/or the interference cancellation matrix generation program 100 may be stored in a storage device such as another computer or a server device connected to the imaging device 10 via a network, and the image processing program 80 and/or the interference cancellation matrix generation program 100 may be The image processing program 80 and/or the interference cancellation matrix generation program 100 may be downloaded and installed on the computer 32.
  • the image processing program 80 and/or the interference cancellation matrix generation program 100 may be stored in a storage device such as another computer or server device connected to the imaging device 10, or in the NVM 72; 80 and/or a part of the interference cancellation matrix generation program 100 may be stored.
  • the computer 32 is built into the imaging device 10, the technology of the present disclosure is not limited to this, and for example, the computer 32 may be provided outside the imaging device 10.
  • the computer 32 including the processor 70, the NVM 72, and the RAM 74 is illustrated, but the technology of the present disclosure is not limited to this, and instead of the computer 32, an ASIC, an FPGA, and/or a PLD may be used. You may also apply a device that includes. Further, instead of the computer 32, a combination of hardware configuration and software configuration may be used.
  • processors can be used as hardware resources for executing the various processes described in the above embodiments.
  • the processor include a CPU, which is a general-purpose processor that functions as a hardware resource that executes various processes by executing software, that is, a program.
  • the processor include a dedicated electronic circuit such as an FPGA, a PLD, or an ASIC, which is a processor having a circuit configuration specifically designed to execute a specific process.
  • Each processor has a built-in memory or is connected to it, and each processor uses the memory to perform various processes.
  • Hardware resources that execute various processes may be configured with one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of multiple FPGAs, or a CPU and FPGA). Furthermore, the hardware resource that executes various processes may be one processor.
  • one processor is configured by a combination of one or more CPUs and software, and this processor functions as a hardware resource that executes various processes.
  • a and/or B has the same meaning as “at least one of A and B.” That is, “A and/or B” means that it may be only A, only B, or a combination of A and B. Furthermore, in this specification, even when three or more items are expressed by connecting them with “and/or”, the same concept as “A and/or B" is applied.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

情報処理装置は、プロセッサを備える。プロセッサは、センサからの出力データに対して、マルチスペクトル画像データに関連する第1処理及び第2処理を行い、第1処理は、第2処理よりも出力データに対して情報の量を低減する低減処理を含む。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示の技術は、情報処理装置、情報処理方法、及びプログラムに関する。
 特開2012-044519号公報には、互いに異なる分光感度特性を有する4以上の色のカラーセンサを構成する画素を備えるデジタルカメラが開示されている。デジタルカメラは、第1の信号読み出し時間で第1の情報量の画像信号を読み出す第1の信号読み出しモードと、第1の読み出し時間よりも短い第2の読み出し時間で第1の情報量よりも少ない第2の情報量の画像信号を読み出す第2の信号読み出しモードとのいずれかで動作可能なマルチスペクトル撮像素子を備える。マルチスペクトル撮像素子は、第1の信号読み出しモード時には4以上の色のカラーセンサを構成する画素から読み出される4以上の色全部に対応する色数の画像信号を出力する一方、第2の信号読み出しモード時には、第1の信号読み出しモード時よりも少ない色数の画像信号であって、第1の信号読み出しモードで読み出される画像信号によって再現可能な色域よりも狭められた色域を形成する画像信号を出力する。
 特開2021-136501号公報には、撮像手段と、演算手段と、画像生成手段と、制御手段とを備える撮像装置が開示されている。撮像手段は、複数の異なる方向の偏光情報を検出する偏光画素を備える。演算手段は、偏光画素から出力される映像信号に対する、第1の偏光演算又は第1の偏光演算よりも演算負荷の小さい第2の偏光演算により、偏光画素の偏光情報を求める。画像生成手段は、演算手段により求められた偏光情報を用いて偏光処理画像を生成する。制御手段は、所定のタイミング、モード又は所定の状態を検出した結果に応じて、演算手段で行う第1の偏光演算と第2の偏光演算とを切り替える。
 特表2008-525158号公報には、ハイパースペクトルまたはマルチスペクトルイメージングにおいて使用するショックデータを取得する装置が開示されている。装置は、検出器と、フィルタまたはフィルタを備えない波長セレクタと、電源と、画像取得ハードウェアとのうちの少なくとも1つを備えている。
 本開示の技術に係る一つの実施形態は、出力データに対して情報の量が低減されずに第1処理が行われる場合に比して、プロセッサの負荷を軽減することができる情報処理装置、情報処理方法、及びプログラムを提供する。
 本開示の技術に係る第1の態様は、プロセッサを備え、プロセッサは、センサからの出力データに対して、マルチスペクトル画像データに関連する第1処理及び第2処理を行い、第1処理は、第2処理よりも出力データに対して情報の量を低減する低減処理を含む情報処理装置である。
 本開示の技術に係る第2の態様は、第1の態様に係る情報処理装置において、低減処理は、出力データに対して情報を間引く間引き処理を含む情報処理装置である。
 本開示の技術に係る第3の態様は、第1の態様又は第2の態様に係る情報処理装置において、センサは、第1イメージセンサであり、出力データは、第1イメージセンサから出力された撮像データである情報処理装置である。
 本開示の技術に係る第4の態様は、第3の態様に係る情報処理装置において、撮像データは、第1イメージセンサから電気信号を低減せずに出力されたデータである情報処理装置である。
 本開示の技術に係る第5の態様は、第3の態様又は第4の態様に係る情報処理装置において、情報は、撮像データに含まれる偏光情報を含む情報処理装置である。
 本開示の技術に係る第6の態様は、第3の態様から第5の態様の何れか一つの態様に係る情報処理装置において、情報は、撮像データに含まれる波長情報を含む情報処理装置である。
 本開示の技術に係る第7の態様は、第1の態様から第6の態様の何れか一つの態様に係る情報処理装置において、低減処理は、第1行列を用いた演算処理を含み、演算処理は、第1行列の条件数に基づいて行われる情報処理装置である。
 本開示の技術に係る第8の態様は、第7の態様に係る情報処理装置において、プロセッサは、出力データとマルチスペクトル画像データとの関係を示す第2行列から情報に対応する成分を削除することにより第3行列を生成し、第1行列は、第3行列の逆行列に基づいて生成される情報処理装置である。
 本開示の技術に係る第9の態様は、第1の態様から第8の態様の何れか一つの態様に係る情報処理装置において、第1処理は、出力データに基づいて表示用画像データを生成する表示処理であり、第2処理は、出力データに基づいて保存用画像データを生成する保存処理である情報処理装置である。
 本開示の技術に係る第10の態様は、第9の態様に係る情報処理装置において、表示処理及び保存処理は、並列して行われる情報処理装置である。
 本開示の技術に係る第11の態様は、第9の態様に係る情報処理装置において、表示処理及び保存処理は、選択的に行われる情報処理装置である。
 本開示の技術に係る第12の態様は、第1の態様から第11の態様の何れか一つの態様に係る情報処理装置において、第1処理及び/又は第2処理は、出力データに基づいてマルチスペクトル画像データを生成する処理である情報処理装置である。
 本開示の技術に係る第13の態様は、第1の態様から第12の態様の何れか一つの態様に係る情報処理装置において、センサは、第2イメージセンサであり、プロセッサは、第2イメージセンサからの読み出し処理である第3処理及び第4処理を選択的に行い、第3処理は、第4処理よりも第2イメージセンサに対して画素の間引き量が多い情報処理装置である。
 本開示の技術に係る第14の態様は、第13の態様に係る情報処理装置において、第2イメージセンサは、複数の第1画素ブロックを有し、各第1画素ブロックは、複数の第1画素によって形成され、複数の第1画素には、複数の種類の偏光子が割り当てられており、第3処理は、各第1画素ブロックで、複数の第1画素から各偏光子に対応する第1画素を選択する処理を含む情報処理装置である。
 本開示の技術に係る第15の態様は、第13の態様に係る情報処理装置において、第2イメージセンサは、複数の第2画素ブロックを有し、各第2画素ブロックは、複数の第2画素によって形成され、複数の第2画素には、複数の種類の偏光子が割り当てられており、第3処理は、隣接する第2画素ブロックで異なる種類の偏光子に対応する第2画素を複数の第2画素から選択する処理を含む情報処理装置である。
 本開示の技術に係る第16の態様は、第13の態様に係る情報処理装置において、第2イメージセンサは、複数の第3画素ブロックを有し、各第3画素ブロックは、複数の第3画素によって形成され、複数の第3画素には、複数の種類の偏光子が割り当てられており、第3処理は、複数の第3画素ブロックによって形成される複数行の画素ラインから行間隔を空けて画素ラインを選択する処理を含む情報処理装置である。
 本開示の技術に係る第17の態様は、第13の態様に係る情報処理装置において、第2イメージセンサは、複数の第4画素ブロックを有し、各第4画素ブロックは、複数の第4画素によって形成され、複数の第4画素には、複数の種類の偏光子が割り当てられており、第3処理は、複数の第4画素ブロックから間隔を空けて第4画素ブロックを選択する処理を含む情報処理装置である。
 本開示の技術に係る第18の態様は、センサからの出力データに対して、マルチスペクトル画像データに関連する第1処理及び第2処理を行うことを備え、第1処理は、第2処理よりも出力データに対して情報の量を低減する低減処理を含む情報処理方法である。
 本開示の技術に係る第19の態様は、特定処理をコンピュータに実行させるためのプログラムであって、特定処理は、センサからの出力データに対して、マルチスペクトル画像データに関連する第1処理及び第2処理を行うことを備え、第1処理は、第2処理よりも出力データに対して情報の量を低減する低減処理を含むプログラムである。
実施形態に係る撮像装置の一例を示す斜視図である。 実施形態に係るレンズ装置及び撮像装置ボディの一例を示す分解側面図である。 実施形態に係る撮像装置のハードウェア構成の一例を示すブロック図である。 実施形態に係る光電変換素子の一例を示す分解斜視図である。 実施形態に係る画像処理を実現するための機能的な構成の一例を示すブロック図である。 実施形態に係る第2出力値取得部及び第2混信除去処理部の動作の一例を示すブロック図である。 実施形態に係る第2混信除去処理部及び第2画像データ生成部の動作の一例を示すブロック図である。 実施形態に係る混信除去行列生成処理を実現するための機能的な構成の一例を示すブロック図である。 実施形態に係る波長設定部、偏光成分削除部、逆行列導出部、波長成分削除部、条件数導出部、及び混信除去行列決定部の動作の一例を示すブロック図である。 実施形態に係る第1出力値取得部及び第1混信除去処理部の動作の一例を示すブロック図である。 実施形態に係る第1混信除去処理部及び第2画像データ生成部の動作の一例を示すブロック図である。 実施形態に係る表示処理の流れの一例を示すフローチャートである。 実施形態に係る保存処理の流れの一例を示すフローチャートである。 実施形態に係る混信除去行列生成処理の流れの一例を示すフローチャートである。 実施形態に係る表示処理の変形例を示す説明図である。 実施形態に係る読み出し処理の第1変形例を示す説明図である。 実施形態に係る読み出し処理の第2変形例を示す説明図である。 実施形態に係る読み出し処理の第3変形例を示す説明図である。 実施形態に係る読み出し処理の第4変形例を示す説明図である。 実施形態に係る読み出し処理の第5変形例を示す説明図である。 実施形態に係る読み出し処理の第6変形例を示す説明図である。 実施形態に係る読み出し処理の第7変形例を示す説明図である。
 以下、添付図面に従って本開示の技術に係る情報処理装置、情報処理方法、及びプログラムの実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
 I/Fとは、“Interface”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。NVMとは、“Non-Volatile Memory”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。CPUとは、“Central Processing Unit”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。LiDARとは、“Light Detection and Ranging”の略称を指す。TPUとは、“Tensor processing unit”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。ICとは、“Integrated Circuit”の略称を指す。
 本明細書の説明において、「同じ」とは、完全な同じの他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの同じを指す。本明細書の説明において、「直交」とは、完全な直交の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの直交を指す。本明細書の説明において、「直線」とは、完全な直線の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの直線を指す。
 一例として図1に示すように、撮像装置10は、マルチスペクトル画像を出力可能なマルチスペクトルカメラであり、レンズ装置12と、撮像装置ボディ14とを備える。撮像装置10は、本開示の技術に係る「情報処理装置」の一例である。
 一例として図2に示すように、レンズ装置12は、第1マウント16を有し、撮像装置ボディ14は、第2マウント18を有する。第1マウント16及び第2マウント18は、それぞれCマウントであり、円環状に形成されている。第1マウント16は、レンズ装置12の光軸OAと同軸上に設けられている。第1マウント16の外周面には、ネジ20が形成されており、第2マウント18の内側には、ネジ穴22が形成されている。
 ネジ20がネジ穴22に螺合されることにより、第1マウント16が第2マウント18に取り付けられる。レンズ装置12は、第1マウント16が第2マウント18に取り付けられることにより、撮像装置ボディ14に取り付けられる。なお、第1マウント16の内側にネジ穴22が形成され、第2マウント18の外周面にネジ20が形成されてもよい。
 一例として図3に示すように、レンズ装置12は、光学系24を備える。撮像装置ボディ14は、イメージセンサ26、制御ドライバ28、入出力I/F30、コンピュータ32、受付装置34、及びディスプレイ36を備える。
 光学系24は、第1レンズ38、瞳分割フィルタ40、及び第2レンズ42を有する。第1レンズ38、瞳分割フィルタ40、及び第2レンズ42は、被写体4側からイメージセンサ26側にかけて、光軸OAに沿って第1レンズ38、瞳分割フィルタ40、及び第2レンズ42の順に配置されている。第1レンズ38は、光源2から発せられた光が被写体4で反射することで得られた光(以下、「被写体光」と称する)を瞳分割フィルタ40に透過させる。第2レンズ42は、瞳分割フィルタ40を透過した被写体光をイメージセンサ26に設けられた光電変換素子48の受光面48A上に結像させる。
 瞳分割フィルタ40は、フィルタ44A、フィルタ44B、フィルタ44C、偏光子46A、偏光子46B、及び偏光子46Cを有する。図3では、便宜上、フィルタ44A、フィルタ44B、及びフィルタ44Cが光軸OAと直交する方向に沿って直線状に配列された状態で示されているが、フィルタ44A、フィルタ44B、及びフィルタ44Cは、光軸OA周りの方向に沿って配列されている。
 フィルタ44Aは、第1透過波長帯域λを有し、フィルタ44Bは、第2透過波長帯域λを有し、フィルタ44Cは、第3透過波長帯域λを有する。第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λは、互いに異なる波長帯域である。第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λは、それぞれ任意の帯域に設定されてもよい。以下、フィルタ44A、フィルタ44B、及びフィルタ44Cを区別して説明する必要が無い場合には、フィルタ44A、フィルタ44B、及びフィルタ44Cを「フィルタ44」と称する。また、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λを区別して説明する必要が無い場合には、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λを「透過波長帯域λ」と称する。
 偏光子46A、偏光子46B、及び偏光子46Cは、フィルタ44A、フィルタ44B、及びフィルタ44Cとそれぞれ重ね合わされている。偏光子46Aは、透過軸の角度が0°に設定された偏光子である。偏光子46Bは、透過軸の角度が60°に設定された偏光子である。偏光子46Cは、透過軸の角度が120°に設定された偏光子である。以下、偏光子46A、偏光子46B、及び偏光子46Cを区別して説明する必要がない場合には、偏光子46A、偏光子46B、及び偏光子46Cをそれぞれ「偏光子46」と称する。
 なお、図3に示される例では、フィルタ44の個数が3個であるが、フィルタ44の個数は何個でもよい。また、図3に示される例では、偏光子46の個数が3個であるが、偏光子46の個数は何個でもよい。
 一例として図3に示すように、イメージセンサ26は、光電変換素子48及び信号処理回路50を備えている。イメージセンサ26は、一例として、CMOSイメージセンサである。本実施形態では、イメージセンサ26としてCMOSイメージセンサが例示されているが、本開示の技術はこれに限定されず、例えば、イメージセンサ26がCCDイメージセンサ等の他種類のイメージセンサであっても本開示の技術は成立する。イメージセンサ26は、本開示の技術に係る「センサ」及び「第1イメージセンサ」の一例である。
 一例として図3中には、光電変換素子48の模式的な構成が示されている。また、一例として図4には、光電変換素子48の一部の構成が具体的に示されている。光電変換素子48は、画素層52、偏光フィルタ層54、及び分光フィルタ層56を有する。
 画素層52は、複数の画素58を有する。複数の画素58は、マトリクス状に配置されており、光電変換素子48の受光面48Aを形成している。各画素58は、フォトダイオード(図示省略)を有する物理的な画素であり、受光した光を光電変換し、受光量に応じた電気信号を出力する。
 以下、マルチスペクトル画像を形成する画素と区別するために、光電変換素子48に設けられた画素58を「物理画素58」と称する。また、マルチスペクトル画像を形成する画素を「画像画素」と称する。物理画素58は、本開示の技術に係る「画素」の一例である。
 光電変換素子48は、複数の物理画素58から出力された電気信号を撮像データ120として信号処理回路50に対して出力する。信号処理回路50は、光電変換素子48から入力されたアナログの撮像データ120をデジタル化する。撮像データ120は、一例として、光電変換素子48の全物理画素58から出力されたデータである。
 全物理画素58とは、電気信号を出力可能な全ての物理画素58を指す。具体的には、全物理画素58とは、受光面48Aの全領域に含まれる複数の物理画素58のうちの無効画素を除く残りの物理画素58、又は、受光面48Aのうちの有効領域に含まれる複数の物理画素58である。すなわち、撮像データ120は、電気信号を出力可能な全ての物理画素58に対して物理画素58の間引き処理が行われずに出力されたデータであって、光電変換素子48から電気信号を低減せずに出力されたデータである。撮像データ120は、本開示の技術に係る「出力データ」及び「撮像データ」の一例である。
 複数の物理画素58は、複数の画素ブロック60を形成している。各画素ブロック60は、縦横2個ずつの合計4個の物理画素58によって形成されている。図3では、便宜上、各画素ブロック60を形成する4個の物理画素58が光軸OAと直交する方向に沿って直線状に配列された状態で示されているが、一例として図4に示すように、4個の物理画素58は、光電変換素子48の縦方向及び横方向にそれぞれ隣接して配置されている。
 偏光フィルタ層54は、偏光子62A、偏光子62B、偏光子62C、及び偏光子62Dを有する。偏光子62Aは、透過軸の角度θ(以下、「第1偏光角度θ」と称する)が0°に設定された偏光子である。偏光子62Bは、透過軸の角度θ(以下、「第2偏光角度θ」と称する)が45°に設定された偏光子である。偏光子62Cは、透過軸の角度θ(以下、「第3偏光角度θ」と称する)が90°に設定された偏光子である。偏光子62Dは、透過軸の角度θ(以下、「第4偏光角度θ」と称する)が135°に設定された偏光子である。
 以下、偏光子62A、偏光子62B、偏光子62C、及び偏光子62Dを区別して説明する必要が無い場合には、偏光子62A、偏光子62B、偏光子62C、及び偏光子62Dを「偏光子62」と称する。また、第1偏光角度θ、第2偏光角度θ、第3偏光角度θ、及び第4偏光角度θを区別して説明する必要が無い場合には、第1偏光角度θ、第2偏光角度θ、第3偏光角度θ、及び第4偏光角度θを「偏光角度θ」と称する。
 分光フィルタ層56は、Bフィルタ64A、Gフィルタ64B、及びRフィルタ64Cを有する。Bフィルタ64Aは、複数の波長帯域の光のうちの青色の波長帯域の光を最も多く透過させる青色帯域フィルタである。Gフィルタ64Bは、複数の波長帯域の光のうちの緑色の波長帯域の光を最も多く透過させる緑色帯域フィルタである。Rフィルタ64Cは、複数の波長帯域の光のうちの赤色の波長帯域の光を最も多く透過させる赤色帯域フィルタである。Bフィルタ64A、Gフィルタ64B、及びRフィルタ64Cは、各画素ブロック60に割り当てられている。
 図3では、便宜上、Bフィルタ64A、Gフィルタ64B、及びRフィルタ64Cが光軸OAと直交する方向に沿って直線状に配列された状態で示されているが、一例として図4に示すように、Bフィルタ64A、Gフィルタ64B、及びRフィルタ64Cは既定のパターン配列でマトリクス状に配置されている。図4に示す例では、Bフィルタ64A、Gフィルタ64B、及びRフィルタ64Cは、既定のパターン配列の一例として、ベイヤ配列でマトリクス状に配置されている。なお、既定のパターン配列は、ベイヤ配列以外に、RGBストライプ配列、R/G市松配列、X-Trans(登録商標)配列、又はハニカム配列等でもよい。
 以下、Bフィルタ64A、Gフィルタ64B、及びRフィルタ64Cを区別して説明する必要がない場合には、Bフィルタ64A、Gフィルタ64B、及びRフィルタ64Cをそれぞれ「フィルタ64」と称する。
 一例として図3に示すように、入出力I/F30には、信号処理回路50、制御ドライバ28、コンピュータ32、受付装置34、及びディスプレイ36が接続されている。
 コンピュータ32は、プロセッサ70、NVM72、及びRAM74を有する。プロセッサ70は、本開示の技術に係る「プロセッサ」の一例である。プロセッサ70は、撮像装置10の全体を制御する。プロセッサ70は、例えば、CPU及びGPUを含む演算処理装置であり、GPUは、CPUの制御下で動作し、画像に関する処理の実行を担う。ここでは、プロセッサ70の一例としてCPU及びGPUを含む演算処理装置を挙げているが、これはあくまでも一例に過ぎず、プロセッサ70は、GPU機能を統合した1つ以上のCPUであってもよいし、GPU機能を統合していない1つ以上のCPUであってもよい。プロセッサ70、NVM72、及びRAM74は、バス76を介して接続されており、バス76は、入出力I/F30に接続されている。
 NVM72は、非一時的記憶媒体であり、各種パラメータ及び各種プログラムを記憶している。例えば、NVM72は、フラッシュメモリ(例えば、EEPROM)である。但し、これは、あくまでも一例に過ぎず、フラッシュメモリと共に、HDD等をNVM72として適用してもよい。RAM74は、各種情報を一時的に記憶し、ワークメモリとして用いられる。
 プロセッサ70は、NVM72から必要なプログラムを読み出し、読み出したプログラムをRAM74で実行する。プロセッサ70は、RAM74で実行するプログラムに従って、制御ドライバ28及び信号処理回路50を制御する。制御ドライバ28は、プロセッサ70の制御下で光電変換素子48を制御する。
 受付装置34は、例えば、レリーズボタン、タッチパネル、及びハードキー(いずれも図示省略)等を有しており、ユーザ等からの指示を受け付ける。ディスプレイ36は、例えば液晶表示器であり、マルチスペクトル画像を含む各種画像を表示する。
 一例として図5に示すように、NVM72には、画像処理プログラム80が記憶されている。画像処理プログラム80は、本開示の技術に係る「プログラム」の一例である。プロセッサ70は、NVM72から画像処理プログラム80を読み出し、読み出した画像処理プログラム80をRAM74上で実行する。プロセッサ70は、RAM74上で実行する画像処理プログラム80に従って、画像処理を実行する。画像処理は、本開示の技術に係る「特定処理」の一例である。画像処理は、表示処理と、保存処理とを有する。
 表示処理及び保存処理は、撮像データ120に対して行われる処理である。具体的には、表示処理は、撮像データ120に基づいて既定のフレームレートで表示用画像データ122(すなわち、ライブビュー画像データ)を生成する処理である。既定のフレームレートは、例えば、30fps又は60fpsである。保存処理は、ユーザ等からの撮像指示が受付装置34(図3参照)によって受け付けられた場合に、撮像データ120に基づいて保存用画像データ124(すなわち、本露光画像データ)を生成する処理である。表示用画像データ122は、本開示の技術に係る「表示用画像データ」の一例であり、保存用画像データ124は、本開示の技術に係る「保存用画像データ」の一例である。
 表示用画像データ122及び保存用画像データ124は、いずれもマルチスペクトル画像データであり、表示処理及び保存処理は、いずれもマルチスペクトル画像データに関連する処理である。ユーザ等からの撮像指示が受付装置34によって受け付けられた場合に、保存処理は、表示処理と並列して行われる。例えば、表示処理及び保存処理は、同じフレームに対して行われる。表示処理は、本開示の技術に係る「第1処理」の一例であり、保存処理は、本開示の技術に係る「第2処理」の一例である。
 表示処理は、プロセッサ70が画像処理プログラム80に従って、第1出力値取得部82、第1混信除去処理部84、及び第1画像データ生成部86として動作することで実現される。
 保存処理は、プロセッサ70が画像処理プログラム80に従って、第2出力値取得部92、第2混信除去処理部94、及び第2画像データ生成部96として動作することで実現される。
 先ず、表示処理を説明する前に、保存処理を説明する。
 一例として図6に示すように、保存処理では、第2出力値取得部92は、イメージセンサ26からプロセッサ70に入力された撮像データ120に基づいて、全物理画素58の出力値Yをそれぞれ取得する。各物理画素58の出力値Yは、撮像データ120によって示される撮像画像に含まれる各画素の輝度値に対応する。
 ここで、各物理画素58の出力値Yは、混信(すなわち、クロストーク)が含まれた値である。すなわち、各物理画素58には、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λの各透過波長帯域λの光が入射するため、出力値Yは、第1透過波長帯域λの光量に応じた値、第2透過波長帯域λの光量に応じた値、及び第3透過波長帯域λの光量に応じた値が混合した値となる。
 保存用のマルチスペクトル画像である保存用画像134(図7参照)を取得するためには、プロセッサ70が、物理画素58毎に、出力値Yから各透過波長帯域λに対応した値を分離して抽出する処理、すなわち、混信を除去する処理である混信除去処理を出力値Yに対して行う必要がある。そこで、本実施形態では、第2混信除去処理部94は、第2出力値取得部92によって取得された全物理画素58の出力値Yに対して混信除去処理をそれぞれ実行する。
 ここで、保存用画像134を得るための混信除去処理について説明する。各物理画素58の出力値Yは、赤色、緑色、及び青色の各輝度値を出力値Yの成分として含む。各物理画素58の出力値Yは、式(1)によって表される。ただし、Yは、出力値Yのうちの赤色の輝度値であり、Yは、出力値Yのうちの緑色の輝度値であり、Yは、出力値Yのうちの青色の輝度値である。
 保存用画像134を形成する各画像画素の画素値Xは、第1透過波長帯域λの光の輝度値、第2透過波長帯域λの光の輝度値、及び第3透過波長帯域λの光の輝度値を画素値Xの成分として含む。各画像画素の画素値Xは、式(2)によって表される。ただし、輝度値Xλ1は、画素値Xのうちの第1透過波長帯域λの光の輝度値であり、輝度値Xλ2は、画素値Xのうちの第2透過波長帯域λの光の輝度値であり、輝度値Xλ3は、画素値Xのうちの第3透過波長帯域λの光の輝度値である。
 混信行列をAとした場合、各物理画素58の出力値Yは、式(3)によって表される。
 混信行列Aは、被写体光のスペクトル、第1レンズ38の分光透過率、第2レンズ42の分光透過率、複数のフィルタ44の分光透過率、及びイメージセンサ26の分光感度に基づいて規定される行列である。
 混信行列Aの一般逆行列である混信除去行列をAとした場合、各画像画素の画素値Xは、式(4)によって表される。
 混信除去行列Aも、混信行列Aと同様に、被写体光のスペクトル、第1レンズ38の分光透過率、第2レンズ42の分光透過率、複数のフィルタ44の分光透過率、及びイメージセンサ26の分光感度に基づいて規定される行列である。混信除去行列Aは、ユーザ等によって設定され、NVM72に予め記憶される。
 第2混信除去処理部94は、NVM72に記憶されている混信除去行列Aと、第2出力値取得部92によって取得された全物理画素58の出力値Yとを取得し、取得した混信除去行列Aと全物理画素58の出力値Yとに基づいて、式(4)により、各画像画素の画素値Xを出力する。
 ここで、上述の通り、各画像画素の画素値Xは、第1透過波長帯域λの光の輝度値Xλ1、第2透過波長帯域λの光の輝度値Xλ2、及び第3透過波長帯域λの光の輝度値Xλ3を画素値Xの成分として含む。第1透過波長帯域λの光の輝度値Xλ1は、撮像データ120のうちの第1画像データによって示される。第2透過波長帯域λの光の輝度値Xλ2は、撮像データ120のうちの第2画像データによって示される。第3透過波長帯域λの光の輝度値Xλ3は、撮像データ120のうちの第3画像データによって示される。
 このように、第2混信除去処理部94によって混信除去処理が行われることにより、撮像データ120が、第1透過波長帯域λの光の輝度値Xλ1を示す画像データである第1画像データと、第2透過波長帯域λの光の輝度値Xλ2を示す画像データである第2画像データと、第3透過波長帯域λの光の輝度値Xλ3を示す画像データである第3画像データとに分離される。すなわち、撮像データ120が、複数のフィルタ44の透過波長帯域毎の画像データに分離される。
 一例として図7に示すように、第2画像データ生成部96は、第2混信除去処理部94によって混信除去処理が行われることにより生成された第1画像データ、第2画像データ、及び第3画像データを合成することにより、保存用画像データ124を生成する。保存用画像データ124は、マルチスペクトル画像である保存用画像134を示す画像データである。保存用画像データ124は、NVM72に記憶される。
 このように、保存処理では、全物理画素58の出力値Yに対して混信除去行列Aを用いた混信除去処理が行われることにより、マルチスペクトル画像が得られる。
 ここで、保存処理と並列して行われる表示処理においても、保存処理と同様の処理を行うことにより、マルチスペクトル画像を得ることが考えられる。すなわち、表示処理において、全物理画素58の出力値Yに対して混信除去処理が行われることにより、マルチスペクトル画像を得ることが考えられる。しかしながら、保存処理と並列して行われる表示処理においても、全物理画素58の出力値Yに対して混信除去処理が行われると、プロセッサ70の負担が増加する。
 そこで、プロセッサ70の負担の増加を抑えるために、全物理画素58に対して間引き処理、すなわち、全物理画素58の数よりも少ない数の物理画素58から読み出し処理を行うことが考えらえる。しかしながら、全物理画素58に対して間引き処理を行う場合、表示処理と並列して行われる保存処理では、全物理画素58の出力値Yに対して混信除去処理が行われることにより得られたマルチスペクトル画像よりも解像度の低いマルチスペクトル画像が得られることになる。したがって、保存処理においてマルチスペクトル画像の解像度が低下することを回避するためには、表示処理とは別に保存処理を行う必要性が生じる。
 本実施形態では、上記事情に鑑み、プロセッサ70の負担の増加を抑えつつ、表示処理を保存処理と並列して行えるようにするために、表示処理が次の要領で行われる。
 先ず、表示処理で用いられる混信除去行列Bについて説明する。
 一例として図8に示すように、NVM72には、混信除去行列生成プログラム100が記憶されている。プロセッサ70は、NVM72から混信除去行列生成プログラム100を読み出し、読み出した混信除去行列生成プログラム100をRAM74上で実行する。プロセッサ70は、RAM74上で実行する混信除去行列生成プログラム100に従って、混信除去行列Bを生成するための混信除去行列生成処理を実行する。
 混信除去行列生成処理は、プロセッサ70が混信除去行列生成プログラム100に従って、波長設定部102、偏光成分削除部104、逆行列導出部106、波長成分削除部108、条件数導出部110、及び混信除去行列決定部112として動作することで実現される。
 一例として図9に示すように、ユーザ等は、複数の波長から表示用画像132(図11参照)を生成するために使用する波長を選択する指示(以下、「波長選択指示」と称する)を受付装置34に対して付与する。受付装置34は、波長選択指示を受け付けた場合、波長選択指示を示す波長選択指示信号をプロセッサ70に対して出力する。
 波長設定部102は、プロセッサ70に入力された波長選択指示信号に基づいて、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λから、表示用画像132を生成するために使用する透過波長帯域λを設定する。
 NVM72には、ユーザ等によって取得された混信行列Aが予め記憶される。混信行列Aは、一例として、上述の4種類の偏光子62及び3種類のフィルタ44(図3参照)に対応して、行数が4個で列数が3個の行列である。つまり、混信行列Aは、成分a11~a13、成分a21~a23、成分a31~a33、及び成分a41~a43を有する。混信行列の行方向は、偏光子62の偏光角度θを示しており、混信行列の列方向は、フィルタ44の透過波長帯域λを示している。
 混信行列Aにおいて、1行目は、偏光子62Aの偏光角度θに関する成分を示し、2行目は、偏光子62Bの偏光角度θに関する成分を示し、3行目は、偏光子62Cの偏光角度θに関する成分を示し、4行目は、偏光子62Dの偏光角度θに関する成分を示す。また、混信行列Aにおいて、1列目は、フィルタ44Aの第1透過波長帯域λに関する成分を示し、2列目は、フィルタ44Bの第2透過波長帯域λに関する成分を示し、3列目は、フィルタ44Cの第3透過波長帯域λに関する成分を示す。
 偏光成分削除部104は、NVM72に記憶されている混信行列Aに基づいて、第1の混信行列A、第2の混信行列A、第3の混信行列A、及び第4の混信行列Aを生成する。第1の混信行列Aは、偏光子62Aの偏光角度θに関する成分を混信行列Aから削除した行列である。第2の混信行列Aは、偏光子62Bの偏光角度θに関する成分を混信行列Aから削除した行列である第3の混信行列Aは、偏光子62Cの偏光角度θに関する成分を混信行列Aから削除した行列である。第4の混信行列Aは、偏光子62Dの偏光角度θに関する成分を混信行列Aから削除した行列である。
 逆行列導出部106は、第1の混信行列Aの逆行列である第1の逆行列A と、第2の混信行列Aの逆行列である第2の逆行列A と、第3の混信行列Aの逆行列である第3の逆行列A と、第4の混信行列Aの逆行列である第4の逆行列A とを導出する。第1の逆行列A ~第4の逆行列A は、いずれも行数が3個で列数が3個の行列である。つまり、逆行列A は、成分b11~b13、成分b21~b23、及び成分b31~b33を有する。逆行列A は、成分c11~c13、成分c21~c23、及び成分c31~c33を有する。逆行列A は、成分d11~d13、成分d21~d23、及び成分d31~d33を有する。逆行列A は、成分e11~e13、成分e21~e23、及び成分e31~e33を有する。混信行列の行方向は、フィルタ44の透過波長帯域λを示しており、混信行列の列方向は、偏光子62の偏光角度θを示している。
 波長成分削除部108は、波長設定部102によって設定された透過波長帯域λを除く残りの透過波長帯域λに関する成分を、第1の逆行列A 、第2の逆行列A 、第3の逆行列A 、及び第4の逆行列A からそれぞれ削除する。図9に示す例では、第2透過波長帯域λ及び第3透過波長帯域λが表示用画像132を生成するために使用される透過波長帯域として波長設定部102によって設定されている。第1の逆行列A 、第2の逆行列A 、第3の逆行列A 、及び第4の逆行列A からは、第1透過波長帯域λに関する成分(すなわち、1行目の成分)が削除されている。
 第1の逆行列A から第1透過波長帯域λに関する成分が削除されることにより、第1の混信除去行列B が生成される。第2の逆行列A から第1透過波長帯域λに関する成分が削除されることにより、第2の混信除去行列B が生成される。第3の逆行列A から第1透過波長帯域λに関する成分が削除されることにより、第3の混信除去行列B が生成される。第4の逆行列A から第1透過波長帯域λに関する成分が削除されることにより、第4の混信除去行列B が生成される。第1の混信除去行列B ~第4の混信除去行列B は、いずれも行数が2個で列数が3個の行列である。
 条件数導出部110は、第1の混信除去行列B の条件数と、第2の混信除去行列B の条件数と、第3の混信除去行列B の条件数と、第4の混信除去行列B の条件数とを導出する。
 なお、各条件数は、撮像装置ボディ14に対するレンズ装置12の取付角度が変化することに伴って、瞳分割フィルタ40の各偏光子46とイメージセンサ26の各偏光子62との相対角度が変化することにより変動する。撮像装置ボディ14に対するレンズ装置12の取付角度は、ネジ20及び/又はネジ穴22の製造誤差に起因して撮像装置10毎にばらつく場合がある。
 混信除去行列決定部112は、第1の混信除去行列B 、第2の混信除去行列B 、第3の混信除去行列B 、及び第4の混信除去行列B から、条件数が最も小さい混信除去行列を抽出する。そして、混信除去行列決定部112は、抽出した混信除去行列を、表示用画像132を生成するために使用する混信除去行列Bとして決定する。混信除去行列Bは、NVM72に記憶される。
 混信除去行列Bは、混信行列Aから混信除去行列Bが生成される過程で、偏光子62の偏光角度θに関する成分と、フィルタ44の透過波長帯域λに関する成分とが削除されることにより、混信除去行列Aよりも成分(すなわち、行数)が少なくなっている。
 混信除去行列Bは、本開示の技術に係る「第1行列」の一例である。条件数は、本開示の技術に係る「条件数」の一例である。混信行列Aは、本開示の技術に係る「第2行列」の一例である。第1の混信行列A、第2の混信行列A、第3の混信行列A、及び第4の混信行列Aは、本開示の技術に係る「第3行列」の一例である。
 なお、図9に示す例では、第1の逆行列A 、第2の逆行列A 、第3の逆行列A 、及び第4の逆行列A から、第1透過波長帯域λに関する成分(すなわち、1行目の成分)が削除されるが、これは、あくまでも一例に過ぎない。例えば、第1の逆行列A 、第2の逆行列A 、第3の逆行列A 、及び第4の逆行列A から、第2透過波長帯域λに関する成分(すなわち、2行目の成分)が削除されてもよく、第3透過波長帯域λに関する成分(すなわち、3行目の成分)が削除されてもよい。また、第1の逆行列A 、第2の逆行列A 、第3の逆行列A 、及び第4の逆行列A から、透過波長帯域λに関する成分が削除されなくてもよい。
 続いて、混信除去行列生成処理によって生成された混信除去行列Bを用いた表示処理について説明する。
 一例として図10に示すように、表示処理では、第1出力値取得部82は、イメージセンサ26からプロセッサ70に入力された撮像データ120に基づいて、全物理画素58の出力値Yをそれぞれ取得する。
 第1混信除去処理部84は、表示用のマルチスペクトル画像である表示用画像132(図11参照)を取得するために、第1出力値取得部82によって取得された全物理画素58の出力値Yに対して混信除去処理をそれぞれ実行する。具体的には、第1混信除去処理部84は、NVM72に記憶されている混信除去行列Bと、第1出力値取得部82によって取得された全物理画素58の出力値Yとを取得し、取得した混信除去行列Bと全物理画素58の出力値Yとに基づいて、式(5)により、各画像画素の画素値Xを出力する。
 このように、第1混信除去処理部84によって混信除去処理が行われることにより、撮像データ120が、ユーザ等による波長選択指示(図9参照)に基づいて設定された透過波長帯域λに対応する画像データに分離される。図10に示す例では、波長設定部102(図9参照)によって第2透過波長帯域λ及び第3透過波長帯域λが設定されたことに応じて、撮像データ120が、第2画像データと第3画像データとに分離されている。第2画像データは、波長設定部102によって設定された第2透過波長帯域λの光の輝度値Xλ2を示す画像データである。第3画像データは、同じく波長設定部102によって設定された第3透過波長帯域λの光の輝度値Xλ3を示す画像データである。表示処理における混信除去処理は、本開示の技術に係る「低減処理」、「間引き処理」、及び「演算処理」の一例である。
 表示処理では、保存処理で用いられる混信除去行列Aよりも成分が少ない混信除去行列Bが用いられることにより、保存処理よりも撮像データ120に対して処理する情報の量が低減される。すなわち、表示処理のうちの混信除去処理では、撮像データ120に含まれる情報から、偏光情報と波長情報とが間引かれる。偏光情報は、偏光成分削除部104(図9参照)によって削除された偏光角度θに関する成分に対応する情報である。波長情報は、波長成分削除部108(図9参照)によって削除された透過波長帯域λに関する成分に対応する情報である。そして、このように、撮像データ120に含まれる情報から偏光情報と波長情報とが間引かれることにより、表示処理のうちの混信除去処理では、保存処理よりも撮像データ120に対して処理する情報の量が低減される。偏光情報は、本開示の技術に係る「情報」及び「偏光情報」の一例である。波長情報は、本開示の技術に係る「情報」及び「波長情報」の一例である。
 一例として図11に示すように、第1画像データ生成部86は、第1混信除去処理部84によって混信除去処理が行われることにより生成された画像データを合成することにより、マルチスペクトル画像データである表示用画像データ122を生成する。図11に示す例では、第2画像データ及び第3画像データが合成されることにより、表示用画像データ122が生成されている。表示用画像データ122は、マルチスペクトル画像である表示用画像132を示す画像データである。表示用画像データ122は、ディスプレイ36に対して出力され、ディスプレイ36には、表示用画像132が表示される。
 なお、図10及び図11に示す例では、第2透過波長帯域λ及び第3透過波長帯域λが表示用画像132の生成のために使用される透過波長帯域λとして設定されたことに応じて、撮像データ120が、第2画像データと第3画像データとに分離される。しかしながら、第1透過波長帯域λ及び第2透過波長帯域λが表示用画像132の生成のために使用される透過波長帯域λとして設定されたことに応じて、撮像データ120が、第1画像データと第2画像データとに分離されてもよい。また、第1透過波長帯域λ及び第3透過波長帯域λが表示用画像132の生成のために使用される透過波長帯域λとして設定されたことに応じて、撮像データ120が、第1画像データと第3画像データとに分離されてもよい。
 次に、本実施形態に係る撮像装置10の作用について図12から図14を参照しながら説明する。
 はじめに、図12を参照しながら、撮像装置10のプロセッサ70によって行われる画像処理のうちの表示処理の流れの一例について説明する。
 図12に示す表示処理では、先ず、ステップST10で、第1出力値取得部82は、イメージセンサ26からプロセッサ70に入力された撮像データ120に基づいて、全物理画素58の出力値Yをそれぞれ取得する(図10参照)。ステップST10の処理が実行された後、表示処理は、ステップST12へ移行する。
 ステップST12で、第1混信除去処理部84は、ステップST10で取得された全物理画素58の出力値Yに対して、混信除去行列Bを用いた混信除去処理をそれぞれ実行する(図10参照)。これにより、撮像データ120が、ユーザ等による波長選択指示(図9参照)に基づいて設定された透過波長帯域λに対応する画像データに分離される。ステップST12の処理が実行された後、表示処理は、ステップST14へ移行する。
 ステップST14で、第1画像データ生成部86は、ステップST12で混信除去処理が行われることにより生成された画像データを合成することにより、マルチスペクトル画像データである表示用画像データ122を生成する(図11参照)。表示用画像データ122は、ディスプレイ36に対して出力される。これにより、表示用画像データ122によって示される表示用画像132がディスプレイ36に表示される。ステップST14の処理が実行された後、表示処理は終了する。
 次に、図13を参照しながら、撮像装置10のプロセッサ70によって行われる画像処理のうちの保存処理の流れの一例について説明する。
 図13に示す保存処理では、先ず、ステップST20で、第2出力値取得部92は、イメージセンサ26からプロセッサ70に入力された撮像データ120に基づいて、全物理画素58の出力値Yをそれぞれ取得する(図6参照)。ステップST20の処理が実行された後、保存処理は、ステップST22へ移行する。
 ステップST22で、第2混信除去処理部94は、ステップST20で取得された全物理画素58の出力値Yに対して、混信除去行列Aを用いた混信除去処理をそれぞれ実行する(図6参照)。これにより、撮像データ120が、複数の透過波長帯域λに対応する画像データに分離される。ステップST22の処理が実行された後、保存処理は、ステップST24へ移行する。
 ステップST24で、第2画像データ生成部96は、ステップST22で混信除去処理が行われることにより生成された画像データを合成することにより、マルチスペクトル画像データである保存用画像データ124を生成する(図7参照)。保存用画像データ124は、NVM72に記憶される。ステップST24の処理が実行された後、保存処理は終了する。
 次に、図14を参照しながら、表示処理で用いられる混信除去行列Bを生成するための混信除去行列生成処理の流れの一例について説明する。
 図14に示す混信除去行列生成処理では、先ず、ステップST30で、波長設定部102は、プロセッサ70に入力された波長選択指示信号に基づいて、第1透過波長帯域λ、第2透過波長帯域λ、及び第3透過波長帯域λから、表示用画像132を生成するために使用する透過波長帯域λを設定する(図9参照)。ステップST30の処理が実行された後、混信除去行列生成処理は、ステップST32へ移行する。
 ステップST32で、偏光成分削除部104は、NVM72に記憶されている混信行列Aから、偏光子62Aの偏光角度θに関する成分を削除することで第1の混信行列Aを生成する(図9参照)。また、偏光成分削除部104は、NVM72に記憶されている混信行列Aから、偏光子62Bの偏光角度θに関する成分を削除することで第2の混信行列Aを生成する(図9参照)。また、偏光成分削除部104は、NVM72に記憶されている混信行列Aから、偏光子62Cの偏光角度θに関する成分を削除することで第3の混信行列Aを生成する(図9参照)。さらに、偏光成分削除部104は、NVM72に記憶されている混信行列Aから、偏光子62Dの偏光角度θに関する成分を削除することで第4の混信行列Aを生成する(図9参照)。ステップST32の処理が実行された後、混信除去行列生成処理は、ステップST34へ移行する。
 ステップST34で、逆行列導出部106は、ステップST32で生成された第1の混信行列A、第2の混信行列A、第3の混信行列A、及び第4の混信行列Aに対して、逆行列である第1の逆行列A 、第2の逆行列A 、第3の逆行列A 、及び第4の逆行列A を導出する(図9参照)。ステップST34の処理が実行された後、混信除去行列生成処理は、ステップST36へ移行する。
 ステップST36で、波長成分削除部108は、ステップST30で設定された透過波長帯域λを除く残りの透過波長帯域λに関する成分を、ステップST34で導出された第1の逆行列A 、第2の逆行列A 、第3の逆行列A 、及び第4の逆行列A からそれぞれ削除する(図9参照)。これにより、第1の逆行列A 、第2の逆行列A 、第3の逆行列A 、及び第4の逆行列A から、第1の混信除去行列B 、第2の混信除去行列B 、第3の混信除去行列B 、及び第4の混信除去行列B が生成される。ステップST36の処理が実行された後、混信除去行列生成処理は、ステップST38へ移行する。
 ステップST38で、条件数導出部110は、第1の混信除去行列B の条件数と、第2の混信除去行列B の条件数と、第3の混信除去行列B の条件数と、第4の混信除去行列B の条件数とを導出する(図9参照)。ステップST38の処理が実行された後、混信除去行列生成処理は、ステップST40へ移行する。
 ステップST40で、混信除去行列決定部112は、ステップST36で得られた第1の混信除去行列B 、第2の混信除去行列B 、第3の混信除去行列B 、及び第4の混信除去行列B から、ステップST38で導出された条件数が最も小さい混信除去行列を混信除去行列Bとして決定する。混信除去行列Bは、NVM72に記憶される。ステップST40の処理が実行された後、混信除去行列生成処理は終了する。
 なお、上述の撮像装置10の作用として説明した撮像制御方法は、本開示の技術に係る「情報処理方法」の一例である。
 以上説明したように、本実施形態に係る撮像装置10では、プロセッサ70は、イメージセンサ26からの撮像データ120に対して、マルチスペクトル画像データに関連する表示処理及び保存処理を行う。表示処理は、保存処理よりも撮像データ120に対して情報の量を低減する混信除去処理を含む。したがって、例えば撮像データ120に対して情報の量が低減されずに表示処理が行われる場合に比して、プロセッサ70の負荷を軽減することができる。
 表示処理における混信除去処理は、撮像データ120に対して情報を間引く間引き処理を含む。したがって、表示処理における混信除去処理では、保存処理における混信除去処理よりも撮像データ120に対して処理する情報の量を低減することができる。
 撮像データ120に対して間引かれる情報は、撮像データ120に含まれる偏光情報を含む。したがって、表示処理における混信除去処理で用いられる混信除去行列Bの行数を、保存処理における混信除去処理で用いられる混信除去行列Aの行数よりも少なくすることができる。
 撮像データ120に対して間引かれる情報は、撮像データ120に含まれる波長情報を含む。したがって、このことによっても、表示処理における混信除去処理で用いられる混信除去行列Bの行数を、保存処理における混信除去処理で用いられる混信除去行列Aの行数よりも少なくすることができる。
 表示処理における混信除去処理は、混信除去行列Bの条件数に基づいて行われる。したがって、混信除去行列Bの条件数に関係なく混信除去処理が行われる場合に比して、精度の高い画素値Xを得ることができる。
 プロセッサ70は、撮像データ120とマルチスペクトル画像データとの関係を示す混信行列Aから偏光情報に対応する成分を削除することにより、第1の混信行列A~第4の混信行列Aを生成し、混信除去行列Bは、第1の混信行列A~第4の混信行列Aの逆行列である第1の逆行列A ~第4の逆行列A に基づいて生成される。したがって、混信行列Aから偏光情報に対応する成分が削除されずに混信除去行列Bが生成される場合に比して、混信除去行列Bの行数を減らすことができる。
 撮像データ120は、イメージセンサ26の全物理画素58から出力されたデータである。したがって、表示処理と保存処理とを並列して行うことができる。
 表示処理及び保存処理は、並列して行われる。したがって、同じフレームから表示用画像132と保存用画像134とを得ることができる。
 表示処理及び保存処理は、撮像データ120に基づいてマルチスペクトル画像データを生成する処理である。したがって、マルチスペクトル画像である表示用画像132と保存用画像134とを得ることができる。
 なお、上記実施形態では、表示処理において、保存処理で用いられる混信除去行列Aよりも成分が少ない混信除去行列Bが用いられることにより、撮像データ120に含まれる情報から、偏光成分削除部104(図9参照)によって削除された偏光角度θに関する成分に対応する偏光情報と、波長成分削除部108(図9参照)によって削除された透過波長帯域λに関する成分に対応する波長情報とが間引かれる。そして、これにより、表示処理では、保存処理よりも撮像データ120に対して処理する情報の量が低減される。
 しかしながら、表示処理は次のように行われてもよい。図15に示す例では、表示処理において、保存処理で用いられる混信除去行列Aを用いて全物理画素58の出力値Yに対して混信除去処理が行われる。これにより、第1透過波長帯域λに対応する第1画像140、第2透過波長帯域λに対応する第2画像142、及び第3透過波長帯域λに対応する第3画像144が得られる。続いて、第1画像140、第2画像142、及び第3画像144に対して画像画素が間引かれる。例えば、画像画素は、等間隔に間引かれる。そして、取り出された画像画素によって形成された第1画像140、第2画像142、及び第3画像144が合成されることにより、マルチスペクトル画像が生成される。
 図15に示す例では、表示処理において、第1画像140、第2画像142、及び第3画像144に対して画像画素が間引かれることにより、保存処理よりも撮像データ120に対して処理する情報の量を低減することができる。また、表示処理及び保存処理で共通の混信除去行列Aを用いることができるので、表示処理及び保存処理で混信除去処理を共通化することができる。
 また、特に図示しないが、表示処理では、保存処理で用いられる混信除去行列Aよりも成分が少ない混信除去行列Bを用いて全物理画素58の出力値Yに対して混信除去処理が行われ、混信除去処理で得られた第1画像140、第2画像142、及び第3画像144に対して画像画素が間引かれてもよい。そして、取り出された画像画素によって形成された第1画像140、第2画像142、及び第3画像144が合成されることにより、マルチスペクトル画像が生成されてもよい。このような例においても、表示処理では、保存処理よりも撮像データ120に対して処理する情報の量を低減することができる。
 また、上記実施形態では、ユーザ等からの撮像指示が受付装置34によって受け付けられた場合、表示処理及び保存処理が並列して行われる。しかしながら、撮像指示が受付装置34によって受け付けられていない場合には表示処理が繰り返し実行され、撮像指示が受付装置34によって受け付けられた場合に、表示処理が行われずに、保存処理が行われてもよい。すなわち、表示処理及び保存処理は、選択的に行われてもよい。具体的には、表示処理及び保存処理は、異なるフレームに対して行われてもよい。この場合にも、例えば撮像データ120に対して情報の量が低減されずに表示処理が行われる場合に比して、プロセッサ70の負荷を軽減することができる。
 また、上記実施形態では、表示処理及び保存処理において、全物理画素58の出力値Yがそれぞれ取得される。すなわち、表示処理及び保存処理では、全物理画素58に対して読み出し処理がそれぞれ行われる。しかしながら、例えば、表示処理及び保存処理が選択的に行われる場合に、表示処理では、一例として図16から図22に示すように、イメージセンサ26の光電変換素子48に対して物理画素58が間引かれてもよい。
 図16に示される例では、複数の物理画素58は、複数の画素ブロック60を形成している。各画素ブロック60は、縦横3個ずつの合計9個の物理画素58によって形成されている。各画素ブロック60において、9個の物理画素58には、3種類の偏光子62(すなわち、偏光子62A、偏光子62B、及び偏光子62C)が割り当てられている。偏光子62Aは、第1偏光角度θが0°に設定された偏光子であり、偏光子62Bは、第2偏光角度θが60°に設定された偏光子であり、偏光子62Cは、第3偏光角度θが120°に設定された偏光子である。
 各行の偏光子62は、光電変換素子48の横方向に偏光子62A、偏光子62B、及び偏光子62Cの順に並ぶように配置されている。また、複数の偏光子62は、各行の先頭の偏光子62が行毎に偏光子62A、偏光子62C、及び偏光子62Bの順に代わるように配置されている。これにより、複数の偏光子62Aは、光電変換素子48の斜め方向に連なって配置されている。同様に、複数の偏光子62Bは、光電変換素子48の斜め方向に連なって配置されており、複数の偏光子62Cも、光電変換素子48の斜め方向に連なって配置されている。なお、図16に示される例では、Bフィルタ64A、Gフィルタ64B、及びRフィルタ64C(図4参照)の配置は、図4と同様である。
 そして、表示処理では、複数の物理画素58から各画素ブロック60の同じ位置に配置された3個の物理画素58(すなわち、物理画素58A、物理画素58B、及び物理画素58C)がそれぞれ選択される。具体的には、各画素ブロック60で、9個の物理画素58から、偏光子62Aに対応する物理画素58Aと、偏光子62Bに対応する物理画素58Bと、偏光子62Cに対応する物理画素58Cが1つずつ選択される。物理画素58Aは、物理画素58B及び物理画素58Cに対して光電変換素子48の縦方向及び横方向に隣接する。そして、表示処理では、選択された物理画素58(すなわち、間引かれた物理画素58を除く物理画素58)の出力値Yが読み出される。画素ブロック60は、本開示の技術に係る「第1画素ブロック」の一例である。物理画素58は、本開示の技術に係る「第1画素」の一例である。
 図17に示される例では、図16に示される例に対して、各画素ブロック60で9個の物理画素58から選択される3個の物理画素58が異なる。すなわち、図17に示される例では、物理画素58Aに対して離れた位置に配置された物理画素58B及び物理画素58Cが選択される。これにより、光電変換素子48の斜め方向に連なる物理画素58A、物理画素58B、及び物理画素58Cが選択される。そして、表示処理では、選択された物理画素58(すなわち、間引かれた物理画素58を除く物理画素58)の出力値Yが読み出される。画素ブロック60は、本開示の技術に係る「第1画素ブロック」の一例である。物理画素58は、本開示の技術に係る「第1画素」の一例である。
 図18に示される例では、図16に示される例に対して、選択される物理画素58が異なる。すなわち、図18に示される例では、隣接する画素ブロック60で異なる種類の偏光子62に対応する物理画素58が選択される。具体的には、画素ブロック60が光電変換素子48の横方向にずれるに従って、選択される物理画素58が光電変換素子48の縦方向にずれ、かつ、画素ブロック60が光電変換素子48の縦方向にずれるに従って、選択される物理画素58が光電変換素子48の横方向にずれるように、各画素ブロック60から物理画素58が選択される。そして、表示処理では、選択された物理画素58(すなわち、間引かれた物理画素58を除く物理画素58)の出力値Yが読み出される。画素ブロック60は、本開示の技術に係る「第2画素ブロック」の一例である。物理画素58は、本開示の技術に係る「第2画素」の一例である。
 図19に示される例では、図16に示される例に対して、選択される物理画素58が異なる。すなわち、図19に示される例では、複数の画素ブロック60によって複数行の画素ライン150が形成されており、複数行の画素ライン150から1行ずつ行間隔を空けて画素ライン150が選択される。そして、表示処理では、選択された画素ライン150(すなわち、間引かれた画素ライン150を除く画素ライン150)に含まれる物理画素58の出力値Yが読み出される。画素ブロック60は、本開示の技術に係る「第3画素ブロック」の一例である。画素ライン150は、本開示の技術に係る「画素ライン」の一例である。物理画素58は、本開示の技術に係る「第3画素」の一例である。
 図20に示される例では、図16に示される例に対して、偏光子62A、偏光子62B、及び偏光子62Cの配置が異なる。すなわち、図20に示される例では、各行の偏光子62は、光電変換素子48の横方向に偏光子62A、偏光子62B、及び偏光子62Cの順に並ぶように配置されている。各行の先頭の偏光子62は偏光子62Aで同じである。これにより、複数の偏光子62Aは、光電変換素子48の縦方向に連なって配置されている。同様に、複数の偏光子62Bは、光電変換素子48の縦方向に連なって配置されており、複数の偏光子62Cも、光電変換素子48の縦方向に連なって配置されている。
 また、図20に示される例では、図16に示される例に対して、Bフィルタ64A、Gフィルタ64B、及びRフィルタ64Cの配置が異なる。すなわち、図20に示される例では、Bフィルタ64A、Gフィルタ64B、及びRフィルタ64Cが行毎に設けられており、Bフィルタ64A、Gフィルタ64B、及びRフィルタ64Cが光電変換素子48の縦方向にBフィルタ64A、Gフィルタ64B、及びRフィルタ64Cの順に並ぶように配置されている。
 さらに、図20に示される例では、図16に示される例に対して、選択される物理画素58が異なる。すなわち、図20に示される例では、複数の画素ブロック60から、光電変換素子48の縦方向及び横方向に1つの画素ブロック60分の間隔を空けて画素ブロック60が選択される。そして、表示処理では、選択された画素ブロック60(すなわち、間引かれた画素ブロック60を除く画素ブロック60)に含まれる物理画素58の出力値Yが読み出される。画素ブロック60は、本開示の技術に係る「第4画素ブロック」の一例である。物理画素58は、本開示の技術に係る「第4画素」の一例である。
 図21に示される例では、図16に示される例に対して、Bフィルタ64A、Gフィルタ64B、及びRフィルタ64Cの配置が異なる。すなわち、図21に示される例では、各行のフィルタ64は、光電変換素子48の横方向にBフィルタ64A、Gフィルタ64B、及びRフィルタ64Cの順に並ぶように配置されている。また、複数のフィルタ44は、各行の先頭のフィルタ64が行毎にBフィルタ64A、Rフィルタ64C、及びGフィルタ64Bの順に代わるように配置されている。
 また、図21に示される例では、図20に示される例と同様に、複数の画素ブロック60から、光電変換素子48の縦方向及び横方向に1つの画素ブロック60分の間隔を空けて画素ブロック60が選択される。そして、表示処理では、選択された画素ブロック60(すなわち、間引かれた画素ブロック60を除く画素ブロック60)に含まれる物理画素58の出力値Yが読み出される。画素ブロック60は、本開示の技術に係る「第4画素ブロック」の一例である。物理画素58は、本開示の技術に係る「第4画素」の一例である。
 図22に示される例では、縦横2個ずつの合計4個の物理画素58によって、偏光サブブロックが形成されている。各偏光サブブロックにおいて、4個の物理画素58には、3種類の偏光子62(すなわち、偏光子62A、偏光子62B、及び偏光子62C)が割り当てられている。また、縦横2個ずつの合計4個の偏光サブブロックによって、フィルタブロックが形成されている。さらに、縦横2個ずつの合計4個のフィルタブロックによって画素ブロック60が形成されている。4個のフィルタブロックには、Bフィルタ64A、Gフィルタ64B、及びRフィルタ64Cが割り当てられている。
 また、図22に示される例では、複数の画素ブロック60から、光電変換素子48の縦方向及び横方向に1つの画素ブロック60分の間隔を空けて画素ブロック60が選択される。そして、表示処理では、選択された画素ブロック60(すなわち、間引かれた画素ブロック60を除く画素ブロック60)に含まれる物理画素58の出力値Yが読み出される。画素ブロック60は、本開示の技術に係る「第4画素ブロック」の一例である。物理画素58は、本開示の技術に係る「第4画素」の一例である。
 図16から図22に示される例では、表示処理は、保存処理よりもイメージセンサ26に対して物理画素58の間引き量が多いので、例えば表示処理と保存処理とで物理画素58の間引き量が同じ場合に比して、表示処理におけるプロセッサ70の負荷を軽減することができる。
 図16から図22に示される例において、イメージセンサ26は、本開示の技術に係る「第2イメージセンサ」の一例であり、表示処理は、本開示の技術に係る「第3処理」の一例であり、保存処理は、本開示の技術に係る「第4処理」の一例である。
 また、上記実施形態において、表示処理及び保存処理は、共通のプロセッサ70によって行われるが、プロセッサ70は、表示処理用のプロセッサと、保存処理用のプロセッサとを有していてもよい。
 また、上記実施形態に係る技術は、撮像装置10以外の種類の装置(以下、「その他の装置」と称する)に対して適用されてもよい。また、上記実施形態に係る技術がその他の装置に対して適用される場合に、その他の装置は、イメージセンサ26以外のセンサ(例えば、LiDAR又は距離センサ等)を備えていてもよい。また、その他の装置では、表示処理及び保存処理は、イメージセンサ26以外のセンサから出力された出力データに対して行われてもよい。さらに、その他の装置では、表示処理及び保存処理以外の第1処理及び第2処理が行われてもよい。
 また、第1処理及び第2処理のいずれか一方は、マルチスペクトル画像データを生成する処理でなくてもよい。
 また、上記実施形態では、撮像データ120に対して間引かれる情報は、偏光情報及び波長情報であるが、偏光情報及び波長情報以外の情報でもよい。
 また、上記実施形態では、撮像データ120に対して情報が間引かれることにより、表示処理では、保存処理よりも撮像データ120に対して処理される情報の量が低減されるが、間引き処理以外の処理により、表示処理において保存処理よりも撮像データ120に対して処理される情報の量が低減されてもよい。
 また、上記実施形態では、混信除去行列Bは、撮像装置10で生成されるが、撮像装置10以外の外部の装置で生成されてもよい。
 また、上記実施形態では、一例として、マルチスペクトル画像として、3つの透過波長帯域λに分光された光に基づいて生成されるマルチスペクトル画像を例に挙げて説明したが、3つの透過波長帯域λは、あくまでも一例に過ぎず、4つ以上の透過波長帯域λであってもよい。すなわち、撮像装置10は、3つの透過波長帯域λに分光された光を撮像可能なマルチスペクトルカメラよりも高い波長分解能で被写体を撮像可能なマルチスペクトルカメラであってもよい。
 また、上記複数の変形例のうち組み合わせ可能な変形例は、適宜、組み合わされてもよい。
 また、上記実施形態では、プロセッサ70を例示したが、プロセッサ70に代えて、又は、プロセッサ70と共に、他の少なくとも1つのCPU、少なくとも1つのGPU、及び/又は、少なくとも1つのTPUを用いるようにしてもよい。
 また、上記実施形態では、NVM72に画像処理プログラム80及び混信除去行列生成プログラム100が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、画像処理プログラム80及び/又は混信除去行列生成プログラム100がSSD又はUSBメモリなどの可搬型の非一時的なコンピュータ読取可能な記憶媒体(以下、単に「非一時的記憶媒体」と称する)に記憶されていてもよい。非一時的記憶媒体に記憶されている画像処理プログラム80及び/又は混信除去行列生成プログラム100は、撮像装置10のコンピュータ32にインストールされてもよい。
 また、ネットワークを介して撮像装置10に接続される他のコンピュータ又はサーバ装置等の記憶装置に画像処理プログラム80及び/又は混信除去行列生成プログラム100を記憶させておき、撮像装置10の要求に応じて画像処理プログラム80及び/又は混信除去行列生成プログラム100がダウンロードされ、コンピュータ32にインストールされてもよい。
 また、撮像装置10に接続される他のコンピュータ又はサーバ装置等の記憶装置、又はNVM72に画像処理プログラム80及び/又は混信除去行列生成プログラム100の全てを記憶させておく必要はなく、画像処理プログラム80及び/又は混信除去行列生成プログラム100の一部を記憶させておいてもよい。
 また、撮像装置10には、コンピュータ32が内蔵されているが、本開示の技術はこれに限定されず、例えば、コンピュータ32が撮像装置10の外部に設けられるようにしてもよい。
 また、上記実施形態では、プロセッサ70、NVM72、及びRAM74を含むコンピュータ32が例示されているが、本開示の技術はこれに限定されず、コンピュータ32に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ32に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 また、上記実施形態で説明した各種処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、各種処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電子回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで各種処理を実行する。
 各種処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、各種処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、各種処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、各種処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、各種処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電子回路を用いることができる。また、上記の視線検出処理はあくまでも一例である。したがって、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3個の以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (19)

  1.  プロセッサを備え、
     前記プロセッサは、センサからの出力データに対して、マルチスペクトル画像データに関連する第1処理及び第2処理を行い、
     前記第1処理は、前記第2処理よりも前記出力データに対して情報の量を低減する低減処理を含む
     情報処理装置。
  2.  前記低減処理は、前記出力データに対して前記情報を間引く間引き処理を含む
     請求項1に記載の情報処理装置。
  3.  前記センサは、第1イメージセンサであり、
     前記出力データは、前記第1イメージセンサから出力された撮像データである
     請求項1又は請求項2に記載の情報処理装置。
  4.  前記撮像データは、前記第1イメージセンサから電気信号を低減せずに出力されたデータである
     請求項3に記載の情報処理装置。
  5.  前記情報は、前記撮像データに含まれる偏光情報を含む
     請求項3又は請求項4に記載の情報処理装置。
  6.  前記情報は、前記撮像データに含まれる波長情報を含む
     請求項3から請求項5の何れか一項に記載の情報処理装置。
  7.  前記低減処理は、第1行列を用いた演算処理を含み、
     前記演算処理は、前記第1行列の条件数に基づいて行われる
     請求項1から請求項6の何れか一項に記載の情報処理装置。
  8.  前記プロセッサは、前記出力データと前記マルチスペクトル画像データとの関係を示す第2行列から前記情報に対応する成分を削除することにより第3行列を生成し、
     前記第1行列は、前記第3行列の逆行列に基づいて生成される
     請求項7に記載の情報処理装置。
  9.  前記第1処理は、前記出力データに基づいて表示用画像データを生成する表示処理であり、
     前記第2処理は、前記出力データに基づいて保存用画像データを生成する保存処理である
     請求項1から請求項8の何れか一項に記載の情報処理装置。
  10.  前記表示処理及び前記保存処理は、並列して行われる
     請求項9に記載の情報処理装置。
  11.  前記表示処理及び前記保存処理は、選択的に行われる
     請求項9に記載の情報処理装置。
  12.  前記第1処理及び/又は前記第2処理は、前記出力データに基づいて前記マルチスペクトル画像データを生成する処理である
     請求項1から請求項11の何れか一項に記載の情報処理装置。
  13.  前記センサは、第2イメージセンサであり、
     前記プロセッサは、前記第2イメージセンサからの読み出し処理である第3処理及び第4処理を選択的に行い、
     前記第3処理は、前記第4処理よりも前記第2イメージセンサに対して画素の間引き量が多い
     請求項1から請求項12の何れか一項に記載の情報処理装置。
  14.  前記第2イメージセンサは、複数の第1画素ブロックを有し、
     各前記第1画素ブロックは、複数の第1画素によって形成され、
     前記複数の第1画素には、複数の種類の偏光子が割り当てられており、
     前記第3処理は、各前記第1画素ブロックで、前記複数の第1画素から各前記偏光子に対応する第1画素を選択する処理を含む
     請求項13に記載の情報処理装置。
  15.  前記第2イメージセンサは、複数の第2画素ブロックを有し、
     各前記第2画素ブロックは、複数の第2画素によって形成され、
     前記複数の第2画素には、複数の種類の偏光子が割り当てられており、
     前記第3処理は、隣接する前記第2画素ブロックで異なる種類の前記偏光子に対応する第2画素を前記複数の第2画素から選択する処理を含む
     請求項13に記載の情報処理装置。
  16.  前記第2イメージセンサは、複数の第3画素ブロックを有し、
     各前記第3画素ブロックは、複数の第3画素によって形成され、
     前記複数の第3画素には、複数の種類の偏光子が割り当てられており、
     前記第3処理は、前記複数の第3画素ブロックによって形成される複数行の画素ラインから行間隔を空けて画素ラインを選択する処理を含む
     請求項13に記載の情報処理装置。
  17.  前記第2イメージセンサは、複数の第4画素ブロックを有し、
     各前記第4画素ブロックは、複数の第4画素によって形成され、
     前記複数の第4画素には、複数の種類の偏光子が割り当てられており、
     前記第3処理は、前記複数の第4画素ブロックから間隔を空けて第4画素ブロックを選択する処理を含む
     請求項13に記載の情報処理装置。
  18.  センサからの出力データに対して、マルチスペクトル画像データに関連する第1処理及び第2処理を行うことを備え、
     前記第1処理は、前記第2処理よりも前記出力データに対して情報の量を低減する低減処理を含む
     情報処理方法。
  19.  特定処理をコンピュータに実行させるためのプログラムであって、
     前記特定処理は、センサからの出力データに対して、マルチスペクトル画像データに関連する第1処理及び第2処理を行うことを備え、
     前記第1処理は、前記第2処理よりも前記出力データに対して情報の量を低減する低減処理を含む
     プログラム。
     
PCT/JP2022/041772 2022-03-30 2022-11-09 情報処理装置、情報処理方法、及びプログラム WO2023188512A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-057532 2022-03-30
JP2022057532 2022-03-30

Publications (1)

Publication Number Publication Date
WO2023188512A1 true WO2023188512A1 (ja) 2023-10-05

Family

ID=88200685

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/041772 WO2023188512A1 (ja) 2022-03-30 2022-11-09 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
WO (1) WO2023188512A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019080245A (ja) * 2017-10-26 2019-05-23 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、及び撮像装置
JP2021135404A (ja) * 2020-02-27 2021-09-13 富士フイルム株式会社 レンズ装置、撮像装置、撮像方法、及び撮像プログラム
WO2022004571A1 (ja) * 2020-06-30 2022-01-06 富士フイルム株式会社 レンズ装置及び撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019080245A (ja) * 2017-10-26 2019-05-23 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、及び撮像装置
JP2021135404A (ja) * 2020-02-27 2021-09-13 富士フイルム株式会社 レンズ装置、撮像装置、撮像方法、及び撮像プログラム
WO2022004571A1 (ja) * 2020-06-30 2022-01-06 富士フイルム株式会社 レンズ装置及び撮像装置

Similar Documents

Publication Publication Date Title
CN110463197B (zh) 增强立体相机成像系统中的空间分辨率
JP5943393B2 (ja) 撮像装置
JP5698875B2 (ja) カラー撮像素子および撮像装置
US20170374263A1 (en) Methods and apparatus for reducing spatial flicker artifacts
JP5702895B2 (ja) カラー撮像素子および撮像装置
JP5702892B2 (ja) カラー撮像素子および撮像装置
JPWO2014007280A1 (ja) カラー撮像素子および撮像装置
JP5718138B2 (ja) 画像信号処理装置及びプログラム
US8976275B2 (en) Color imaging element
US20220078359A1 (en) Imaging apparatus
JP6014349B2 (ja) 撮像装置、制御方法、及びプログラム
WO2023188512A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230419458A1 (en) Image data processing device, image data processing method, image data processing program, and imaging system
US20210142446A1 (en) Image processing device, image processing method, and non-transitory computer-readable medium
CN103813145A (zh) 信号处理电路、成像装置和程序
WO2020213418A1 (ja) 撮像装置、信号処理装置、信号処理方法及び信号処理プログラム
WO2023188513A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2023145188A1 (ja) 撮像装置、処理装置、処理方法、プログラム、及び光学フィルタ
WO2023053767A1 (ja) データ処理装置、方法及びプログラム並びにマルチスペクトルカメラ
JP7083912B2 (ja) 撮像素子、撮像装置、撮像方法およびプログラム
WO2023053766A1 (ja) 画像データ処理装置及び方法
WO2024047944A1 (ja) 校正用部材、筐体装置、校正装置、校正方法、及びプログラム
JP7415079B2 (ja) 撮像装置、撮像方法、及びプログラム
US11750940B2 (en) Imaging apparatus, operation method thereof, and operation program thereof
US20150215544A1 (en) Image processing apparatus, image capturing apparatus, control method and recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22935641

Country of ref document: EP

Kind code of ref document: A1